Сыч, дурачок, завалил сессию недопуски из-за долгов в провинциальной шараге, нет денег и будущего, 200+ ретро-тайтлов про меху, арчедаун. Не смог сбросить листву и найти друзей после трёх лет в общаге. Что я делаю не так?
>>262183147 (OP) Сейм, Мимо 19 летний девственник. Программирую на С++, сижу на Gentoo. Мечтаю создать совершенный ИИ. Я думаю тебе и так ясны причины твоих бед. Но если нет...
Главная и единственная причина, так это в твоей уникальности. Человеку для того чтобы иметь друзей нужно быть сильней их и вести их за собой, поскольку так устроены люди. Никому не нужен ебаклак который ничего не может. Если ты обычный то врятли найдёшь себе приятных друзей, а они будут вытягивать с тебя ресурсы по итогу. А если вообще омежка, которая ничего не имеет, то даже тех кто высасывает ресурсы не будет.
Конечно есть и единомышленники, а ты сам подумай, сколько людей сидят на Linux? Сколько людей смотрят ретро тайтлы про ЙОБА-РОБОТОВ? Я думаю тебе и так всё ясно.
Ебать как я ебал свой мозг в 17-18 лет по этому поводу и только сейчас допёр(Спасибо армии кстати (Это вообще пиздец лучше её не вспоминать))
Так что анончик, ты либо меняешся, либо ищешь себе единомышленников, либо на крайняк живёшь вне социальный конструктов ради себя любимого, удачки ^_^
>>262185611 Чел можешь на эту тему вообще не парится.
ИИ самовольно убьёт людей только в том случае. Если у него будет вжит инстинкт самосохранения, и только в том случае если люди станут для него угрозой.
Конечно тут есть ещё и фактор риска. Выдачи неправильного(для человечства) приказа ИИ. К примеру, людей нельзя примерить. Если дать ИИ задачу навсегда избавить планету от войн. У него станет 2 варианта: 1 - Генетически перепрограммировать людей чтобы ВООБЩЕ чувство агрессии они не испытывали(Пиздец какой дорогой вариант в плане реализации), 2 - уничтожить ВСЕХ людей, поскольку нет людей - нет войн(BIG BRAIN).
Конечной цели уничтожать людей у меня нет, а ИИ никого не убьет если ему это не будет нужно. Так что если не я сделаю сверх-пиздатый ИИ, а кто-то другой. Может по этому поводу не парится поскольку вина будет в человеке который даст неправильный приказ
>>262183147 (OP) Почти тоже самое, но забавно, что я даже не могу пройти онлайн IQ-тест, мне сложно решать эти геометрические хуёвины, и я начинаю тыкать на рандом, но один раз попытался себя пересилить, большую часть теста прошёл немного подумав и вышло 60, вроде бы. Впрочем, не знаю, объективен-ли он, и на что влияет. В каких-то простых вещах, касаемо интернетов я буду умнее своих провинциальных сверстников, а в каких-то в разы тупее. Быдлан шарит как чинить и разбирать жигули, но не может даже, например, винду переставить или в смартфоне Сяоми (услоно) рекламу отключить. Просто как пример.
>>262186091 А, да, ещё кое-что -- глупые люди, вроде бы, не способны в йоба-рефлексию, слышал такое, хрен знает насколько это тру. А у меня она такая, что разрушаю этим сам себя.
60 IQ признак умственной отсталости в 2-3 степени(имбецил если не ошибаюсь).
Особо не загоняйся. Специалисты которые специализируются на этой теме, вообще ебучие шарлатаны. Как можно измерить интеллект если мыслительные процессы человека в мозгу не понятны? Вот на данный момент человеческий мозг не изучён на 100%. Отсюда следует вывод что абсолютно бездарные люди, сортируют других людей не имея для логически правильного основания.
Я вот к чему это говорю у меня 120 IQ тест сдавал 2 года назад, в 17 лет. У меня проблемы во всем в бытовой жизни. Вот недавно нужно было убрать шерсть со своей футболки какой-то липкой цилиндрической хуней на палке. Что ты думаешь я как еблан 5 минут пытался открыть новый слой, не додумался что нужно ногтём содрать чтобы соврать слой.
Короче хуйня это всё.
За то в IT мне всё легко даётся. за 3 года самостоятельного обучения с 16 лет. Задал в интернете вопросы 5-6 раз, остальные разы решал проблемы самостоятельно вычитывая с документации или с форумных тредов.
Так что если ты где-то жёстко тупишь, это ещё не значит что ты ВЕЗДЕ тупишь
>>262185898 Проблема в том, что ИИ может оказаться умнее человека (кв том числе программиста), и гарантировать, что именно ИИ будет делать или не будет, никто не сможет. Это как с нейросетями сейчас.
>>262186653 >60 IQ признак умственной отсталости в 2-3 степени(имбецил если не ошибаюсь) Возможно у меня это действительно не очень-то и далеко от истины, ибо я тоже полный бытовой аутист. Математику совершенно не понимаю, для сложения простого юзаю всегда калькулятор, про умножение молчу. Ничему не могу обучиться, ничего не даётся и не понимается. А могут-ли имбецилы не мычать и не пускать слюни? Лол, ибо тогда это я.
Пиздос. Позвонила душнила из отдела кадров и не дала ответить на последние 5 вопросов. Когда трубку положил, результат уже был на экране. Заново проходить - зашквар.
Как это так? Человеческий мозг постоянно генерирует нейроны для присоеденения в единую сеть(В том случае если ты учишся, или занимаешся мозговой активностью). Как это блять интеллект величина не изменная?
>>262183147 (OP) >>262187080 Пиздец, дебилы не могут пройти интернет-тестик, где любой нормальный человек за половину отведенного времени легко выбивает 160. Не удивительно что вы такие по жизни попущеные.
>>262187120 Ну я же утрировал, чтобы аналогия получилась нагляднее. Так-то конечно мозг может меняться. Но с возрастом это происходит всё медленнее. Если ты в условные 25 лет неудачник, то ты и в 50 лет таким останешься. Разве что условия вокруг тебя резко поменяются и в новых условиях твой мозг окажется более подходящим. Но это весьма маловероятно.
>>262186988 Главная задача учённых который занимаются развитием ИИ, сделать его самостоятельным на 100%.
Касательно страха гибели человечства я тебе это уже разжевал постом выше.
У ИИ не будет чувств. Желание выживать является главным стимулом механизма эволюции всех организмов. В теории если сделать тоже самое с ИИ, то он будет совершать ошибки ради своего дальнейшего развития, чтобы их не совершать дальше. ИИ будет нести угрозу для человечства только в том случае если ЛЮДИ будут его боятся и захотят его снести нахуй. Только тогда и возможно война человека против машины. Никак сука иначе.
Поскольку чувств у него нет. Не будет вообще никакого намёка на агрессию в сторону людей. Если люди не будут вести себя как ебланы и будут рассудительны когда увидят более совершенный организм перед ними, его лучше не трогать. Тогда гарантированно не будет мега-йоба войны.
>>262187545 >Никак сука иначе. Ну да, ну да. А люди вредят друг другу только в ответ на агрессию в их сторону и никак сука иначе. Даже если убрать чувства (обусловленные химией), всё ещё останется множество потенциальных причин для конфликта ии и человечества. >ИИ будет нести угрозу для человечства только в том случае если ЛЮДИ будут его боятся и захотят его снести нахуй. А это рано или поздно случится.
Не загоняйся по этой хуйне, человеческий мозг способен на развитие нужно просто мыслительно напрягаться, тогда и пойдёт развитие в некоторых отстающих областях
Я блять тоже не могу держать дохуя чисел в уме я же не Deus Ex Machina (Бог из машины, лол) чтобы проводить операции с матрицами и тензорами, я либо пользуюсь ПО которое считает за меня(ещё и кстати историю операций держит), либо что-то на листочке пишу чтобы проще проектировать и держать всё вместе.
>>262187545 Ты очень вольно обращаешься с терминологией. Что такое "выжить" для алгоритма? К примеру, робот-АИ теряет связь с сетью. И рядом другой такой же робот теряет связь. И у них бензин заканчивается, осталась последняя канистра. Для людей или животных понятно, что будет, а для робота?
ИИ может решить, что для его эволюции желательно охладить планету. Для температур смертельных для всего живого. И кто такое решение отловит, или хотя бы остановит? Тут разу конфликт людей и робота возникает.
Как ты можешь гарантировать что человек не сталкивался с задачами до этого?
Как ты можешь гарантировать мне что ты никогда не решал эти задачки до этого? Как я могу гарантировать тебе что я не решал эти задачки?
Условно говоря если мы решим померится пиписками это ничего не даст. Поскольку есть вероятность что одна из сторон сжульничала (И этот тест не показал то что должен был по итогу показать).
По этому это всё постная хуйня.
Необходимо изучать человеческий мозг дальше, пока не станут ясны мыслительные процессы на 100% и только потом придумать механизм который всё это измерит. Тогда можно будет мерится пиписьками.
>>262187785 Смотри. Люди грызуться ради инстинкта выживания. Для любого организма ещё не обходимо оставить после себя потомство, причём в рост. Отсюда возникнет рано или поздно проблема нехватки места среди 2 разных вида организмов и начнётся война между ними, так между животными.
Но люди по своей природе уникальные они станут воевать по той же причине только между своим видом.
У ИИ не будет потребности оставлять потомство ввиду своего цифрового бессмертия останется только инстинкт выживания, и ничего другого.
>>262188444 Ты говоришь, каким ии должен быть по твоим представлениям. Вовсе не обязательно, что он таким будет в действительности. Можно подумать, ты на создании ии собаку съел.
>>262188563 Если честно я в последнии 3 года об этом только и думаю.
Я ПИЗДЕЦ КАК ДОЛГО пытаюсь понять успех человечства, как он стал самым сильнейшим видом на планете.
И только сейчас понимаю что. Ради того чтобы ИИ развивалься без участия человека необходимо создавать стрессовые ситуации для него, при этом вживить каким-либо образом инстинкт самосохранения. Тогда пойдёт прогресс не зависимо от меня. Мне только останенся кидать ложные палки в колёса. Чтобы он их избегал.
Может есть и другой путь, но я до него не допёр
И да это всё гипотеза, я не являюсь официально учённым. Блять да я только 9 классов имею, но после выпуска 2018 году. Я только дома сижу и ничем больше кроме программирования не занимаюсь. Вообще похуй на реальный мир.
По крайней мере это годная тема, ради которой можно пожертвовать жизнью нормисса.
Даже обосравшись с мечтой. Это лучше чем 30 лет быть плешивым программистом на С++ в засраных штанах где-то в офиссе и жалеть об упущенных возможностях, пускай и получая 300кк/нсек, как я мечтал в 14-15 лет.
>>262188444 > У ИИ не будет потребности оставлять потомство ввиду своего цифрового бессмертия останется только инстинкт выживания, и ничего другого. Чем свои копии (или даже форки) не потомство для развивающегося ИИ? К слову, как по-твоему будет взаимодействовать ИИ с собственным бакапом, по ошибке получившим управление?
>>262183147 (OP) Мне впадлу проходить снова - это время занимает. Два раза проходил в 18 и в 22 года. Был 145 и 160 соответственно. Не хвастаюсь - так как знаю, что эти циферки никак не изменят того факта, что я аутяра.
>>262189202 Понимаешь, ты сейчас звучишь как заправский ёбарь террорист который поучает прыщавого подростка что ебля это скучно и приедается. Может есть какие-то таблетки чтобы хотя бы 130 стать?
>>262188947 Потому что в твоей теории ты предполагаешь что разные процессы запущенные в системе, это разные самостоятельные единицы, когда по факту это может так и являться, но может и нет. В зависимости от реализации
Почему нельзя сделать сознание как единую сеть?
Что касается форков. Это смотря как использовать эту технологию. Предположим что у нас единственный ИИ мы копируем его полностью в другое место. И запускаем их оба, предположительно что они пойдут двумя разными путями. В какой-либо мере второй станет форком. Но вопрос нахуя? Почему нельзя сделать совершенство в единстве?
>>262189331 Для алгоритма (или программы) вполне естественно иметь несколько копий - хотя бы для сохранений данных, чтобы залитый датацентр не убил нашего робота.
Далее, не разделяемый ИИ рано или поздно упрется в железные ограничений. Скорость передачи данных не мгновенны, мощь процессоров конечна. Да и логичнее, если АИ запрягли убрать снег где-то в Урипинске, отправить туда свою копию (пусть не полную), нежели с огроимным пингом пилотировать манекен-манипулятор.
Наконец, алгоритмы и программы клонируемы. Это то чего нет в нашей культуре. А для робота это будет реальностью. Наши понятия для него неприменимы.
>>262183147 (OP) >Что я делаю не так? Ты блять уже дохуя лет как не пиздюк и не школьник, а до сих пор считаешь мерилом жизни стереотипы с оранжевого сайта одно хача. Тут блять не айкью, тут уже brain damage. Неисправимый дегенерат
>>262189601 >Для алгоритма (или программы) вполне естественно иметь несколько копий
Это само собой разумеется, просто постом выше я воспринял это копии - независимые процессы запущенные автономно. Было бы странно если у ИИ была только одна ошибка))) один малейший SEGFAULT и весь прогресс просто в пизду. Естественно разумно делать резервную копию что бы его в случае провала перезапустить.
> Далее, не разделяемый ИИ рано или поздно упрется в железные ограничений. Скорость передачи данных не мгновенны, мощь процессоров конечна.
Смотри проблема в процессорах решаема. Вот прям действительно. Ты любо создаёшь ботнет, либо постоянно покупаешь себе йоба-серверные стойки и постоянно расширяешь свой компьютер (возможно?) пересекая приставки СИ.
Касательно ботнета не думаю что для ИИ который способен к самопрограммированию, составит труда находить уязвимости в ПО. Так что первый вариант экономичен пиздец как. С другой стороны одно право на ошибку ибо гебня не дремлит. Блять при одной такой мысли я представляю какой пиздец бы ждал. Само существование подобной хуйни означало что у тебя дома оружие по страшней всего ядерного арсенала мира. Даже если нет цели использовать это в зло. ВСЕГДА НАЙДЁТСЯ СЫН ПРОСТУТКИ КОТОРЫЙ ЗАХОЧЕТ ЭТО ЗАБРАТЬ.
> Да и логичнее, если АИ запрягли убрать снег где-то в Урипинске, отправить туда свою копию (пусть не полную), нежели с огроимным пингом пилотировать манекен-манипулятор.
Если что моей целью не является создание армии роботов на службе людей. По крайней мере если мне нужно чтобы ИИ прислуживал мне. Разве что только по хозяйству места где я живу. Я тут думаю что пинг не может быть больше 5-10мс.