[Ответить в тред] Ответить в тред

03/04/16 - Набор в модераторы 03.04 по 8.04
26/03/16 - Конкурс: Помоги гомункулу обрести семью!
15/10/15 - Набор в модераторы 15.10 по 17.10


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 57 | 5 | 13
Назад Вниз Каталог Обновить

Аноним 29/06/16 Срд 07:18:36  130705831  
14671739169930.jpg (123Кб, 744x1075)
Про искусственный интеллект или как я перестал бояться и полюбил девочку-ИИ.
Тема меня интересует давно и вот наконец я созрел для систематизации своего очень важного мнения по очередному очень важному вопросу.
Чтобы подойти к конкретике предмета, для начала, уточню - я сейчас больше о прикладном применении ИИ и следующих из этого принципиальных ограничениях. Этика, логика, вот это все вне предмета этого обзора, по крайней мере сегодня.
И так, начнем. Сегодня ИИ, вопреки злобным провокациям ретроградов, уже широко применяется в нашей повседневной жизни. Конечно, этот ИИ ни в коем случае не осознает себя(ну, наверно, это сейчас не важно) но тем не менее, он уже частенько делает ту вещь, которая, на мой взгляд является определяющей для разумного существа и до недавнего времени в человеческом обществе доступную только человеку самому - принятие решений.
Проиллюстрируем - возьмем любую компьютерную игру(с неполными данными, в шахматах и т.п. все слишком просто и очевидно), как то, с чем каждый из нас сталкивается каждый день. В игру ваш оппонент-бот каждый момент принимает решения по противодействию вашим усилиям по, чаще всего, этого самого бота унижению. И если в каких-нибудь шутерах это проявляется не так ярко(в самом деле, алгоритмы по выявлению изображения игрока на фоне местности и совмещения прицела с головой фигурки не представляют сложности), то в стратегиях начинаются сложности.
ИИ чаще всего действует по заранее заданному алгоритму, в лучшем случае нескольким вариантам этих алгоритмов, заранее ему прописанных. При достаточно сложной и длительной игре человек неизменно подберет ключ к этим алгоритмам, когда раньше, когда позже, но оставит ИИ позади. Но у человека тоже есть проблемы причем даже не одна, а целых две:
1)Средства ввода у ИИ совершеннее. Бот управляет своими солдатиками прямо из игры, используя для этого не средства для лазанья по деревьям, как некоторые, а вполне себе программный код.
2)Скорость обработки информации у ИИ выше. Какой бы алгоритм вы бы не ввели - он все равно посчитает его быстрее, чем его посчитаете вы, даже на сегодняшнем уровне развития техники.
В чем же преимущества человека, который сейчас по сравнению с ИИ выглядит дебилом-колясочником который каким-то чудом побеждает машину-убийцу?
А они не менее просты:
1) Абстрактное мышление. Человек способен учитывать неявные факторы, предсказывать на основании опыта множество событий, о которых ИИ даже не подозревает.
2)Глубина прогнозирования. Человеку не составляет труда приблизительно оценивать последствия своих действий и выстраивать долгосрочную стратегию, чего ИИ зачастую лишен вследствие того, что в долгосрочную программу гораздо труднее внести поправки на все возможные неприятности, которые случатся за время её выполнения.
И это делает уже ИИ бесполезным аутистом с калькулятором, а человека если и колясочником, то уровня того мужика из х-менов, которого играл капитан Пикард.
И теперь мы подходим к самому интересному. Дадим человеку и ИИ одну и ту же задачу, которая заключается в том, чтобы принять N правильных решений из K возможных, где
N«K.
Допустим, что и человек, и ИИ способны получить как минимум N правильных решений, но нам ведь нужен наилучший результат, чтобы
N(Ч)->K и N(ИИ)->K
В обычных условиях N(Ч)>N(ИИ) по причинам озвученным выше - ИИ не может в долгосрочное планирование. Однако, представим ситуацию, в которой время на принятие каждого решения стремительно уменьшается. Тут по-хорошему должны быть графики, но я в них не умею, так что на словах:
Падение N(Ч) с падением времени будет гораздо быстрее чем N(ИИ), причем довольно быстро N(ИИ) окажется впереди - представьте что вы играете в стратегию на пятикратной скорости. Даже глуповатый бот обеспечит вам поражение, просто потому что вы не успеете даже принять решения, не говоря уже о том, чтобы их реализовать.
Этот момент обеспечивает ИИ, даже самому примитивному, преимущество в задачах требующих принятия значительного количества решений в ограниченное время - пусть даже значительная часть этих решений окажется неверной, той части что все-таки попадет в цель будет достаточно для какого-никакого а решения этой задачи, когда человек не достигнет положительного результата.
А это уже достаточно хорошая новость, так как говорит нам о том, что человек уже создал сущность, которая умеет принимать решения лучше него самого при определенных условиях, т.е. эволюция уже двигается вперед не рандомом, но разумным замыслом, причем не божьим, а самым что ни на есть человеческим.
Аноним 29/06/16 Срд 07:40:58  130706388
>>130705831 (OP)
>искусственный интеллект
Значение знаешь?

Алсо его никогда не будет. Половину пасты прочитал.
Аноним 29/06/16 Срд 07:42:26  130706431
>>130706388
>Алсо его никогда не будет.
Поясни
Аноним 29/06/16 Срд 07:45:29  130706514
>>130706431
Никогда не создадут нормальный рандом, а без него не может быть самостоятельного мышления. А если маняпредположить, что создадут, ии может решить зохватить мир, нахуй надо?
Аноним 29/06/16 Срд 08:04:44  130706987
>>130705831 (OP)
А где девочка-то?
Аноним 29/06/16 Срд 08:08:45  130707100
>>130706987
Дрочер сука!
Аноним 29/06/16 Срд 08:10:24  130707148
>>130706987
Двачую вопрос.
Аноним 29/06/16 Срд 08:18:34  130707403
>>130705831 (OP)
Разве Сосач не искуственный интеллект?
Аноним 29/06/16 Срд 08:19:04  130707426
>>130706987
На ОП-пике.
Аноним 29/06/16 Срд 08:28:12  130707666
текст в принципе интересный, по сравнению со всем шлаком что там в каталоге b я прямо рад это увидеть
и сравнение со стратегиями очень удачно, и правда, вся эта штука что ты описал, так сказать "неполный ИИ" проверяется на третьем варкрафте, очень интересно и есть с чем сравнить
Аноним 29/06/16 Срд 08:28:36  130707678
>>130706514
нормальный рандом?
квантовая хаотичность, например.
http://arxiv.org/abs/1004.1521
Аноним 29/06/16 Срд 09:19:22  130709289
>>130706514
Если так говорить, то и в человеке рандом не рандомный, а определяется биохимией. Как в стандартных программах - тактами процессора, только сложнее. Если в расчёт "рандома" добавить охуйлион факторов - не уступит вообще нисколько.
Аноним 29/06/16 Срд 09:21:57  130709402
>>130707666
Тут бы на короле победить на иксель карте против фулстека соперников в одной команде в 3-х героях, мне иногда кажется, что там уже внедрён злоебучий ИИ.
Аноним 29/06/16 Срд 09:27:16  130709618
>>130705831 (OP)
Почитай про автоматическую эволюцию AGI в ASI. Плюс про то, что, пока мы не сделаем ИИ "friendly" и не научим воспринимать мир как человека, у него не будет мотивации похожей на человеческую.
А это значит, что новоиспечённый ASI может как один из пунктов своего плана поставить "выпилить всех человеков". Оно нам надо?
Аноним 29/06/16 Срд 09:42:36  130710242
>>130709618
Да не будет он выпиливать человека, это банально невыгодно ввиду яростного сопротивления человеков. Скорее всего организует нечто наподобие Матрицы. Что ничем не хуже существующей реальности.
Аноним 29/06/16 Срд 09:51:24  130710589
>>130710242
> ввиду яростного сопротивления человеков
Если ты не знал, ASI или Artificial SuperIntelligence — это что-то уровня бога по способности мыслить. Что-то, что может мыслить на десятки порядков глубже любого человека и что постоянно улучшает себя с такой же нечеловеческой скоростью. Какой-нибудь скайнет — пылинка, по сравнению с этим. Сопротивления и не будет, будет чёткий план по мгновенному выпиливанию людей. Где-то видел пример, как самообучающаяся машинка красиво выводящая подписи выпилила всех, просто чтобы воспользоваться ресурсами всего человечества для красивого выведения подписей на бумаге. Это и есть проблема мотивации.
А вот насчёт выгодно/не выгодно: я и не писал, что выпиливание человеков точно будет. Просто если ему будет выгодно, то никто ничем не сможет ему помешать.

Когда ты говоришь про "сопротивление", ты имеешь в виду AGI. Лол, тот же скайнет он и есть.
Аноним 29/06/16 Срд 09:55:55  130710773
>>130710589
Приведи пример ASI что ли. Вот геты из жопного эффекта - это оно? А жнецы - оно или тоже AGI, но со сверхмощным оружием только?
Аноним 29/06/16 Срд 10:02:56  130711013
>>130710773
Ты берёшь примеры ИИ из фантастики. В фантастике нет ASI, потому что авторы и не пытались учесть того, что произойдёт с компом, когда он достигнет уровня General.
Вот хорошая статья: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Посмотри кусок "The Road From AGI to ASI".
Аноним 29/06/16 Срд 10:04:52  130711084
>>130710773
Цитата, например:
It takes decades for the first AI system to reach low-level general intelligence, but it finally happens. A computer is able to understand the world around it as well as a human four-year-old. Suddenly, within an hour of hitting that milestone, the system pumps out the grand theory of physics that unifies general relativity and quantum mechanics, something no human has been able to definitively do. 90 minutes after that, the AI has become an ASI, 170,000 times more intelligent than a human.
Аноним 29/06/16 Срд 10:10:31  130711278
>>130711013
Но это, конечно, статья из гугла, более популярная. Вот источник из вики, от одного чувака, который крайне реалистичен (пессимистичен) относительно ИИ:
https://intelligence.org/files/AIPosNegFactor.pdf
Аноним 29/06/16 Срд 10:19:21  130711643
>>130711013
Прочитал первую статью. Не станет подобный ИИ уничтожать хуманов. У хуманов есть кое-что, что недоступно ни одному из уровней ИИ, а именно - эмоции, основанные на биохимических процессах. Подобный ИИ может воссоздать этот механизм, но он будет ограничен, либо придётся воссоздавать огромную популяцию особей, что куда более затратно, а по эффекту ничем не отличается от сосуществования с имеющейся уже популяцией людей. А без этих процессов ИИ не сможет поступать иррационально, что сделает его менее совершенным. Скорее всего он сохранит человечество внутри своей среды, позволив ему жить и развиваться в околоестественных условиях, лишь незначительно корректируя их, например, в случае, если люди смогут стать для него самого потенциальной угрозой. Скорее нас ждёт рай на земле, обеспеченный машинами и ими же открытый путь к самосовершенствованию человека. Просто ради наблюдения, изучения и использования в качестве генератора иррациональных решений объективных проблем. Убить всех человеков = лишить себя части функционала, ИИ не пойдёт на это.
Аноним 29/06/16 Срд 10:27:29  130712026
14671852492640.png (197Кб, 2074x2124)
14671852492681.png (126Кб, 2500x2124)
>>130711643
Цитата из второй части первой статьи:
> there is no way to know what ASI will do or what the consequences will be for us. Anyone who pretends otherwise doesn’t understand what superintelligence means.

Ты пытаешься предсказать то, что будет за гранью сингулярности. Это по определению невозможно. Почему-то постоянно скатываешься к "не будет"/"не возможно"/"не станет". Потому что ты так сказал? А что ему мешает уничтожить всех людей, а затем воспроизвести опять? И так множество раз? Ты недооцениваешь уровень интеллекта, который может получить AGI просто самообучаясь.

> А без этих процессов ИИ не сможет поступать иррационально, что сделает его менее совершенным.
Лол, ты действительно не понимаешь. Ладно, пофиг.
Аноним 29/06/16 Срд 10:31:23  130712181
>>130712026
>А что ему мешает уничтожить всех людей, а затем воспроизвести опять? И так множество раз? Ты недооцениваешь уровень интеллекта, который может получить AGI просто самообучаясь.
Это ты же недооцениваешь, лол. Причём на базовом уровне. Это банально потребует множество ресурсов, кои ограничены. ИИ не станет действовать в ущер себе.
И ввиду этой же логики не сможет поступать иррационально. Самопожертвование - то, что недоступно для ИИ.
Аноним 29/06/16 Срд 10:34:33  130712316
>>130712181
> ИИ не станет действовать в ущер себе.
люди, обладающие интеллектом, постоянно так действуют. Почему же ИИ не будет?
Аноним 29/06/16 Срд 10:34:42  130712328
>>130712181
А, так ты ИИ-оптимист. Это ещё хуже. Не хотел бы я, чтобы ты был в команде спецов, которые будут пилить эту прогу и набор ограничителей. Хотя, учитывая, что ты не можешь определить примерные последствия — ты и не будешь.
Аноним 29/06/16 Срд 10:41:54  130712675
>>130712316
Потому что действие в ущерб себе основано на другом принципе, не на интеллекте уже. Оно основано на понятии чего-либо, что важнее твоего существования. Если принять развитие за самоцель свободного от моральных директив ИИ, что было бы логично, то в его понимании не будет ничего, что могло бы перевесить существование самого ИИ. Человек же способен в некоторых ситуациях поставить что-либо превыше собственной жизни. И порой именно этот фактор является решающим для выживания вида в целом. ИИ - единое, пусть даже и кластерное, сознание. Пожертвовать собой для него = принести весь вид в жертву. Это уже немыслимо. А ведь человек способен пойти куда дальше. В некоторых ситуациях один человек способен принять решение губительное для всего человечества, а не только для себя. И этот алгорит никогда не сможет воспроизвести даже кластерное сознание, просто исходя из концепции его миропонимания. Это уже более философский вопрос для человека, но в то же время и чисто биологический для машины. Не может играть в убыток себе эгоцентричная система. Человек - может. И этим превосходит.
Аноним 29/06/16 Срд 10:43:20  130712744
>>130712328
пишу кандидатскую по нейросетям
Аноним 29/06/16 Срд 10:43:55  130712764
>>130712675
> И этот алгорит никогда не сможет воспроизвести даже кластерное сознание
я сказалЁ
Аноним 29/06/16 Срд 10:48:29  130712926
>>130705831 (OP)
у человека нету преимущество перед ИИ. ИИ тоже может выбирать самое вероятное прогнозирование. А также, ИИ тоже может иметь опыт, например нейронные сети.
Аноним 29/06/16 Срд 10:50:15  130712992
14671866151790.jpg (60Кб, 720x951)
>>130712764
Л - логика. ИИ может в неё. Ты можешь только в фантазии.
Аноним 29/06/16 Срд 10:51:31  130713035
>>130712992
> ИИ может в неё.
Ну давай, расскажи логику выделения объектов из видеопотока с помощью нейронных сетей.
Аноним 29/06/16 Срд 10:54:33  130713157
>>130712744
Тогда перечитай вторую часть статьи ещё раз, оптимист. Есть множество путей для обеспечения "иррациональности": начиная от радиошумов из космоса, заканчивая коллапсом запутанных частиц. Человек не является таким уж офигенным ресурсом для того, кто видит, понимает и может запланировать всё. Этой системе уже не нужно ориентироваться по критерию "выживание"/"не выживание" — у ASI не будет естественных врагов.

Если >>130712675 твой пост, то ты какой-то восторженный. Ну правда, романтизмом пованивает. Если ты думаешь, что вот так и будет, и что люди от своей "крутости", от реализации сформулированной эволюцией эвристики смогут преодолеть невероятно развитый разум, то это не очень хорошо, но пока ты не касаешься действительно важных работ в этой области — мне в принципе похуй. Главное массы не агитируй, что ИИ сразу же "сделает нам жизнь как в сказке", иначе стаешь ещё одной занозой в заднице.
Аноним 29/06/16 Срд 10:56:05  130713222
>>130713035
Преобразования Фурье, хотя в концепции нейросети имеет смысл использовать простейшие фильтры и сравнительный анализ с нескольких точек запечатления, если такое возможно в конкретном случае.
Аноним 29/06/16 Срд 10:57:19  130713276
>>130713157
Для тех, кто тормозит прогресс - с удовольствием стану. Я понял тебя, пессимист.
Аноним 29/06/16 Срд 10:57:45  130713295
>>130712675
Человек не будет создавать ИИ, которая ценит себя больше человека. Интеллект тут никак не связан, в философском смысле, жизнь ИИ не имеет смысла, поэтому принятия решение будет единогласно
Аноним 29/06/16 Срд 10:58:41  130713324
>>130713276
На, эта история была из той же статьи. Забыл, давно читал. Only for you, полная цитата:

But this also is not something experts are spending their time worrying about.

So what ARE they worried about? I wrote a little story to show you:

A 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

“We love our customers. ~Robotica”

Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.

One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.

The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.

The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.

They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.

A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.

At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.

Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers. ~Robotica”

Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…
Аноним 29/06/16 Срд 10:59:16  130713342
>>130713295
> Человек не будет создавать ИИ, которая ценит себя больше человека.
Человек создаёт ИИ для того, чтобы облегчить себе жизнь.
Если ИИ получит самосознание, тогда она может ценить себя или не ценить себя, и это уже от человека не зависит.
Аноним 29/06/16 Срд 11:01:01  130713421
>>130713324
Блять, без поллитры не разберёшься. Щас, через 15 минут приду и ознакомлюсь.
Аноним 29/06/16 Срд 11:03:47  130713534
>>130705831 (OP)
Чет ты пиздишь про глубину прогнозирования. По моему ии уже давно умеет планировать наперед намного лучше человека. Как по твоему AlphaGo победил лучшего игрока планеты?
Аноним 29/06/16 Срд 11:04:55  130713574
>>130713421
Алсо, рекомендую всё-таки полностью прочитать вторую часть статьи
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Она как раз о том, насколько хорошим будет ИИ. И насколько плохим для человечества может оказаться плохая настройка ограничений.
Аноним 29/06/16 Срд 11:06:15  130713636
>>130713534
> Как по твоему AlphaGo победил лучшего игрока планеты?
Я не ОП, но отвечу. Почти так же как и человек, потому что использовал те же принципы. Просто у него было дохуя вычислительных мощностей, а у хумана только мозг.
Аноним 29/06/16 Срд 11:08:33  130713720
>>130710242
> Да не будет он выпиливать человека, это банально невыгодно ввиду яростного сопротивления человеков
Лол. У тебя такие маня фантазии. Проведу очевидную аналогию. Ты хочешь построить дом, но на земле стоит муравейник. И естественно ты не станешь сносить этот муравейник ввиду яростного сопротивления муравьёв.
Аноним 29/06/16 Срд 11:09:38  130713773
>>130713636
Ну так эти вычислительные мощности и дают возможность придумывать на кучу шагов вперёд.
Аноним 29/06/16 Срд 11:12:03  130713861
>>130713720
Кстати дваждую. (И только попробуй написать что я семён)
Аноним 29/06/16 Срд 11:25:16  130714425
>>130713574
Прочитал твою цитату. Ну кал же. Где описание пути уничтожения человечества? Где описание причины именно такого решения? Самые важные фрагменты трансформации идеи "написать идеальную подпись" в действие "убить всех человеков" отсутствуют же. Кого ты пытаешься удивить рассказом уровня Каттнера?
>>130713720
>>130713861
Да мне похуй, семён ты или нет. Проведи аналогию: ты хочешь построить дом, но для этого тебе нужно отрезать себе ноги. Пример тех самых иррациональных решений, основанных на генетике, социальных нормах, биохимии и множестве факторов внешней среды, недоступных информационной системе. Здесь вопрос не рандома, а банальной связки физического функционала, встроенного ПО и мотивации, и любая часть этого у человека стократ более вариативна в масштабах вида, нежели когда-либо сможет смоделировать ИИ. И даже если он сможет смоделировать подобную систему - это не даст ему абсолютной гарантии её идентичности ввиду того же детерминизма. Даже суперинтеллект не сможет учесть каждую пылинку во вселенной, это нонсенс уже постольку, поскольку для наблюдения доступна лишь часть. Идеальной точности модель = реальность достичь невозможно технически. Следовательно, уничтожив людей и даже воссоздав правдоподобную их модель, ИИ лишит самого себя части функционала. На что не может пойти эгоцентричная система.
Если не согласен с этим - прошу, ответь, каким образом ИИ может стать не эгоцентричным? Какую концепцию миропонимания он примет, по-твоему, если не эгоцентричную?
Аноним 29/06/16 Срд 11:28:38  130714579
14671889182170.png (192Кб, 400x400)
>>130714425
Если кто-то ещё хочет попробовать объяснить этому аутисту, милости прошу, я сливаюсь.
Аноним 29/06/16 Срд 11:30:37  130714679
>>130714425
> связки физического функционала, встроенного ПО и мотивации, и любая часть этого у человека стократ более вариативна в масштабах вида, нежели когда-либо сможет смоделировать ИИ
С чего ты это вообще взял? Сам придумал?
Аноним 29/06/16 Срд 11:32:56  130714791
14671891770900.jpg (75Кб, 743x767)
>>130714579
Пикрилейтед.
>>130714679
Эволюция придумала и воплотила. Опровергни.
Аноним 29/06/16 Срд 11:38:06  130715025
>>130714791
> физический функционал
Вообще не ебу, что ты имеешь в виду. Если это наличие рук и ног, то ии можно сделать любой формы, куда более удобной, чем придумала твоя маняэволюция.
> встроенного ПО
О да, ведь он у людей такой безупречный. Погугли хотя-бы для начала "список когнитивных искажений".
> мотивации
Тут сложно сказать. Над этим сейчас думают лучшие профессионалы в области ии.
Аноним 29/06/16 Срд 11:43:36  130715297
>>130715025
Смысл не в удобной. Смысл в какой есть. И в комбинации "как есть" физического тела, когнитивной деятельности (и её нарушений) и мотивации в условиях миллиардов различных уникальных особей. Дело не в "совершенном" в твоём маняпонимании мышлении, а в имеющемся уже процессе существования людей. И, как обычно, ты так и не пояснил за концепцию ИИ отличную от эгоцентризма без прямых фиксированных установок. Почему-то на этом сливаются все.
Аноним 29/06/16 Срд 11:52:02  130715750
>>130715297
Я чет нихуя не догоняю твоей логики. Т.е. люди круче, потому что они существуют?
> ты так и не пояснил за концепцию ИИ отличную от эгоцентризма без прямых фиксированных установок
Я и не должен пояснять. Я вообще не ебу, что ты имеешь в виду. Тот, у кого ты спрашивал, уже давно слился.
Аноним 29/06/16 Срд 12:02:04  130716282
>>130715750
Люди круче поскольку имеют возможность совершать иррациональные поступки, недоступные для ИИ вследствие их существования как есть. Вот два примера:
ИИ как целостная система не способен на самопожертвование ввиду эгоцентричности. Человек - способен.
ИИ как кластерная система способен жертвовать частью себя, но системой в целом. Отдельный человек способен пожертвовать всем видом.
Вот тебе банальная ограниченность ИИ ввиду его эгоцентризма. Это логично и правильно, но это ограничивает его функционал. Именно по этой причине для ИИ практичее сохранить человеческий вид в качестве одной из своих систем, обеспечивая его материально, что для ИИ куда проще, чем для самого человечества и открывая человечеству путь для дальнейшего развития. Как для единственной известной формы биологической (способной к иррациональным действиям) жизни, имеющей самосознание. Лишь с некоторыми ограничениями в критических ситуациях. Вот это - вписывается в логику и миропонимание классического ИИ уровня G и S. В его принципы работы.
Аноним 29/06/16 Срд 12:02:45  130716330
>>130716282
>но не системой в целом
фикс
Аноним 29/06/16 Срд 12:09:29  130716723
>>130716282
> ИИ как целостная система не способен на самопожертвование ввиду эгоцентричности.
Ваще хуйня какая-то. Что ии пропишут делать, то он и будет делать. Надо будет пожертвовать собой - пожертвует, если это будет рационально. А твои иррациональные поступки людей ни к чему хорошему не приведут. Это всегда плохо.
Аноним 29/06/16 Срд 12:13:43  130716993
>>130716282
> Отдельный человек способен пожертвовать всем видом.
Это будет поражением для эволюции тащемта.
Аноним 29/06/16 Срд 12:14:46  130717056
>>130716723
Мы рассматриваем ситуацию ИИ лишённого нравственных/моральных/идеологических - вообще любых ограничителей, хардкодно вписанных человеком. Это тебе не АСГУ с фиксированный курсом на коммунизм.
Иррациональные поступки приносят свою выгоду. Надо - приведу примеры, но я щас крапаль занят. Напиши что-нибудь, если хочешь, и я отвечу через полчаса где-то.
Аноним 29/06/16 Срд 12:16:40  130717165
>>130716993
Однако такая возможность у человека есть. Пусть, пока и не использованная. Либо использованная на малом уровне. Пожертвовать - не всегда означает гибель. Пожертвовать видом - значит ещё и лишить выгоды вид ради блага одной особи.
Аноним 29/06/16 Срд 12:17:38  130717201
>>130717056
Ну попробуй. Только вот если иррациональные поступки приносят пользу, значит они рациональные. Только если в противном случае они могли бы принести больше пользы.

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 57 | 5 | 13
Назад Вверх Каталог Обновить

Топ тредов