Одна из проблем развития ИИ заключается в моральном выборе, в сложности формулирования приказа , т.е одно и то же условие можно реализовывать координально разными способами. Вспоминаем ту же матрицу с солнечной энергией. Если бы вы были производителем машин, позиционирующихся на автопилоте, то что вы бы выбрали? - Спасти жизнь водителя в неминуемом ДТП, но при этом пожертвовать жизнью(ями) других людей или наоборот. Что бы вы выбрали и почему?Лично я бы выбрал аниме
>>163095096 (OP)Спасти жизнь водителя. Тут решает святой рыночек, ведь водитель заплатил за свою повозку и задача ии ему прислуживать. Мораль идёт нахуй.
>>163095096 (OP)Если я был бы производителем автомобилей. Сделал бы лобовуху с дополненной реальностью. Чтобы знаки показывала, скорость, маршрут и принимала сигналы от других автомобилей. Ну короче чтобы как в контре с воллхаком машины показывало за зданиями или другими препятствиями.
>>163095096 (OP)Ну а если ДТП и ИИ это понимает. Тогда пусть катапультирует если нет нихуя сверху. А если есть, то подушки хуюшки и т. д Главное чтобы ИИ сам отводил автомобиль в наименее опасную зону при неизбежном дтп
>>163095812Забанят за читы