Community call: или как решить проблему вагонетки, когда ты бездушная машина

Чем еще возможно заняться на работе? Верно! Бесталанно и бесцельно просиживать в сети. Благо, что время от времени всё-таки попадается что-то стоящее, что хоть как-то может оправдать израсходованное время, пока ты негромко бубнишь себе под шнобель проклятия на голову главе за то, что он конечно же не по делу тебя раздолбал.

И вот сидя на одном в полной мере известном ресурсе, что я конечно же не назову, я наткнулся на должность о проблеме вагонетки. Отыскав в памяти недавний забавный пост о двухлетнем мальчике и о том, как нежданно он решил эту самую проблему вагонетки, я сделал вывод, что мне весьма интересно, а как бы вы, шазувчане, поступили в аналогичной обстановке? И для этого я предлагаю пройти тест. Результаты теста разрешают сравнить решения принятые вами с ответами принятыми остальными опрошенными.

Этот тест был создан студентами не чего-то в том месте, а целого Массачусетского технологического университета, и направлен он на изучение неприятности принятия ИИ нравственных ответов. В частности речь заходит о актуальном сейчас автопилоте.

Любой из нас владеет волей, совестью, чувствами, эмоциями, прочими атрибутами и характером недоступными для ИИ. Мы можем оправдать собственные поступки, но машина — нет. Ответ принимаемое ИИ это только установка заложенная его создателями. (забавно, поскольку получается, что ни о какой самостоятельности обращение не идёт). Ответ принимаемое роботом это только один из вероятных вариантов развития событий, которое будет принято в следствии изучения десятка переменных. Всё это случится за считанные секунды и конечно кому-то оно покажется неправильным.

Соперники этих разработок будут трубить тревогу и пробовать запретить эти автомобили смерти, поскольку будь за рулём человек, он бы обязательно принял настоящее верное ответ…

Фактически любое ДТП — это итог несоблюдения скоростного режима. Эта неприятность, в случае, если мы говорим об ИИ, возможно искоренена вовсе. Но остаётся антропогенный фактор. Риск поломки конструкции, сбоя ПО, каковые просто не разрешат ИИ реализовать собственный потенциал. И что тогда?

Я предпочту спасти ребёнка, пожертвовав несколькими пожилыми людьми сидящими в машине, даже в том случае, если первый будет переходить дрогу в неположенном месте. Но это мой выбор. А в память робота будут заложены ПДД, каковые он будет должен неукоснительно выполнять.

Скидывайте собственные результаты в комментарии, совместно со своим мнением о данной проблеме. Ну и конечно же помните о манерах ;)

Ниже делюсь собственными результатами.


Интересные записи:

Понравилась статья? Поделиться с друзьями: