Masterok (Валерий) (masterok) wrote,
Masterok (Валерий)
masterok

Categories:

Этические проблемы автопилота: кого убивать?



Заметили, что последнее время очень часто приходят новости о создании или начале проектирования беспилотного автомобиля? Вот недавно и я в блоге показывал беспилотный САМОСВАЛ , а вот Беспилотные электробусы Ericsson.

Встретил сейчас на просторах интернета довольно любопытный вопрос из сферы робототехники и искусственного интеллекта, который мне напомнил три закона робототехники.

Вот в чем заключается вопрос:



Чем больше мы думаем о технологиях беспилотного вождения, тем больше вопросов у нас возникает. Самым сложным из них является выбор поведения автопилота в аварийных ситуациях: к примеру, если на дорогу перед автомобилем внезапно выбежал человек, как должен поступить робот — сбить его или увернуться, рискуя попасть в аварию и убить собственного владельца?

Чтобы показать, насколько это болезненный вопрос, учёные из Массачусетского технологического института (США) разработали интерактивный портал Moral Machine, в котором пользователю предлагается сделать выбор в 13 сценариях с неизбежным летальным исходом. Вопрос лишь в том, кого принести в жертву? По каким правилам должен действовать автопилот?

Робот не может принимать нерациональных решений, при этом однажды ему придётся выбирать, кого оставить в живых, а кого убить. Решать совершенно беспристрастно и хладнокровно, в соответствии с программным алгоритмом. Когда учёные из Тулузской школы экономики (Франция) предложили добровольцам оценить, насколько этичны были решения нескольких задач с участием беспилотного автомобиля, большинство участников опроса одобрило ситуацию, в которой число потенциальных жертв будет минимальным.

Впрочем, принятие подобного решения в качестве закона одобрило уже меньше участников — особенно, если речь шла о собственном автомобиле, а не абстрактной ситуации. Во всех случаях наибольшее влияние на окончательный ответ респондента оказывало число жертв потенциальной катастрофы, которое в опросе составляло от 1 до 10 человек. Американцы пошли ещё дальше и добавили в свою «Этическую машину» массу обстоятельств: он разделили потенциальных жертв на мужской и женский пол, преклонный возраст и молодёжь, даже на людей с избыточным весом и спортсменов!

Более того, пешеходы могут перебегать дорогу на запрещённый сигнал, а среди потенциальных жертв есть как законопослушные граждане, так и преступники. Даже домашние животные! Стоит ли жизнь собаки того, чтобы попасть в аварию и, возможно, погибнуть? В общем, учёные приглашают всех любителей подумать над этическими проблемами на портал Moral Machine. А после прохождения теста можно сравнить свои результаты с мнением большинства пользователей. И, возможно, удивиться.




А вы как думаете, в каком направлении должна развиваться эта тема ? Многие напишут "Действуем по ПДД - при возникновении опасности тормозить, не меняя полосы движения, до полной остановки.", но ведь ситуации на самом деле бывают разные. Или все гораздо проще?

[источники]источники
http://www.popmech.ru/technologies/272762-mashina-vykapyvaet-vzrosloe-derevo-video/
http://moralmachine.mit.edu/



Tags: Интересно
Subscribe

Posts from This Journal “Интересно” Tag

promo masterok январь 2, 2018 12:00 47
Buy for 300 tokens
Вот так выглядит трафик в блоге за 2019-20 год по месяцам. Это более ТРЕХ МИЛЛИОНОВ просмотров в месяц, среди которых не только залогиненные в ЖЖ , но и любые просмотры из поисковых систем. При этом за месяц приходит около МИЛЛИОНА посетителей. А вот статистика по дням одного из месяцев…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 90 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →