?

Log in

No account? Create an account

masterok


Мастерок.жж.рф

Хочу все знать


Previous Entry Share Next Entry
«Моральные принципы» беспилотных автомобилей
masterok


Когда я на конференции ЦИПР-2017 в Иннополисе фотографировал Гошу Куценко, он в этот момент слушал докладчика на секции, посвященной роботам и беспилотным автомобилям.

Там как раз обсуждалась тема морального выбора у автопилота. Простыми словами это можно озвучить так: если наезд неизбежен, то кого давить "ребенка или бабушку"? А может быть в таком случае лучше "пожертововать" пассажиром машины?

И вот в какую сторону сейчас развивается дискуссия в этом вопросе ...

Конечно же вы все сейчас станете говорить о том, что мол надо не выбирать кого "давить", а стараться не допускать подобных ситуаций или решать их так, чтобы все остались целы и невредимы. Это все так. Но то, что человек решает на уровне подсознания, робот или автопилот должен решать по заложенной в него программе. А программу как раз таки разрабатывает заранее человек и он что то должен определить в этот момент. Нельзя же просто именно эту ситуацию вообще не предусмотреть. В противном случае в каком то сложном положении беспилотный автомобиль влетит на остановку полную людьми, вместо того, чтобы повернуть в обратную сторону и в отбойник например.





Для того, чтобы понять, как поступили бы люди в той или иной критической ситуации, сотрудники института разработали специальную игру «Moral Machine».

Тест доступен для всех желающих, в том числе и на русском языке. В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.




Всего в тесте представлено 13 ситуаций, в каждой из которых необходимо решить кого- пешеходов или пассажиров- оставить в живых.





Например, пользователю предлагается выбрать кто из 2 двух людей – молодой или пожилой человек – должен остаться в живых, а на кого наедет автомобиль.

На сегодняшний день Moral Machine набрала уже более 11 млн. возможных сценариев поведения.

А как бы вы прошли этот тест?





Однако, совсем недавно ученые из Университета Оснабрюка (Германия) провели другой эксперимент, участники которого должны были с помощью симулятора виртуальной реальности «водить машину» в туманный день в пригороде. Неожиданно на пути «водителей» возникало препятствие в виде человека, животного или неодушевленного предмета, и им приходилось принимать решение, кого пощадить в данной ситуации.

Результаты эксперимента показали, что поступки водителей в этом случае были обусловлены их морально-этическими принципами, пишет издание EurekAlert! Таким образом, человеческое поведение можно хорошо описать с помощью алгоритмов, которые со временем будут использованы и машинами. Для этого собственно и не требовалось никаких исследования, все и так понятно, но "британские ученые такие ученые ...".

Мне как не специалисту больше непонятен не тот аспект, кого выберет задавить водитель животное или человека, а как будет решать водитель или в будущем программа беспилотного автомобиля, когда выбор будет стоять между врезаться в стену (и возможно погибнуть) и врезаться например в автобус и возможно погубить или покалечить несколько человек.

Нет, давайте вообще по максимуму упростим ситуацию: врезаться в стену или сбить человека? Каждый человек на Земле совершит явно не одинаковое действие. Тут нет 100% верного решения. Так вот и программа беспилотного автомобиля должна понимать какие действия ей предпринять когда выбор стоит так или вот так. Конечные шансы никто не знает, но вот выбор направления действия должен быть однозначно!

В Германии пошли дальше. Недавно Федеральное министерство транспорта и цифровой инфраструктуры Германии определило 20 этических принципов для водителей автомобилей. Согласно им, к примеру, ребенок, бегущий через дорогу, признается «более вовлеченным в создание опасной ситуации», чем взрослый, стоящий на обочине. Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. Оригинально, не правда ли? Т.е. моральные ценности в этом случае что то лишнее и не нужное. Может быть так и должно быть? Четкий расчет и рационализм?

«Теперь, когда мы знаем, как внедрять этические принципы в машины, мы, как общество, сталкиваемся с двойной дилеммой, — объяснил профессор Питер Кениг. — Во-первых, мы должны решить, следует ли включать моральные ценности в „поведение“ машин, а во-вторых, должны ли машины действовать так же, как люди».

Авторы исследования уверены, что автомобили-беспилотники — это только начало, поскольку все более распространенными становятся роботы в больницах и другие системы искусственного интеллекта. Ученые предупреждают, что мы стоим на пороге новой эпохи и должны установить для машин четкие правила, пока те не начали принимать решения без нас.





Конечно же не будем думать, что эта тема и такие выборы возникли только сейчас.

Я очень хорошо помню, как в детстве читал книжку Азимова "Я, Робот". Она произвела на меня огромное впечатление. Возможно основной причиной этому были сюжеты, посвященные выбору роботами между тремя законами робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но даже имея такие четкие законы, случались ситуации, которые либо не описывались ими, либо создавали серьезное противоречие со здравым смыслом.

Чувствуется мне, что еще лет через 10 уже придется нам создавать свои законы робототехники и ставить на одну сторону весов рациональность и расчет, а на другую мораль и принципы совести.

Или вы считаете, такой проблемы не возникнет?

-------------------
Павел Шипилин (pavel_shipilin) о коррупции в России и мире. Четверг, 6 июля, в 17:00 (Мск):




Ах да, зачем Гоша Куценко все это слушал я вам рассказывал тут.

Subscribe to  masterok

Posts from This Journal by “Роботы” Tag


promo masterok Січень 2, 2018 12:00 47
Buy for 300 tokens
Вот так выглядит трафик в блоге за 2019 год по месяцам. Это более трех миллионов просмотров в месяц, среди которых не только залогиненные в ЖЖ , но и любые просмотры из поисковых систем. При этом за месяц приходит около 800 000 посетителей. А вот статистика по дням одного из месяцов 2019…

Если бы ехал робомобиль, а перед ним в одной полосе стоит Ботоксный педофил и Сердюков, а в другой Айфонщик и Гундяев, то как ему быть? Разорваться?

Edited at 2017-07-05 02:16 pm (UTC)

Или например по одной полосе идёт крёсный ход и мудачье машет кадилами, а на другой полосе долбоёбы режут баранов и жарят плов, то придётся по одной проехать, а потом развернуться?
Сложный ваопрос.

Книжка Айзка Азимова. Даже на картинке обложка книжки Азимова, ну.

А ещё ситуация:
На одной полосе скачут хохлодауны и жгут покрышки, а на другой полосе цыгане сраные ходят.
Придётся разогнаться и в заносе сразу две полосы зацепить?

Между Фак уа и зомби. У фака нет шансов. Только жолто блакитные труселя на дереве. Негры и цыгане плачуть.

они доверились автопилотуавтомобиля? вот ими и пожертвовать.
автомобиль пуст? тогда его в ближащий отбойник

в этом есть логика

а с Гошей рядом кто?

да это случайная какая то девченка. Он зашел в зал когда уже все сидели и села на ближнее место

Полагаю всю проблему надуманной.
Если автомобиль едет без пассажиров, то гробить транспортное средство, люди ценней.
Если с пассажирами - то маневрировать, если есть возможность объехать "лося", в противном случае - экстренно тормозить и - если уж ничего не остается - сбивать.
Все остальные рассуждения - блажь.

ну то, что вы написали до последнего пункта - обсуждению и не подлежало. Вопрос в том, кого сбивать если есть несколько вариантов и сбивать ли вообще если можно в стену например. А чего вдруг сразу сбивать?

Проблема будет.

Азимов же! И на обложке написано крупными буквами!

Иж какие Достоевские думы думают...

Когда еще Чапек предупреждал: Никаких роботов!
И когда читаю такие статьи, вспоминается не Азимов, а Терминатор
ВСЕ рассказы Азимова показывают несостоятельность Трех Законов. И он вынужден был ввести 4-й закон, согласно которому интересы человечества выше интересов отдельного человека и решать нужно роботу.
И стоит обратить внимание, что в других романах- Конец Вечности,Стальные пещеры, Основание....- роботов или нет вообще, или они крайне малочисленны.
Понимал мужик, что нельзя создавать себе конкурента

Это не конкурент. Роботы наше наследие, наше всё. Цивилизацию в 22 веке будут делать роботы. А человек вернется в пещеры. Не все конечно, миллионов 5-10, остальным там места не будет. Просто вымрут от голода и холода, работы нет, денег нет, ложись и помирай.

Проблема скорее надуманная, в ней звучит: "Давайте тормоза не будем слишком проверять, это так сложно, лучше пофилософствуем о том, кого давить, коли прямо перед толпами обнаружили, что они сломались".

Также следует заметить, что усердие в "правильном" выборе может обернуться смертью бабушек на остановке от того, что крысу, солнечный зайчик и тень машина приняла за отряд пионеров на пешеходном переходе.

Т.е. проблема конечно есть, но ажиотаж вокруг неё вызван простотой формулировки и "понятностью", а не актуальностью. В отрыве от технических вопросов характеристик узлов автомобилей, технических вопросов точности определения обстоятельств принятое решение вполне может оказаться и неверным, и маскирующим чьё-нибудь желание, например, сэкономить.

(Deleted comment)
(Deleted comment)
(Deleted comment)
(Deleted comment)
Тема морального выбора у автопилота
-- должна стать темой многочисленных диссертаций на соискание научной степени Доктора Наук в различных областях
-- от философии и психологии, до металловедения и машиностроения

Проблема надумана, ее вообще нет. Беспилотник едет по правилам ПДД, не нарушая скоростной режим и знаки и т.п. Все эти якобы пешеходы на пути - это фикция. В любой ситуации давить нарушителя и беречь пассажира, который не при делах. Точка.

Гораздо интереснее как автопилот будет учитывать погодные условия - вот он едет 60 по знакам, а вот гололед на дороге (есть разве радар, который локально увидит обледенение?). и вот уже машина летит, скользя.

Или еще из реала случай, трасса, скорость 90, покрытие идеальное, но в повороте дорожники не сделали уклон и водоотвод. И в колее лужа, и вот уже аквапланирование. И так далее.

Вот это интересно. А то что кто-то бросается под колеса - так самоубийц пока еще не всех выявили, давить нафиг, тормозя по возможности в своей полосе.

Смотрите ру чп, там все возможные случаи на дороге есть, вариантов правильных действий всегда ровно один.

+1
Ни в одной реальной ситуации решение не дойдет до "морального выбора" из нескольких плохих ситуаций.

в жопу беспилотники
я за велосипеды и коней

Ну никакой фантазии.. А грифоны как же? Летать на работу интереснее.



Edited at 2017-07-05 05:52 pm (UTC)

авторы задачи - идиоты. решение простое - убрать нафик все эти пешеходные переходы над/под землю. какие нафик переходы при беспилотниках?
нет?
поднимать перед переходами защитный барьер, как перед ЖД переездами, когда машинам красный.
нет?
приравнять автопилоты к поезду или лифту - поезд не может остановиться, кто на рельсах тот и виноват. лифт падает - значит падает. все.

все. не надо перегружать процессор несвойственной ему ерундой. у кремния нет морали и быть не может. даже у людей она у всех разная. а наказывать в случае чего - компанию разработчика или эксплуатирующую компанию ну и далее по списку, кто там будет.

В целом согласен, но машина - не лифт и не поезд. Она вполне может останавливаться. Надо просто встроить в автопилот функцию автоматического вызова полиции и принесения извинений родственникам пешехода.