ОКО ПЛАНЕТЫ > Размышления о политике > Кого должен спасти беспилотный автомобиль в случае неотвратимой аварии?

Кого должен спасти беспилотный автомобиль в случае неотвратимой аварии?


18-11-2021, 07:06. Разместил: Око Политика


Вот вам ситуация: перед автомобилем появляется бабушка (или ребенок) и остановиться уже нет времени. Варианта два: либо врезаться в огражнение на большой скорости (риск гибели пассажира), либо сбить пешехода. А теперь представьте себе, что вы пассажир, а никакого водителя в вашей машине нет — это беспилотный автомобиль, робокар. Какой моральный выбор должен сделать управляющий им искусственный интеллект — как его нужно запрограммировать?

Над этим вопросом не первый год бьются все разработчики беспилотных автомобилей — от Audi и Toyota до Tesla и «Яндекс». Но, как выяснили ученые, ответ на него сильно зависит от того, кого вы спрашиваете.

Кого спасти — старика или ребенка?


Чтобы разработать универсальный алгоритм принятия решений для беспилотных машин, ученые Массачусетского технологического института (MIT) разработали специальный онлайн-тест, пройти который мог любой желающий.

Каждому участнику опроса предлагалась дюжина гипотетических дорожных ситуаций — вроде тех, что приведены выше, — в которых водителю необходимо сделать моральный выбор, неизбежно влекущий за собой смертельный исход. Например, насмерть сбить трех пожилых пешеходов на автостраде — или направить машину в бетонный забор, убив находящихся в ней троих пассажиров.

Чтобы точнее выявить приоритеты респондентов, сценарии онлайн-теста варьировались. Кого участники спасут с наибольшей вероятностью — молодых или пожилых? Бедных или богатых? Одного ребенка или нескольких взрослых?

Масштабы эксперимента, результаты которого опубликованы в журнале Nature, впечатляют: за полтора года в нем приняли участие 2,3 млн человек из 233 стран и территорий (тест специально перевели на десяток языков). В общей сложности ученые собрали почти 40 млн ответов. И, проанализировав эту огромную базу данных, они сделали несколько важных выводов.

Первый — и, пожалуй, самый важный из них: моральные приоритеты сильно зависят от страны проживания. Авторы исследования выделили три типа стран, которые они условно назвали «западными», «восточными» и «южными». Условно — потому что Франция, например, попала в «южный тип», а вот Египет — в «восточный».

«Западники» чаще предпочитали спасать более молодых людей, а «восточники» — более пожилых. Представители «южных» стран чаще отдавали предпочтения женщинам и детям, а также людям, обладающим более высоким социальным статусом.

На удивление, люди, занимающие более высокое положение в обществе, вызывали больше симпатий и у жителей «западных» стран — по сравнению с «восточными».

Зато «восточные» жители почти не принимали в расчет разницу в количестве спасенных жизней, основывая свои предпочтения на других факторах.

Кого должен спасти робокар в случае неотвратимой аварии - пассажира или пешехода? Ответ неочевиден

Так выглядит уличное движение для искусственного интеллекта

Второй вывод: ответы зависят и от демографических показателей участников эксперимента, таких как пол, возраст и так далее — но уже далеко не так сильно.

И третий — возможно, довольно очевидный: моральный выбор сильно коррелирует не только с глубоко укорененными в культуре представлениями об этике, но и с современным состоянием гражданских институтов.

Например, жители относительно богатых стран с сильной и независимой судебной системой (Финляндии и Японии) проявляли куда меньше симпатий к пешеходу, вышедшему на дорогу в неположенном месте, чем респонденты из Нигерии или Пакистана.

Кого должен спасти робокар в случае неотвратимой аварии - пассажира или пешехода? Ответ неочевиден

«Универсальных правил нет»

Опрос, проведенный в 2016 году, выявил довольно интересный парадокс. С одной стороны, большинство респондентов заявили, что беспилотный автомобиль должен ставить во главу угла безопасность пешеходов, даже если это означает дополнительные риски для пассажиров. С другой — люди признавались, что сами не стали бы покупать машину, запрограммированную подобным образом.

Именно это сподвигло ученых MIT на создание онлайн-теста Moral Machine, в разработке которого приняли участие психологи, антропологи и экономисты со всего мира.

Кого должен спасти робокар в случае неотвратимой аварии - пассажира или пешехода? Ответ неочевиден

«Люди, размышляющие о машинной этике, исходят из того, что можно создать для роботов какой-то идеальный набор правил. Но наши данные показывают, что никаких универсальных правил нет», — утверждает один из авторов исследования Ияд Рахван.

Сам Рахван родился в Сирии, окончил университет в Австралии, а теперь работает в США. Впрочем, по результатам эксперимента все эти три страны попали в «западный» кластер.

Понятно, что в повседневной жизни мы крайне редко сталкиваемся с необходимостью делать подобный выбор. Критики исследования справедливо задаются вопросом, можно ли вообще предлагать сидящему перед компьютером человеку подобные гипотетические сценарии, ставить перед ним умозрительный вопрос жизни и смерти — и полагаться на его выбор?

Однако авторы работы утверждают, что так или иначе моральный выбор водителям приходится делать каждый день — пусть и не со столь драматичными последствиями. И выявленные тестом культурные различия необходимо принимать во внимание как производителям беспилотных автомобилей, так и законодателям.

Как отмечает Nature, представители Audi уже согласились с тем, что результаты теста помогут им в обсуждении проблем, стоящих перед разработчиками беспилотных машин.

Остальные компании, тестирующие беспилотные автомобили, в том числе Toyota и Uber, от комментариев отказались.

Кого должен спасти робокар в случае неотвратимой аварии - пассажира или пешехода? Ответ неочевиден

Мне как не специалисту больше непонятен не тот аспект, кого выберет задавить водитель животное или человека, а как будет решать водитель или в будущем программа беспилотного автомобиля, когда выбор будет стоять между врезаться в стену (и возможно погибнуть) и врезаться например в автобус и возможно погубить или покалечить несколько человек.

Нет, давайте вообще по максимуму упростим ситуацию: врезаться в стену или сбить человека? Каждый человек на Земле совершит явно не одинаковое действие. Тут нет 100% верного решения. Так вот и программа беспилотного автомобиля должна понимать какие действия ей предпринять когда выбор стоит так или вот так. Конечные шансы никто не знает, но вот выбор направления действия должен быть однозначно!

В Германии пошли дальше. Недавно Федеральное министерство транспорта и цифровой инфраструктуры Германии определило 20 этических принципов для водителей автомобилей. Согласно им, к примеру, ребенок, бегущий через дорогу, признается «более вовлеченным в создание опасной ситуации», чем взрослый, стоящий на обочине. Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. Оригинально, не правда ли? Т.е. моральные ценности в этом случае что то лишнее и не нужное. Может быть так и должно быть? Четкий расчет и рационализм?

«Теперь, когда мы знаем, как внедрять этические принципы в машины, мы, как общество, сталкиваемся с двойной дилеммой, — объяснил профессор Питер Кениг. — Во-первых, мы должны решить, следует ли включать моральные ценности в „поведение“ машин, а во-вторых, должны ли машины действовать так же, как люди».

Авторы исследования уверены, что автомобили-беспилотники — это только начало, поскольку все более распространенными становятся роботы в больницах и другие системы искусственного интеллекта. Ученые предупреждают, что мы стоим на пороге новой эпохи и должны установить для машин четкие правила, пока те не начали принимать решения без нас.

Конечно же не будем думать, что эта тема и такие выборы возникли только сейчас.

Я очень хорошо помню, как в детстве читал книжку Азимова "Я, Робот". Она произвела на меня огромное впечатление. Возможно основной причиной этому были сюжеты, посвященные выбору роботами между тремя законами робототехники:


1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но даже имея такие четкие законы, случались ситуации, которые либо не описывались ими, либо создавали серьезное противоречие со здравым смыслом.

Чувствуется мне, что еще лет через 10 уже придется нам создавать свои законы робототехники и ставить на одну сторону весов рациональность и расчет, а на другую мораль и принципы совести.

Или вы считаете, такой проблемы не возникнет?




Вернуться назад