ОКО ПЛАНЕТЫ > Размышления о политике > Автопилот Tesla отключается за секунды до аварии

Автопилот Tesla отключается за секунды до аварии


13-06-2022, 19:26. Разместил: Око Политика



Мы уже несколько раз обсуждали такое явление как "автопилот Tesla" и все эксперты указывают, что это никакой не автопилот, но водители воспринимают его именно так из-за маркетинговой компании Tesla. В результате машины с пассажирами попадают в аварии.

Так вот, по информации Verge, американский регулятор в сфере безопасности автомобильного транспорта занялся инженерным анализом работы автопилота Tesla. Эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии.

Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.



Эксперты NHTSA уже несколько лет ведут расследование инцидентов, связанных с электромобилями Tesla в режиме автопилота. Часть из них закончились трагично как для водителей разных моделей Tesla, так и для пострадавших в этих авариях третьих лиц.

Tesla считает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку. В четвертом квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, тогда как, по данным NHTSA, авария в обычных машинах происходит каждые 640 тыс. км, когда за рулём человек.

Теперь NHTSA активировало дополнительное расследование работы автопилота Tesla в проданных в США 830 тыс. электромобилей. Специалисты хотят по их логам выяснить, как именно ведет себя автопилот и связанные с ним системы Tesla в критических ситуациях и не позволяли ли ранее эти системы снизить эффективность контроля над машиной водителем, который должен был следить за ситуацией, но не понял в итоге, что произошло из-за непредвиденных действий автопилота.

Претензии NHTSA заключаются в том, что при использовании автопилота водителям даётся возможность предпринять попытку избежать столкновения с препятствиями только за несколько секунд до аварии, а в большинстве ситуаций автопилот сообщает об этом только прямо перед аварией и отключается.

NHTSA выяснило, например, что в большинстве аварий с автомобилями спецслужб (машины экстренной помощи, полицейские и пожарные), которые стояли в правом ряду на парковке или в других местах дороги с включёнными предупредительными огнями, автопилот Tesla, управляя рулевым колесом, системой торможения и газом на определённых типах дорог, только за несколько секунд до столкновения отключился и передал управление водителю. В итоге человек не успевал среагировать и выполнить маневры уклонения или торможения.

Причем в 16 зарегистрированных авариях автопилот отключался за секунду до столкновения, а значит, у водителя вообще не было времени перехватить контроль над машиной, так как он надеялся на его работу, а время реакции обычного человека — около секунды.

Tesla в 2021 году заявляла, что инциденты со смертельным исходом или с фатальными повреждениями транспортных средств не могут быть виной производителя, так как собранные с электромобилей данные телеметрии показали, что автопилот был неактивен в момент каждого столкновения.

NHTSA считает, что система автопилота Tesla специально была разработана таким образом, чтобы отключаться за несколько секунд до столкновения при обнаружении неизбежной аварии. Эксперты и юристы отрасли пояснили, что даже, если это будет доказано, то привлечь Tesla к ответственности за аварии не получится. По условиям использования автопилота Tesla, всю ответственность за инциденты на дороге несут водители, а не компания.

8 января 2022 года Tesla повысила цену в США на активацию сервиса помощи водителю Full Self-Driving (FSD) с $10 тыс. до $12 тыс. Причина роста стоимости пакета FSD, включая доступ к автопилоту уровня 2 в соответствии со стандартами американского Общества автомобильных инженеров, является расширение функций сервиса и внедрение новых опций, а также доработка и тестирование.

Изначально Tesla продавала возможность будущего доступа к FSD за 7 $тыс., потом на тестовые версии цена поднялась до $10 тыс. Данная система помощи на дороге не является полноценным автопилотом. Также FSD доступна не всем владельцам электромобилей Tesla. Ее можно активировать, если в электромобиле установлена с завода компьютерная бортовая система FSD 3.0 (HW3) или выше. Если электромобиль ей не оснащен, то владелец может ее поставить дополнительно за $1500.

Прошлым летом Tesla запустила подписку на сервис помощи водителю FSD за $199 в месяц или за $99, если у владельца Tesla есть пакет Enhanced Autopilot.

В ноябре прошлого года Tesla ввела в бету версию FSD обязательное требование к водителю согласиться на видеосъемку, чтобы можно было лучше понять причины и решить спорные ситуации в случаях угрозы безопасности и аварийных ситуаций. Также при активации FSD водители все равно должны держать руки на руле и постоянно следить за дорогой.

Tesla ранее не разрешала передавать право собственности на пакет автопилота Tesla Full Self-Driving другому владельцу. В прошлом году при перепродаже Model S Tesla удалённо отключила автопилот, потому что новый владелец за него не заплатил.

В апреле 2022 года СМИ сообщили, что Tesla в режиме Smart Summon (режим удалённого управления при помощи систем автопилота) не распознала препятствие в виде хвоста небольшого летающего средства на аэродроме (реактивного самолета бизнес-класса Cirrus SF50 Vision Jet) и позволила совершить столкновение со стоящим на стоянке небольшим самолетом без людей на борту.


Один из комментариев к этой теме на Хабре:

"А пусть регулятор просто скажет, что «находиться в позиции пассивного наблюдателя, но при этом сохранять situational awareness и готовность к немедленному действию» — это ситуация, ТРЕБУЮЩАЯ большого опыта, ответственности и специального обучения.

Например, в такой ситуации находится летчик-инструктор, позволяющий курсанту выполнять заход на посадку: выхватишь управление раньше — курсант не осознает ошибку и не получит навыка ее исправления! А выхватишь позже — можно и земли наесться… И хорошо, если без пассажиров… Так вот, после этих упражнений в «пассивной готовности» — инструктор вылазит из самолета с мокрой спиной!

Бессмысленно ожидать, что обычный человек будет готов находится в таком режиме сколько-то длительное время. Поэтому автопилот теслы в текущей реализации следует запретить. И я бы вообще пока (временно, пока техника не подтянется) — разрешил потребительскому автопилоту контролировать только один из каналов управления: либо скорость, либо направление движения. Если мы хотим, чтобы водитель оставался в контуре управления — нужно чтобы он либо управлял газом, либо рулил, либо и то и другое сразу. Ну в пробках можно разрешить автопилоту управлять рулем и газом в режиме «поползли-остановились-поползли». Но как только движение начало налаживаться — будьте добры, или газовать и рулить, чтобы находится в контуре!.."



Тут еще можно вспомнить про «Моральные принципы» беспилотных автомобилей


Вернуться назад