Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Автопилот Tesla отключается за секунды до аварии

Автопилот Tesla отключается за секунды до аварии


13-06-2022, 19:26 | Политика / Размышления о политике | разместил: Око Политика | комментариев: (0) | просмотров: (1 463)



Мы уже несколько раз обсуждали такое явление как "автопилот Tesla" и все эксперты указывают, что это никакой не автопилот, но водители воспринимают его именно так из-за маркетинговой компании Tesla. В результате машины с пассажирами попадают в аварии.

Так вот, по информации Verge, американский регулятор в сфере безопасности автомобильного транспорта занялся инженерным анализом работы автопилота Tesla. Эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии.

Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.



Эксперты NHTSA уже несколько лет ведут расследование инцидентов, связанных с электромобилями Tesla в режиме автопилота. Часть из них закончились трагично как для водителей разных моделей Tesla, так и для пострадавших в этих авариях третьих лиц.

Tesla считает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку. В четвертом квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, тогда как, по данным NHTSA, авария в обычных машинах происходит каждые 640 тыс. км, когда за рулём человек.

Теперь NHTSA активировало дополнительное расследование работы автопилота Tesla в проданных в США 830 тыс. электромобилей. Специалисты хотят по их логам выяснить, как именно ведет себя автопилот и связанные с ним системы Tesla в критических ситуациях и не позволяли ли ранее эти системы снизить эффективность контроля над машиной водителем, который должен был следить за ситуацией, но не понял в итоге, что произошло из-за непредвиденных действий автопилота.

Претензии NHTSA заключаются в том, что при использовании автопилота водителям даётся возможность предпринять попытку избежать столкновения с препятствиями только за несколько секунд до аварии, а в большинстве ситуаций автопилот сообщает об этом только прямо перед аварией и отключается.

NHTSA выяснило, например, что в большинстве аварий с автомобилями спецслужб (машины экстренной помощи, полицейские и пожарные), которые стояли в правом ряду на парковке или в других местах дороги с включёнными предупредительными огнями, автопилот Tesla, управляя рулевым колесом, системой торможения и газом на определённых типах дорог, только за несколько секунд до столкновения отключился и передал управление водителю. В итоге человек не успевал среагировать и выполнить маневры уклонения или торможения.

Причем в 16 зарегистрированных авариях автопилот отключался за секунду до столкновения, а значит, у водителя вообще не было времени перехватить контроль над машиной, так как он надеялся на его работу, а время реакции обычного человека — около секунды.

Tesla в 2021 году заявляла, что инциденты со смертельным исходом или с фатальными повреждениями транспортных средств не могут быть виной производителя, так как собранные с электромобилей данные телеметрии показали, что автопилот был неактивен в момент каждого столкновения.

NHTSA считает, что система автопилота Tesla специально была разработана таким образом, чтобы отключаться за несколько секунд до столкновения при обнаружении неизбежной аварии. Эксперты и юристы отрасли пояснили, что даже, если это будет доказано, то привлечь Tesla к ответственности за аварии не получится. По условиям использования автопилота Tesla, всю ответственность за инциденты на дороге несут водители, а не компания.

8 января 2022 года Tesla повысила цену в США на активацию сервиса помощи водителю Full Self-Driving (FSD) с $10 тыс. до $12 тыс. Причина роста стоимости пакета FSD, включая доступ к автопилоту уровня 2 в соответствии со стандартами американского Общества автомобильных инженеров, является расширение функций сервиса и внедрение новых опций, а также доработка и тестирование.

Изначально Tesla продавала возможность будущего доступа к FSD за 7 $тыс., потом на тестовые версии цена поднялась до $10 тыс. Данная система помощи на дороге не является полноценным автопилотом. Также FSD доступна не всем владельцам электромобилей Tesla. Ее можно активировать, если в электромобиле установлена с завода компьютерная бортовая система FSD 3.0 (HW3) или выше. Если электромобиль ей не оснащен, то владелец может ее поставить дополнительно за $1500.

Прошлым летом Tesla запустила подписку на сервис помощи водителю FSD за $199 в месяц или за $99, если у владельца Tesla есть пакет Enhanced Autopilot.

В ноябре прошлого года Tesla ввела в бету версию FSD обязательное требование к водителю согласиться на видеосъемку, чтобы можно было лучше понять причины и решить спорные ситуации в случаях угрозы безопасности и аварийных ситуаций. Также при активации FSD водители все равно должны держать руки на руле и постоянно следить за дорогой.

Tesla ранее не разрешала передавать право собственности на пакет автопилота Tesla Full Self-Driving другому владельцу. В прошлом году при перепродаже Model S Tesla удалённо отключила автопилот, потому что новый владелец за него не заплатил.

В апреле 2022 года СМИ сообщили, что Tesla в режиме Smart Summon (режим удалённого управления при помощи систем автопилота) не распознала препятствие в виде хвоста небольшого летающего средства на аэродроме (реактивного самолета бизнес-класса Cirrus SF50 Vision Jet) и позволила совершить столкновение со стоящим на стоянке небольшим самолетом без людей на борту.


Один из комментариев к этой теме на Хабре:

"А пусть регулятор просто скажет, что «находиться в позиции пассивного наблюдателя, но при этом сохранять situational awareness и готовность к немедленному действию» — это ситуация, ТРЕБУЮЩАЯ большого опыта, ответственности и специального обучения.

Например, в такой ситуации находится летчик-инструктор, позволяющий курсанту выполнять заход на посадку: выхватишь управление раньше — курсант не осознает ошибку и не получит навыка ее исправления! А выхватишь позже — можно и земли наесться… И хорошо, если без пассажиров… Так вот, после этих упражнений в «пассивной готовности» — инструктор вылазит из самолета с мокрой спиной!

Бессмысленно ожидать, что обычный человек будет готов находится в таком режиме сколько-то длительное время. Поэтому автопилот теслы в текущей реализации следует запретить. И я бы вообще пока (временно, пока техника не подтянется) — разрешил потребительскому автопилоту контролировать только один из каналов управления: либо скорость, либо направление движения. Если мы хотим, чтобы водитель оставался в контуре управления — нужно чтобы он либо управлял газом, либо рулил, либо и то и другое сразу. Ну в пробках можно разрешить автопилоту управлять рулем и газом в режиме «поползли-остановились-поползли». Но как только движение начало налаживаться — будьте добры, или газовать и рулить, чтобы находится в контуре!.."



Тут еще можно вспомнить про «Моральные принципы» беспилотных автомобилей


Источник: masterok.livejournal.com.

Рейтинг публикации:

Нравится15



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map