Автопилот Tesla обманом заставили выехать на встречную

Автопилот Tesla обманом заставили выехать на встречную

Для обмана автопилота достаточно всего лишь нарисовать на дороге несколько небольших стикеров.

Tesla активно применяет нейросети для многих задач машинного зрения и других функций (таких как обнаружение дождя на ветровом стекле и включение дворников). Исследователи из Tencent Keen Security Lab опубликовали отчет, в котором подробно рассказали о своих атаках на программное обеспечение этих электромобилей.

Ученые взломали автопилот электромобилей, в результате эксперимента выяснилось, что маленькие наклейки на асфальте заставляют автомобиль выезжать на встречную полосу. Для удаленного управления автомобилем исследователи воспользовались уязвимостью, позволяющую получить доступ с правами суперпользователя к электронному блоку управления автопилота. Там образом они смогли перехватить контроль над системой рулевого управления.

Какие еще проблемы обнаружили у самых популярных электромобилей расскажет программа «Вести. net».

Эксперимент команды продемонстрирован в видео ниже.


Добавить комментарий