Хакеры заставили автопилот Tesla выехать на встречную полосу

2 апреля 2019, 14:30

Специалисты по кибербезопасности Keen Labs смогли сбить с курса систему беспилотного вождения Tesla, дорисовав на мостовой три небольших прямоугольника, пишет Business Insider.

Исследователи нашли два способа обмануть систему распознавание полосы автопилота Tesla — но не при помощи взлома, а изменив внешний вид дорожного покрытия.

В первом способе исследователи разместили стикеры, размывающие дорожную разметку, на левой разделительной линии. Однако в реальной жизни осуществить это злоумышленникам было бы слишком сложно, а автопилоту — нетрудно распознать, так как система часто встречалась с нечёткой разметкой в ходе испытаний. Поэтому беспилотные авто Tesla хорошо «чувствуют полосу» даже при плохом освещении или непогоде.

Но исследователи пошли дальше. Во втором случае они решили нанести несуществующую разметку и нарисовали на дороге три белых прямоугольника, которые имитировали конец полосы и уводили автомобиль на «встречку».

Этот способ, по мнению команды, гораздо более реален и опасен. Исследователи убеждены, что автопилот должен игнорировать разметку, которая заставляет его перестроиться на полосу со встречным движением, чтобы избежать аварий.

Tesla в ответ на работу Keen Labs заявила, что исследователи изменили физическую среду, чтобы ввести автопилот в заблуждение. Компания добавила, что эти проблемы не представляют угрозы в повседневной жизни, тем более что водитель может в любое время взять управление авто на себя. А находка Keen Labs не подпадает под программу вознаграждения Tesla.

подписка на главные новости 
недели != спам
# ит-новости
# анонсы событий
# вакансии
Обсуждение