NHTSA запускает расследование FSD Tesla после инцидентов с нарушениями ПДД
NHTSA начало расследование системы Full Self-Driving Tesla после получения более чем 50 сообщений о нарушениях правил дорожного движения, включая четыре случая с травмами. В рамках исследования были зафиксированы инциденты, такие как нарушение красных сигналов светофора, движение по встречным полосам и ошибочные повороты, что привело к началу этапа предварительной оценки возможного отзыва.
NHTSA начала новое расследование в отношении системы Full Self-Driving (FSD) Tesla, после получения более чем 50 сообщений о нарушениях правил дорожного движения. Среди инцидентов — четыре случая с травмами. Это первое расследование, которое фокусируется исключительно на FSD, в отличие от предыдущих, касавшихся менее функциональной системы Autopilot.
В апреле 2024 года NHTSA завершила расследование, выявив 13 смертей, связанных с неправильным использованием Autopilot. Однако отдельное расследование эффективности исправлений, внесённых Tesla, продолжается. Ранее, в октябре 2024 года, агентство также изучало аварии, произошедшие в условиях низкой видимости.
Детали нового расследования
ODI (Офис расследования дефектов) сообщила о 18 жалобах, двух СМИ и двух отчётах, поданных через SGO (стандартный порядок отчёта о ДТП), где FSD нарушила правила поворота или движение по встречным полосам. Особое внимание привлекло повторяющееся нарушение красных сигналов светофора в районе Джоппы, Мэриленд, где Tesla уже предприняла меры.
Среди выявленных инцидентов:
- Переезд перекрёстка с поворотной полосы;
- Поворот с основной полосы на дорогу, обозначенную как неправильная;
- Мгновенные переходы на встречную полосу без предупреждения водителя.
Tesla обновила FSD, используя данные из пилотного проекта robotaxi в Остине, Техас. Это обновление было активно продвигаемо Илоном Маском, который ранее участвовал в сокращении штата NHTSA, отвечающего за безопасность автоматизированных транспортных систем.
Процесс и перспективы
NHTSA начала этап Preliminary Evaluation, который может привести к требованию отзыва. Обычно такие расследования завершаются в течение восьми месяцев, но неясно, как это повлияет на сроки из-за возможного закрытия федерального правительства.
Интересно: Как сочетание технологических инноваций и сокращения ресурсов регуляторов повлияет на развитие автономных систем в будущем?
Новый этап в регулировании автономных технологий: что скрывается за расследованием NHTSA
Технологическая безопасность как политический инструмент
Система Full Self-Driving (FSD) Tesla выходит за рамки чисто технической категории — она становится полем борьбы между инновациями и регулятивным контролем. Расследование NHTSA, начатое после 50 жалоб, включая травмы, выявляет не только технические недостатки, но и системный конфликт интересов. Компания, которая активно продвигает FSD, одновременно участвовала в сокращении штата агентства, отвечающего за безопасность автоматизированных систем. Это создает парадокс: регулятор, ослабленный финансово, вынужден контролировать технологии, развитие которых требует всё больших ресурсов.
К чему это ведет? Регулятивная гонка между технологическим прогрессом и возможностями государственных структур может привести к задержкам в внедрении автономных систем, увеличив риски для пользователей и стоимость разработки.
Важно учитывать конкретные инциденты:
- В сентябре 2025 года тестовый заезд на Tesla Model Y с FSD v13.9 закончился столкновением с дорожным мусором. Система уровня 2 автономности не среагировала своевременно, несмотря на множество предупреждений.
- Сравнение с Waymo показывает, что компания, стартовавшая на пять лет раньше, уже достигла уровня 4 автономности, тогда как обещания Илона Маска о полной автономности к 2017 году так и не были выполнены.
Скрытые последствия для глобального рынка
Расследование FSD может стать катализатором для пересмотра подходов к тестированию автономных технологий. Если NHTSA потребует серьезных изменений, это затронет не только Tesla, но и других игроков, включая российские стартапы и государственные проекты в области беспилотного транспорта. Например, требования к обновлению алгоритмов на основе реальных данных (как это сделал Tesla через пилот в Остине) станут стандартом, что повысит барьер входа для новых участников.
Тренд: Внедрение автономных технологий в будущем будет зависеть не от скорости разработки, а от способности компаний адаптироваться к «живым» условиям, используя данные из реального мира.
Ключевые риски:
- Рост судебных исков: в 2024 году Tesla проиграла дело о смертельной аварии в режиме Autopilot, суд присудил $243 млн. Последующие споры завершились мирными соглашениями, но общая сумма выплат может превысить $2,5 млрд.
- Увеличение финансовой нагрузки на производителей, особенно при переходе от уровня 2 к более высоким классам автономности.
Российский контекст: баланс между амбициями и реалиями
Для российского бизнеса ключевой урок — необходимость предвосхищать регулятивные требования. В странах с менее развитой инфраструктурой для тестирования автономных систем (например, в России) компании могут столкнуться с двойной дилеммой: с одной стороны, давление на ускорение внедрения, с другой — риск ответственности за аварии. Это особенно актуально для государственных проектов, где сроки реализации часто жестко регламентированы.
Обратите внимание: Российские разработчики беспилотных технологий должны учитывать, что регулирование за рубежом может стать эталоном для внутренних стандартов, особенно если речь идет о международных партнерствах или экспорте решений.
Пример из практики:
- В октябре 2025 года NHTSA идентифицировал дефект в установке стартера в Hyundai Santa Fe, что привело к отзыву 135 386 автомобилей в США. В России эта модель доступна через параллельный импорт, что создает риск для владельцев, если автомобиль не прошел проверку на соответствие безопасности.
Структурный кризис в регулировании технологий
Сокращение штата NHTSA, совпадающее с ростом сложности автономных систем, демонстрирует системный риск: регуляторы не успевают адаптировать методы контроля под новые реалии. Это создает пространство для «заплаточных» решений, как в случае с обновлением FSD Tesla на основе данных из одного пилота. Долгосрочный эффект — рост вероятности «непреднамеренных» нарушений, которые регуляторы смогут выявить лишь через цепочки жалоб.
Важный нюанс: Автономные технологии перестали быть «футурологией» — они требуют создания новых регулятивных институтов, способных работать в реальном времени с масштабными данными.
Дополнительные факторы:
- Деятельность NHTSA, несмотря на ограниченные ресурсы, демонстрирует, что регуляторы могут активно выявлять угрозы (как в случае с Hyundai).
- Однако для полной адаптации к скорости технологического прогресса требуется масштабное перераспределение бюджетов и компетенций.