
В Остине, штат Техас, уже несколько месяцев развивается ситуация, которая заставляет серьёзно задуматься о готовности беспилотных автомобилей к реальным дорожным условиям. Роботакси компании Waymo систематически проезжают мимо остановившихся школьных автобусов с включёнными красными сигналами и выдвинутыми знаками остановки, нарушая закон и подвергая опасности детей.
Школьный округ Остина (AISD) зафиксировал как минимум 19 случаев, когда автопилот остановка автобус не были связаны корректно в алгоритме Waymo. Автомобили просто проезжали мимо школьных автобусов с активными сигналами, вместо того чтобы полностью остановиться, как того требует закон. В одном из эпизодов машина проехала буквально через несколько мгновений после того, как ребёнок перешёл дорогу перед ней, причём ребёнок ещё находился на проезжей части.
В начале декабря 2025 года Waymo провела федеральный отзыв, признав перед регулятором NHTSA минимум 12 таких инцидентов. Инженеры компании заявили, что уже разработали обновления программного обеспечения. Но проблема не исчезла.
Документы, полученные журналистами WIRED через запрос публичных записей, показывают любопытную деталь. Школьный округ фактически попытался помочь Waymo научить свои машины распознавать автобусы. В середине декабря AISD организовал полудневное мероприятие по сбору данных на парковке школьного спортивного комплекса. Сотрудники округа собрали семь автобусов разных моделей из своего парка (более 550 машин), чтобы беспилотники могли изучить мигающие сигналы на разных расстояниях.
Waymo сообщила, что получила всё необходимое. И всё равно к середине января 2026 года округ зафиксировал ещё минимум четыре нарушения.
Мисси Каммингс, исследователь автономных транспортных средств из Университета Джорджа Мейсона, говорит, что беспилотные системы давно испытывают трудности с распознаванием мигающих аварийных сигналов и тонких выдвижных конструкций вроде знаков остановки на автобусах. Данные, собранные на парковке вне реального контекста движения, скорее всего, недостаточны для обучения.
Филип Купман из Университета Карнеги-Меллон добавляет, что знаки остановки в разных ситуациях означают разные вещи: на перекрёстке, в руках дорожного рабочего, на школьном автобусе. Научить алгоритм таким тонкостям крайне сложно. По его словам, научить ПО ездить безопасно в 99% случаев относительно просто, а вот оставшийся 1% это по-настоящему трудная задача.
Отчёт NTSB от начала марта 2026 года выявил ещё один неожиданный фактор: в одном из январских инцидентов удалённый оператор Waymo из Мичигана ошибочно подтвердил системе, что школьный автобус впереди не имеет активных сигналов. Шесть автомобилей проехали мимо остановившегося автобуса.
Эта история показывает реальные пределы машинного обучения в контексте дорожной безопасности. Один из главных аргументов в пользу беспилотников состоит в том, что каждый автомобиль учится на ошибках всего парка. Но ситуация, когда автопилот остановка автобус не связывает в единое правило даже после отзыва и специального обучения, ставит этот аргумент под вопрос.
Если вас интересует тема AI и автоматизации процессов, включая анализ данных и принятие решений, подписывайтесь на наш Telegram-канал, где мы регулярно разбираем подобные кейсы.
Ситуация в Остине далека от разрешения, расследование NTSB продолжается. Пока же она напоминает о том, что между возможностями AI на стенде и реальной дорогой с детьми, автобусами и мигающими огнями лежит дистанция, которую не всегда получается преодолеть очередным обновлением софта.