
Новость, которая взбудоражила технологическое сообщество в конце февраля 2026 года, оказалась на удивление многослойной. Глава OpenAI Сэм Альтман объявил поздно вечером в пятницу о заключении контракта с Министерством обороны США на использование ИИ-инструментов компании в засекреченных военных системах. Это произошло буквально в тот же день, когда администрация Дональда Трампа запретила всем федеральным ведомствам использовать продукты конкурента, компании Anthropic.
Хронология событий заставляет задуматься. Министр обороны Пит Хегсет объявил Anthropic «риском для цепочки поставок». Такой статус обычно присваивают компаниям, имеющим прямые связи с иностранными противниками. Причина? Anthropic отказалась отступать в переговорах с военным ведомством, настаивая на ограничениях использования своих моделей в автономном вооружении и массовой слежке за гражданами США.
И вот что любопытно. Сэм Альтман в своём заявлении на X описал условия сделки OpenAI Пентагон, которые звучат подозрительно похоже на те самые требования, из-за которых Anthropic попала под запрет.
Альтман выделил два ключевых принципа безопасности:
По его словам, Министерство обороны согласилось с этими принципами, они отражены в законодательстве и политике ведомства, а также зафиксированы в самом соглашении. Компания также пообещала направить инженеров непосредственно в Пентагон для контроля безопасности моделей.
Тут возникает естественный вопрос: чем принципиально отличаются условия OpenAI от тех, что предлагала Anthropic? На момент написания этого материала ни Пентагон, ни OpenAI не дали чётких разъяснений по этому поводу. Альтман, впрочем, призвал военное ведомство предложить аналогичные условия всем ИИ-компаниям и выразил желание деэскалации ситуации.
Anthropic, со своей стороны, заявила о намерении оспорить в суде присвоенный ей статус «риска для цепочки поставок». Этот статус обязывает всех подрядчиков Пентагона доказывать, что их военная работа никак не связана с продуктами Anthropic.
Ситуация демонстрирует, насколько тесно переплетаются коммерческие интересы, политика и вопросы безопасности в сфере искусственного интеллекта. Заместитель министра Эмиль Майкл, отвечающий за технологии в Пентагоне, написал в X: «Когда речь идёт о жизни и смерти наших военнослужащих, надёжный партнёр, ведущий переговоры добросовестно, решает всё на пороге эпохи ИИ».
Для компаний, работающих с ИИ-технологиями, этот прецедент несёт прямой сигнал: готовность к диалогу с государственными структурами может оказаться важнее технического превосходства. Мы в Фабио Де Лука внимательно следим за развитием таких историй, поскольку они напрямую влияют на то, как бизнес может использовать ИИ-инструменты, включая решения от OpenAI и других провайдеров, в своих бизнес-процессах.
Эта история далеко не закончена. Судебное разбирательство Anthropic, детали контракта OpenAI и реакция остальных игроков рынка покажут, каким будет баланс между военными потребностями и этическими ограничениями ИИ. Следите за обновлениями в нашем блоге.