OpenAI Пентагон заключили сделку на фоне запрета инструментов Anthropic в США

Фабио Де ЛукаИИ и автоматизация2 недели назад14 Просмотры

Новость, которая взбудоражила технологическое сообщество в конце февраля 2026 года, оказалась на удивление многослойной. Глава OpenAI Сэм Альтман объявил поздно вечером в пятницу о заключении контракта с Министерством обороны США на использование ИИ-инструментов компании в засекреченных военных системах. Это произошло буквально в тот же день, когда администрация Дональда Трампа запретила всем федеральным ведомствам использовать продукты конкурента, компании Anthropic.

Что произошло между OpenAI Пентагон и Anthropic

Хронология событий заставляет задуматься. Министр обороны Пит Хегсет объявил Anthropic «риском для цепочки поставок». Такой статус обычно присваивают компаниям, имеющим прямые связи с иностранными противниками. Причина? Anthropic отказалась отступать в переговорах с военным ведомством, настаивая на ограничениях использования своих моделей в автономном вооружении и массовой слежке за гражданами США.

И вот что любопытно. Сэм Альтман в своём заявлении на X описал условия сделки OpenAI Пентагон, которые звучат подозрительно похоже на те самые требования, из-за которых Anthropic попала под запрет.

Условия соглашения

Альтман выделил два ключевых принципа безопасности:

  • Запрет на массовую слежку внутри страны
  • Человеческая ответственность за применение силы, включая автономные системы вооружений

По его словам, Министерство обороны согласилось с этими принципами, они отражены в законодательстве и политике ведомства, а также зафиксированы в самом соглашении. Компания также пообещала направить инженеров непосредственно в Пентагон для контроля безопасности моделей.

Двойные стандарты или тонкая дипломатия?

Тут возникает естественный вопрос: чем принципиально отличаются условия OpenAI от тех, что предлагала Anthropic? На момент написания этого материала ни Пентагон, ни OpenAI не дали чётких разъяснений по этому поводу. Альтман, впрочем, призвал военное ведомство предложить аналогичные условия всем ИИ-компаниям и выразил желание деэскалации ситуации.

Anthropic, со своей стороны, заявила о намерении оспорить в суде присвоенный ей статус «риска для цепочки поставок». Этот статус обязывает всех подрядчиков Пентагона доказывать, что их военная работа никак не связана с продуктами Anthropic.

Что это значит для рынка ИИ

Ситуация демонстрирует, насколько тесно переплетаются коммерческие интересы, политика и вопросы безопасности в сфере искусственного интеллекта. Заместитель министра Эмиль Майкл, отвечающий за технологии в Пентагоне, написал в X: «Когда речь идёт о жизни и смерти наших военнослужащих, надёжный партнёр, ведущий переговоры добросовестно, решает всё на пороге эпохи ИИ».

Для компаний, работающих с ИИ-технологиями, этот прецедент несёт прямой сигнал: готовность к диалогу с государственными структурами может оказаться важнее технического превосходства. Мы в Фабио Де Лука внимательно следим за развитием таких историй, поскольку они напрямую влияют на то, как бизнес может использовать ИИ-инструменты, включая решения от OpenAI и других провайдеров, в своих бизнес-процессах.

Эта история далеко не закончена. Судебное разбирательство Anthropic, детали контракта OpenAI и реакция остальных игроков рынка покажут, каким будет баланс между военными потребностями и этическими ограничениями ИИ. Следите за обновлениями в нашем блоге.

Соц. сети
  • Pinterest1360
  • Youtube1285
  • WhatsApp
  • Telegram1608
  • VKontakte102
  • TikTok1059
Loading Next Post...
Боковая панель Поиск
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...