OpenAI сделка с Пентагоном: Альтман признал поспешность и ошибки в контракте

Фабио Де ЛукаИИ и автоматизация1 неделю назад14 Просмотры

Сэм Альтман, глава OpenAI, в понедельник публично признал, что компания допустила ошибки при заключении контракта с Министерством обороны США. Сделка, объявленная в пятницу, вызвала волну критики и массовые удаления ChatGPT. Что произошло и почему это важно для всей индустрии ИИ?

Как развивались события вокруг контракта OpenAI и Пентагона

В пятницу, 27 февраля 2026 года, OpenAI объявила о новом соглашении с Министерством обороны США. Момент оказался крайне неудачным: буквально за несколько часов до этого президент Трамп распорядился прекратить использование федеральными агентствами инструментов конкурирующей компании Anthropic. А через несколько часов после объявления Вашингтон нанёс удары по Ирану.

Такое совпадение по времени многие восприняли как циничный оппортунизм. По данным TechCrunch, количество удалений ChatGPT из магазинов приложений выросло на 295%, а пользователи массово переходили на Claude от Anthropic.

Признание ошибок и поправки к контракту

В понедельник Альтман опубликовал в X (бывший Twitter) внутреннюю записку, в которой прямо сказал: компания "не должна была спешить" с объявлением. По его словам, "мы искренне пытались деэскалировать ситуацию и избежать худшего исхода, но всё выглядело оппортунистично и неряшливо".

OpenAI сделка с Пентагоном была оперативно пересмотрена. Компания внесла поправки в контракт, включающие конкретные ограничения. ИИ-система не будет намеренно использоваться для внутренней слежки за гражданами и резидентами США. Министерство обороны подтвердило, что инструменты OpenAI не будут применяться разведывательными агентствами, включая АНБ. Помимо этого, ведомство признало запрет на целенаправленное отслеживание, мониторинг или наблюдение за американскими гражданами, в том числе через коммерческие базы персональных данных.

Предыстория: конфликт Anthropic с Пентагоном

Чтобы понять контекст, нужно вернуться к истории с Anthropic. Эта компания, основанная в 2021 году бывшими сотрудниками OpenAI, первой развернула свои модели в засекреченной сети Минобороны. Позже Anthropic потребовала гарантий, что её технологии не будут использоваться для слежки за американцами и разработки автономного оружия без человеческого контроля.

Конфликт обострился после того, как стало известно об использовании Claude при захвате президента Венесуэлы Николаса Мадуро в январе 2026 года. Переговоры зашли в тупик, и министр обороны Пит Хегсет объявил Anthropic угрозой для цепочки поставок.

Интересно, что Альтман в записке для сотрудников от четверга утверждал, что OpenAI разделяет те же "красные линии", что и Anthropic. В своём понедельничном посте он также заявил, что Anthropic не должна получать статус угрозы цепочке поставок, и выразил надежду, что Минобороны предложит конкуренту те же условия.

Что это значит для рынка ИИ

Ситуация обнажила серьёзную проблему: граница между коммерческим ИИ и военным применением становится всё тоньше. Альтман сам отметил, что "технология ещё не готова ко многим задачам, и во многих областях мы пока не понимаем необходимых компромиссов для безопасности".

Для компаний, которые строят свои продукты на базе ИИ-моделей, эта история напоминает о значимости выбора поставщика технологий. Если вы разрабатываете автоматизации или ИИ-решения для бизнеса, важно учитывать не только технические характеристики, но и политические риски. В нашей практике мы работаем с различными foundation model провайдерами, включая OpenAI, Anthropic Claude и Google Gemini, что позволяет гибко адаптироваться к изменениям на рынке.

OpenAI сделка с Минобороны, при всей её скандальности, задала новый стандарт прозрачности: теперь от ИИ-компаний будут ожидать публичных гарантий ограничения военного применения. Вопрос только в том, насколько эти гарантии окажутся реальными, а не декларативными.

Соц. сети
  • Pinterest1360
  • Youtube1285
  • WhatsApp
  • Telegram1608
  • VKontakte102
  • TikTok1059
Loading Next Post...
Боковая панель Поиск
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...