OpenAI Пентагон, сделка с ограничениями на слежку и автономное оружие

Фабио Де ЛукаИИ и автоматизация1 неделю назад26 Просмотры

OpenAI и Пентагон заключили соглашение, которое уже вызвало волну обсуждений в индустрии. Сэм Альтман признал, что сделка была подготовлена в спешке, а «оптика выглядит не лучшим образом». Но детали контракта оказались интереснее, чем можно было ожидать.

Как появилась сделка и почему именно сейчас

Контекст важен. В конце февраля 2026 года переговоры между Anthropic и Пентагоном провалились. Президент Трамп распорядился прекратить использование технологий Anthropic федеральными агентствами после шестимесячного переходного периода, а министр обороны Пит Хегсет обозначил компанию как риск для цепочки поставок. Anthropic при этом заявила, что проводит красные линии вокруг применения своих моделей в полностью автономном оружии и массовой внутренней слежке.

Буквально на следующий день OpenAI Пентагон объявили о достигнутом соглашении на развертывание моделей в классифицированных средах. Скорость, с которой это произошло, и вызвала вопросы: почему OpenAI смогла договориться, а Anthropic нет?

Что именно запрещает соглашение

OpenAI опубликовала блог-пост с описанием подхода. Компания выделила три области, где использование её моделей запрещено:

Массовая внутренняя слежка

Прямой запрет на использование технологий для массового наблюдения за гражданами внутри страны.

Автономные системы вооружения

Модели не могут быть интегрированы в системы, принимающие решения об атаке без участия человека.

Автоматизированные решения с высокими ставками

Сюда относятся, например, системы типа «социального кредита».

Компания подчеркнула, что в отличие от других лабораторий, которые «сократили или убрали свои защитные ограничения», OpenAI сохраняет полный контроль над стеком безопасности. Развертывание происходит через облако, в процессе участвуют сотрудники с допуском, а контрактные защиты описаны как многоуровневые.

Критика и спорные моменты

Не все согласны с тем, что ограничения реально работают. Журналист Майк Масник из Techdirt обратил внимание, что контракт OpenAI Пентагон ссылается на Executive Order 12333, который, по его словам, исторически позволял АНБ собирать данные о гражданах США, перехватывая коммуникации за пределами страны. По мнению Масника, это фактически оставляет лазейку для внутренней слежки.

Катрина Маллиган, глава направления партнерств в области национальной безопасности OpenAI, возразила на это. Она написала в LinkedIn, что дискуссия ошибочно предполагает, будто единственный барьер между гражданами и массовой слежкой это один пункт в одном контракте. «Архитектура развертывания важнее, чем формулировки контракта», подчеркнула она, объяснив, что ограничение на облачный API не позволяет встраивать модели напрямую в системы вооружения или сенсоры.

Реакция рынка и позиция Альтмана

Обратная реакция оказалась ощутимой. Claude от Anthropic обогнал ChatGPT в App Store уже 1 марта. Альтман признал на X, что сделка была проведена быстро и спровоцировала серьёзный негатив. Но объяснил мотивацию так: «Мы хотели снизить напряженность между Министерством обороны и индустрией. Если это сработает, нас будут считать теми, кто взял на себя удар ради отрасли. Если нет, нас продолжат называть торопливыми и неосмотрительными».

Ситуация вокруг сделки OpenAI Пентагон остается открытой, и окончательные выводы делать пока рано. Ясно одно: вопрос о том, где проходит граница между полезным применением ИИ в оборонной сфере и злоупотреблением, будет обсуждаться ещё долго. Для тех, кто хочет следить за развитием событий в мире ИИ и автоматизации, рекомендуем подписаться на наш Telegram-канал, где мы регулярно разбираем подобные темы.

Соц. сети
  • Pinterest1360
  • Youtube1285
  • WhatsApp
  • Telegram1608
  • VKontakte102
  • TikTok1059
Loading Next Post...
Боковая панель Поиск
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...