Дипфейк порнография: как сайты и боты создают миллионы нежелательных видео женщин

Технологии искусственного интеллекта открыли новые возможности для цифрового насилия. За последние годы сформировалась целая экосистема сервисов, специализирующихся на создании нежелательного сексуального контента с использованием реальных фотографий людей без их согласия. Эта индустрия не просто существует — она активно растет и совершенствуется, причиняя огромный вред преимущественно женщинам и девочкам.

Как работает индустрия дипфейк контента

Один из таких сервисов предлагает 65 видео-шаблонов, среди которых различные сценарии раздевания и откровенные сексуальные сцены. Генерация каждого видео стоит небольшую плату, добавление AI-сгенерированного аудио обходится дороже. На сайте размещены предупреждения о необходимости загружать только фотографии с согласия изображенных людей, но никаких реальных проверок для обеспечения этого правила не предусмотрено.

Недавний случай с чат-ботом Grok, созданным компаниями Илона Маска, привлек внимание общественности — с его помощью были созданы тысячи изображений раздетых женщин без их согласия. Однако это лишь верхушка айсберга. На протяжении нескольких лет формировалась обширная экосистема из десятков веб-сайтов, ботов и приложений, которые делают автоматизацию сексуального насилия на основе изображений проще, чем когда-либо.

«Это уже не примитивная синтетическая раздевка, — объясняет Генри Айдер, эксперт по дипфейкам, который отслеживает эту технологию более пяти лет. — Мы говорим о значительно более высоком уровне реализма того, что генерируется, а также о гораздо более широком спектре функциональности». По его оценкам, эти сервисы зарабатывают миллионы долларов ежегодно.

Расширение возможностей и новые угрозы

За последний год WIRED отследил, как множественные сервисы для создания откровенных дипфейков представили новый функционал и быстро расширились, предлагая создание видео с вредоносным контентом. Современные модели image-to-video обычно требуют всего одну фотографию для генерации короткого клипа.

Обзор более 50 «дипфейк» веб-сайтов, которые предположительно получают миллионы просмотров ежемесячно, показывает: практически все они теперь предлагают генерацию откровенных видео высокого качества и часто перечисляют десятки сексуальных сценариев, в которые могут быть помещены женщины.

В Telegram десятки каналов и ботов для создания сексуальных дипфейков регулярно выпускают новые функции и обновления программного обеспечения. В июне прошлого года один из сервисов анонсировал «секс-режим» с рекламой: «Попробуйте разную одежду, ваши любимые позы, возраст и другие настройки». Другой сообщил, что скоро появятся «дополнительные стили» изображений и видео, и пользователи смогут «создавать именно то, что вы представляете, с помощью собственных описаний», используя пользовательские промпты для систем AI.

Масштабы проблемы в мессенджерах

«Речь идет не только о том, чтобы раздеть кого-то. Это как целый набор различных фантазийных версий, — говорит независимый аналитик Сантьяго Лакатос, который исследовал, как сервисы для создания нежелательного контента используют инфраструктуру крупных технологических компаний. — Это разные позы, разные сексуальные положения. Есть версии, где можно сделать так, чтобы кто-то выглядел беременной».

Анализ WIRED обнаружил более 1,4 миллиона аккаунтов, зарегистрированных в 39 ботах и каналах для создания дипфейков в Telegram. После запроса WIRED компания удалила как минимум 32 таких инструмента. Представитель Telegram заявил: «Неконсенсуальная порнография, включая дипфейки и инструменты для их создания, строго запрещена условиями использования Telegram», добавив, что платформа удаляет контент при его обнаружении и удалила 44 миллиона единиц контента, нарушающего политику, в прошлом году.

Технологическая основа и коммерциализация

По словам Лакатоса, в последние годы несколько крупных «дипфейк» веб-сайтов укрепили свои рыночные позиции и теперь предлагают API другим людям, создающим генераторы нежелательных изображений и видео, что позволяет множиться новым сервисам. «Они консолидируются, скупая другие веб-сайты или приложения. Они добавляют функции, которые позволяют им стать провайдерами инфраструктуры».

«Эта экосистема построена на базе опен-сорс моделей, — говорит Стивен Каспер, исследователь, работающий над защитными механизмами и управлением AI в Массачусетском технологическом институте. — Часто это просто модель с открытым исходным кодом, которая использовалась для разработки приложения, которое затем использует пользователь».

Дипфейк порнография впервые появилась в конце 2017 года и в то время требовала от пользователя технических знаний для создания сексуальных изображений или видео. Широкое развитие генеративных систем AI за последние три года, включая доступность сложных генераторов фото и видео с открытым исходным кодом, сделало технологию более доступной, реалистичной и простой в использовании.

Жертвы и последствия

Жертвами и выжившими после распространения неконсенсуальных интимных изображений (NCII), включая дипфейки и другие нежелательно распространенные медиа, практически всегда становятся женщины. Ложные изображения и видео без согласия причиняют огромный вред, включая преследование, унижение и ощущение «дегуманизации».

«Обычно жертвами или людьми, пострадавшими от этого, являются женщины и дети или другие типы гендерных или сексуальных меньшинств, — говорит Пани Фарвид, доцент прикладной психологии и основатель The SexTech Lab в The New School. — Мы как общество в глобальном масштабе не воспринимаем всерьез насилие в отношении женщин, независимо от того, в какой форме оно проявляется».

Австралийское исследование, проведенное исследователем Ашером Флинном, включало интервью с 25 создателями и жертвами дипфейк-насилия. Исследование пришло к выводу, что три фактора могут повлиять на предотвращение проблемы и реагирование на нее: все более простые в использовании инструменты для создания дипфейков, нормализация создания неконсенсуальных сексуальных изображений и минимизация вреда.

В отличие от широкого публичного распространения неконсенсуальных сексуальных изображений, созданных с помощью Grok в X, откровенные дипфейки чаще распространялись среди жертв или их друзей и семьи в частном порядке. «Я просто использовал личные группы WhatsApp, — рассказал один из преступников исследователям. — И в некоторых из этих групп было до 50 человек».

Мотивация создателей дипфейков

Академическое исследование выявило четыре основные мотивации для дипфейк-насилия — из 10 опрошенных преступников восемь идентифицировали себя как мужчины. Эти мотивации включали секстортинг, причинение вреда другим, получение подкрепления или связи со сверстниками и любопытство к инструментам и их возможностям.

Несколько экспертов, с которыми разговаривал WIRED, отметили, что многие сообщества, разрабатывающие инструменты для дипфейков, имеют «беззаботное» или случайное отношение к вреду, который они причиняют. «Существует тенденция определенной банальности использования этого инструмента для создания NCII или даже для доступа к NCII, что вызывает беспокойство», — говорит Бруна Мартинс дос Сантос, менеджер по политике и адвокации в Witness, правозащитной организации.

Для некоторых создателей дипфейков технология связана с властью и контролем. «Вы просто хотите увидеть, что возможно, — рассказал один из нарушителей Флинну и коллегам-исследователям. — Затем вы получаете небольшой богоподобный кайф от осознания того, что способны создать что-то подобное».


Если вы заинтересованы в разработке AI-систем для защиты от злоупотреблений или автоматизации других бизнес-процессов, наша команда может помочь создать решения с использованием передовых технологий. Мы специализируемся на разработке и автоматизации с применением таких инструментов, как OpenAI, Anthropic Claude, Replicate и других платформ для работы с изображениями и видео. Посетите наш сайт, чтобы узнать больше о возможностях AI-автоматизации.

Соц. сети
  • Facebook426
  • X (ex Twitter)631
  • Pinterest1360
  • LinkedIn994
  • Youtube1285
  • Instagram803
  • WhatsApp
  • Telegram1608
  • VKontakte102
  • TikTok1059

Advertisement

Loading Next Post...
Sidebar Search
ПОПУЛЯРНЫЕ СТАТЬИ
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...