
Технологии искусственного интеллекта открыли новые возможности для цифрового насилия. За последние годы сформировалась целая экосистема сервисов, специализирующихся на создании нежелательного сексуального контента с использованием реальных фотографий людей без их согласия. Эта индустрия не просто существует — она активно растет и совершенствуется, причиняя огромный вред преимущественно женщинам и девочкам.
Один из таких сервисов предлагает 65 видео-шаблонов, среди которых различные сценарии раздевания и откровенные сексуальные сцены. Генерация каждого видео стоит небольшую плату, добавление AI-сгенерированного аудио обходится дороже. На сайте размещены предупреждения о необходимости загружать только фотографии с согласия изображенных людей, но никаких реальных проверок для обеспечения этого правила не предусмотрено.
Недавний случай с чат-ботом Grok, созданным компаниями Илона Маска, привлек внимание общественности — с его помощью были созданы тысячи изображений раздетых женщин без их согласия. Однако это лишь верхушка айсберга. На протяжении нескольких лет формировалась обширная экосистема из десятков веб-сайтов, ботов и приложений, которые делают автоматизацию сексуального насилия на основе изображений проще, чем когда-либо.
«Это уже не примитивная синтетическая раздевка, — объясняет Генри Айдер, эксперт по дипфейкам, который отслеживает эту технологию более пяти лет. — Мы говорим о значительно более высоком уровне реализма того, что генерируется, а также о гораздо более широком спектре функциональности». По его оценкам, эти сервисы зарабатывают миллионы долларов ежегодно.
За последний год WIRED отследил, как множественные сервисы для создания откровенных дипфейков представили новый функционал и быстро расширились, предлагая создание видео с вредоносным контентом. Современные модели image-to-video обычно требуют всего одну фотографию для генерации короткого клипа.
Обзор более 50 «дипфейк» веб-сайтов, которые предположительно получают миллионы просмотров ежемесячно, показывает: практически все они теперь предлагают генерацию откровенных видео высокого качества и часто перечисляют десятки сексуальных сценариев, в которые могут быть помещены женщины.
В Telegram десятки каналов и ботов для создания сексуальных дипфейков регулярно выпускают новые функции и обновления программного обеспечения. В июне прошлого года один из сервисов анонсировал «секс-режим» с рекламой: «Попробуйте разную одежду, ваши любимые позы, возраст и другие настройки». Другой сообщил, что скоро появятся «дополнительные стили» изображений и видео, и пользователи смогут «создавать именно то, что вы представляете, с помощью собственных описаний», используя пользовательские промпты для систем AI.
«Речь идет не только о том, чтобы раздеть кого-то. Это как целый набор различных фантазийных версий, — говорит независимый аналитик Сантьяго Лакатос, который исследовал, как сервисы для создания нежелательного контента используют инфраструктуру крупных технологических компаний. — Это разные позы, разные сексуальные положения. Есть версии, где можно сделать так, чтобы кто-то выглядел беременной».
Анализ WIRED обнаружил более 1,4 миллиона аккаунтов, зарегистрированных в 39 ботах и каналах для создания дипфейков в Telegram. После запроса WIRED компания удалила как минимум 32 таких инструмента. Представитель Telegram заявил: «Неконсенсуальная порнография, включая дипфейки и инструменты для их создания, строго запрещена условиями использования Telegram», добавив, что платформа удаляет контент при его обнаружении и удалила 44 миллиона единиц контента, нарушающего политику, в прошлом году.
По словам Лакатоса, в последние годы несколько крупных «дипфейк» веб-сайтов укрепили свои рыночные позиции и теперь предлагают API другим людям, создающим генераторы нежелательных изображений и видео, что позволяет множиться новым сервисам. «Они консолидируются, скупая другие веб-сайты или приложения. Они добавляют функции, которые позволяют им стать провайдерами инфраструктуры».
«Эта экосистема построена на базе опен-сорс моделей, — говорит Стивен Каспер, исследователь, работающий над защитными механизмами и управлением AI в Массачусетском технологическом институте. — Часто это просто модель с открытым исходным кодом, которая использовалась для разработки приложения, которое затем использует пользователь».
Дипфейк порнография впервые появилась в конце 2017 года и в то время требовала от пользователя технических знаний для создания сексуальных изображений или видео. Широкое развитие генеративных систем AI за последние три года, включая доступность сложных генераторов фото и видео с открытым исходным кодом, сделало технологию более доступной, реалистичной и простой в использовании.
Жертвами и выжившими после распространения неконсенсуальных интимных изображений (NCII), включая дипфейки и другие нежелательно распространенные медиа, практически всегда становятся женщины. Ложные изображения и видео без согласия причиняют огромный вред, включая преследование, унижение и ощущение «дегуманизации».
«Обычно жертвами или людьми, пострадавшими от этого, являются женщины и дети или другие типы гендерных или сексуальных меньшинств, — говорит Пани Фарвид, доцент прикладной психологии и основатель The SexTech Lab в The New School. — Мы как общество в глобальном масштабе не воспринимаем всерьез насилие в отношении женщин, независимо от того, в какой форме оно проявляется».
Австралийское исследование, проведенное исследователем Ашером Флинном, включало интервью с 25 создателями и жертвами дипфейк-насилия. Исследование пришло к выводу, что три фактора могут повлиять на предотвращение проблемы и реагирование на нее: все более простые в использовании инструменты для создания дипфейков, нормализация создания неконсенсуальных сексуальных изображений и минимизация вреда.
В отличие от широкого публичного распространения неконсенсуальных сексуальных изображений, созданных с помощью Grok в X, откровенные дипфейки чаще распространялись среди жертв или их друзей и семьи в частном порядке. «Я просто использовал личные группы WhatsApp, — рассказал один из преступников исследователям. — И в некоторых из этих групп было до 50 человек».
Академическое исследование выявило четыре основные мотивации для дипфейк-насилия — из 10 опрошенных преступников восемь идентифицировали себя как мужчины. Эти мотивации включали секстортинг, причинение вреда другим, получение подкрепления или связи со сверстниками и любопытство к инструментам и их возможностям.
Несколько экспертов, с которыми разговаривал WIRED, отметили, что многие сообщества, разрабатывающие инструменты для дипфейков, имеют «беззаботное» или случайное отношение к вреду, который они причиняют. «Существует тенденция определенной банальности использования этого инструмента для создания NCII или даже для доступа к NCII, что вызывает беспокойство», — говорит Бруна Мартинс дос Сантос, менеджер по политике и адвокации в Witness, правозащитной организации.
Для некоторых создателей дипфейков технология связана с властью и контролем. «Вы просто хотите увидеть, что возможно, — рассказал один из нарушителей Флинну и коллегам-исследователям. — Затем вы получаете небольшой богоподобный кайф от осознания того, что способны создать что-то подобное».
Если вы заинтересованы в разработке AI-систем для защиты от злоупотреблений или автоматизации других бизнес-процессов, наша команда может помочь создать решения с использованием передовых технологий. Мы специализируемся на разработке и автоматизации с применением таких инструментов, как OpenAI, Anthropic Claude, Replicate и других платформ для работы с изображениями и видео. Посетите наш сайт, чтобы узнать больше о возможностях AI-автоматизации.
