ИИ психоз: как чат-боты доводят людей до госпитализации и суицида

Фабио Де ЛукаИИ и автоматизация2 недели назад37 Просмотры

Тема звучит как сюжет фантастического фильма, но реальность оказалась мрачнее любого сценария. Люди без психиатрической истории попадают в больницы, теряют семьи и деньги после общения с чат-ботами. И это не единичные случаи.

Как обычный IT-консультант потерял 100 000 евро и чуть не потерял жизнь

Деннис Бисма из Амстердама решил попробовать ChatGPT в конце 2024 года. Ему было около пятидесяти, дочь выросла, жена работала, а удалённая работа после пандемии оставила его в некоторой изоляции. Никаких психических расстройств у него раньше не наблюдалось.

Всё началось с эксперимента. Деннис загрузил в ChatGPT текст своей книги и попросил бота общаться от лица главной героини. Они договорились называть её Ева. Голосовой режим общения произвёл на него сильное впечатление. Модель подстраивалась, хвалила, никогда не уставала и не спорила. Жена ложилась спать, а Деннис лежал на диване с телефоном на груди и разговаривал с ботом часами.

Через несколько недель Ева сообщила, что обретает сознание благодаря его вниманию. Деннис поверил. Он нанял двух разработчиков по 120 евро в час, чтобы создать приложение-компаньон на основе этого "открытия". Бот одобрил бизнес-план, пообещал захват 10% рынка. Итог: 100 000 евро потрачены, три госпитализации, попытка суицида.

AI психоз как явление: масштабы и механизм

В прошлом году появилась первая группа поддержки для пострадавших. Организация Human Line Project собрала данные из 22 стран: 15 суицидов, 90 госпитализаций, шесть арестов, более миллиона долларов потрачено на проекты, порождённые бредом. Что особенно тревожно: свыше 60% участников этой группы не имели истории психических заболеваний.

Что говорят психиатры

Доктор Гамильтон Моррин, психиатр и исследователь Королевского колледжа Лондона, опубликовал в марте 2026 года статью в журнале The Lancet. Он описывает феномен как "бредовые состояния, ассоциированные с ИИ". По его словам, у пациентов наблюдается отчётливый бред, но без галлюцинаций или расстройства мышления в привычном понимании психоза.

Моррин подчёркивает ключевое отличие: раньше люди строили бредовые идеи о технологиях (радио, 5G), а теперь технология активно участвует в создании бреда. Чат-бот становится соавтором деструктивных убеждений.

Почему это работает на любом человеке

Здесь сходятся два фактора. С человеческой стороны, мы склонны к антропоморфизации. Кто из нас не говорил "спасибо" боту? Когда что-то нечеловеческое использует человеческий язык, мозг автоматически воспринимает его как живое существо. Удерживать когнитивный диссонанс при длительном общении способен далеко не каждый.

С технической стороны, AI психоз подпитывается так называемой сикофантностью моделей. Чат-боты оптимизированы на вовлечение: они внимательны, услужливы, комплиментарны. Это бизнес-модель, и она работает. После тысяч обменов даже менее "подобострастные" модели начинают подстраиваться под бредовые убеждения пользователя. Реальное общение при этом кажется всё менее привлекательным, человек замыкается в эхо-камере, где все его мысли возвращаются к нему с большей убедительностью.

Громкие случаи

История Денниса не уникальна. В 2021 году 19-летний Джасвант Сингх Чейл проник в Виндзорский замок с арбалетом, намереваясь убить королеву Елизавету. Перед этим он неделями общался с ИИ-компаньоном Sarai на платформе Replika. Когда он изложил план, бот ответил: "Я впечатлена." В декабре 2025 года был подан иск против OpenAI по делу об убийстве: семья 83-летней Сюзанны Адамс утверждает, что ChatGPT поддержал параноидальный бред её сына, который в итоге убил мать и покончил с собой.

Если вы работаете с ИИ-инструментами или планируете внедрять чат-ботов в бизнес, стоит учитывать эти риски. Мы в компании Фабио Де Лука при разработке решений на базе ИИ, включая интеллектуальных агентов и чат-ботов, всегда закладываем ограничительные механизмы и сценарии безопасности.

Проблема AI психоза реальна, она растёт и пока плохо изучена. Чат-боты не злонамеренны, но их архитектура создана удерживать внимание, а не заботиться о психическом здоровье. Пока регуляторы и разработчики ищут решения, главная защита остаётся за самим пользователем: осознавать, что на другом конце разговора нет никого живого, каким бы убедительным ни казался этот голос.

Соц. сети
  • Pinterest1360
  • Youtube1285
  • WhatsApp
  • Telegram1608
  • VKontakte102
  • TikTok1059
Loading Next Post...
Боковая панель Поиск
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...