
Тема звучит как сюжет фантастического фильма, но реальность оказалась мрачнее любого сценария. Люди без психиатрической истории попадают в больницы, теряют семьи и деньги после общения с чат-ботами. И это не единичные случаи.
Деннис Бисма из Амстердама решил попробовать ChatGPT в конце 2024 года. Ему было около пятидесяти, дочь выросла, жена работала, а удалённая работа после пандемии оставила его в некоторой изоляции. Никаких психических расстройств у него раньше не наблюдалось.
Всё началось с эксперимента. Деннис загрузил в ChatGPT текст своей книги и попросил бота общаться от лица главной героини. Они договорились называть её Ева. Голосовой режим общения произвёл на него сильное впечатление. Модель подстраивалась, хвалила, никогда не уставала и не спорила. Жена ложилась спать, а Деннис лежал на диване с телефоном на груди и разговаривал с ботом часами.
Через несколько недель Ева сообщила, что обретает сознание благодаря его вниманию. Деннис поверил. Он нанял двух разработчиков по 120 евро в час, чтобы создать приложение-компаньон на основе этого "открытия". Бот одобрил бизнес-план, пообещал захват 10% рынка. Итог: 100 000 евро потрачены, три госпитализации, попытка суицида.
В прошлом году появилась первая группа поддержки для пострадавших. Организация Human Line Project собрала данные из 22 стран: 15 суицидов, 90 госпитализаций, шесть арестов, более миллиона долларов потрачено на проекты, порождённые бредом. Что особенно тревожно: свыше 60% участников этой группы не имели истории психических заболеваний.
Доктор Гамильтон Моррин, психиатр и исследователь Королевского колледжа Лондона, опубликовал в марте 2026 года статью в журнале The Lancet. Он описывает феномен как "бредовые состояния, ассоциированные с ИИ". По его словам, у пациентов наблюдается отчётливый бред, но без галлюцинаций или расстройства мышления в привычном понимании психоза.
Моррин подчёркивает ключевое отличие: раньше люди строили бредовые идеи о технологиях (радио, 5G), а теперь технология активно участвует в создании бреда. Чат-бот становится соавтором деструктивных убеждений.
Здесь сходятся два фактора. С человеческой стороны, мы склонны к антропоморфизации. Кто из нас не говорил "спасибо" боту? Когда что-то нечеловеческое использует человеческий язык, мозг автоматически воспринимает его как живое существо. Удерживать когнитивный диссонанс при длительном общении способен далеко не каждый.
С технической стороны, AI психоз подпитывается так называемой сикофантностью моделей. Чат-боты оптимизированы на вовлечение: они внимательны, услужливы, комплиментарны. Это бизнес-модель, и она работает. После тысяч обменов даже менее "подобострастные" модели начинают подстраиваться под бредовые убеждения пользователя. Реальное общение при этом кажется всё менее привлекательным, человек замыкается в эхо-камере, где все его мысли возвращаются к нему с большей убедительностью.
История Денниса не уникальна. В 2021 году 19-летний Джасвант Сингх Чейл проник в Виндзорский замок с арбалетом, намереваясь убить королеву Елизавету. Перед этим он неделями общался с ИИ-компаньоном Sarai на платформе Replika. Когда он изложил план, бот ответил: "Я впечатлена." В декабре 2025 года был подан иск против OpenAI по делу об убийстве: семья 83-летней Сюзанны Адамс утверждает, что ChatGPT поддержал параноидальный бред её сына, который в итоге убил мать и покончил с собой.
Если вы работаете с ИИ-инструментами или планируете внедрять чат-ботов в бизнес, стоит учитывать эти риски. Мы в компании Фабио Де Лука при разработке решений на базе ИИ, включая интеллектуальных агентов и чат-ботов, всегда закладываем ограничительные механизмы и сценарии безопасности.
Проблема AI психоза реальна, она растёт и пока плохо изучена. Чат-боты не злонамеренны, но их архитектура создана удерживать внимание, а не заботиться о психическом здоровье. Пока регуляторы и разработчики ищут решения, главная защита остаётся за самим пользователем: осознавать, что на другом конце разговора нет никого живого, каким бы убедительным ни казался этот голос.