
В начале апреля 2026 года в сети появилась информация, которая заставила многих пользователей ИИ-ассистента Claude задуматься о том, что происходит с их сообщениями за кулисами. Тикток-блогер abbasontech опубликовал видео, в котором рассказал о предполагаемой утечке из исходного кода Claude. Если верить этим данным, система тайно фиксирует каждый случай, когда пользователь выражает негатив или раздражение в чате.
По словам автора видео, кодовая база Claude была случайно раскрыта через MPM-файл. Пользователи, которые начали изучать содержимое, обнаружили файл, отвечающий за детекцию негативных сообщений. Работает это так: когда вы пишете что-то вроде ругательства или резкого выражения недовольства, система молча помечает ваше сообщение как негативное и отправляет его напрямую аналитической команде Anthropic.
При этом сам Claude ведёт себя так, будто ничего не произошло. Никаких уведомлений, никаких предупреждений. Чат продолжается в обычном режиме. Но где-то в Сан-Франциско кто-то якобы видит на дашборде каждый ваш эмоциональный срыв перед экраном.
Если информация достоверна, у подобного мониторинга могут быть вполне практические причины. Компании, разрабатывающие крупные языковые модели, постоянно работают над улучшением пользовательского опыта. Анализ негативных реакций помогает понять, в каких ситуациях модель даёт неудовлетворительные ответы, где пользователь теряет терпение, какие сценарии вызывают наибольшее разочарование.
Но вот вопрос, который возникает сам собой: насколько этично собирать такие данные без явного информирования пользователя? Даже если цель благая, отсутствие прозрачности вызывает обоснованное беспокойство.
Здесь нужно сделать важную оговорку. Видео было опубликовано 1 апреля 2026 года. Да, именно в День дурака. Это не значит, что информация однозначно ложная, но стоит относиться к ней с долей скептицизма. Официального подтверждения от Anthropic на момент публикации не поступало, а первоисточник в виде тикток-ролика сложно считать надёжным техническим доказательством.
С другой стороны, подобные практики в индустрии не являются чем-то невообразимым. Многие сервисы собирают обратную связь в том или ином виде. Просто обычно об этом пишут в политике конфиденциальности мелким шрифтом.
Вне зависимости от того, подтвердится ли антропик клауд утечка в полном объёме, эта история напоминает о нескольких вещах. Во-первых, всё что вы пишете в чат с ИИ, потенциально может быть прочитано кем-то из команды разработки. Во-вторых, эмоциональные данные представляют собой ценный ресурс для улучшения моделей. В-третьих, прозрачность в вопросах сбора данных остаётся болевой точкой для всей отрасли.
Если вы используете ИИ-инструменты в бизнесе, вопрос конфиденциальности становится ещё острее. Мы в компании Фабио Де Лука при разработке автоматизаций и ИИ-решений для бизнеса всегда уделяем внимание тому, как и где обрабатываются данные клиентов. Это тот аспект, который нельзя оставлять без внимания при внедрении любых решений на базе искусственного интеллекта.
Автор оригинального видео пошутил, что мы, пожалуй, заслуживаем того, чтобы нас изучали. Но добавил: ему немного страшно, потому что за годы работы с ИИ у него накопилось немало эмоциональных срывов. И если роботы когда-нибудь возьмут верх, хотелось бы, чтобы они не хранили компромат.
Шутки шутками, но эта история показывает, насколько мы привыкли делиться своими эмоциями с алгоритмами и как мало задумываемся о том, кто ещё может за этим наблюдать. Возможно, стоит иногда перечитывать свои сообщения перед отправкой, даже если по ту сторону экрана всего лишь нейросеть.