Открытая разработка программного обеспечения — это, пожалуй, одна из самых благородных идей в индустрии. Люди добровольно вносят вклад в общий проект, исправляют ошибки, добавляют функции. Но с приходом генеративных языковых моделей эта идиллия столкнулась с серьёзной проблемой. Реми Вершельде, один из ключевых мейнтейнеров репозитория Godot на GitHub и сооснователь W4 Games, в своём посте на Bluesky от 17 февраля 2026 года описал ситуацию, которая знакома уже многим open-source проектам.
По словам Вершельде, Godot AI код стал настоящей головной болью для команды. Каждый день мейнтейнеры вынуждены разбирать десятки PR от новых контрибьюторов, и всё чаще возникает один и тот же вопрос: это написал человек или языковая модель?
«Мы вынуждены подвергать сомнению каждый PR от новых участников по несколько раз в день», — написал Вершельде. — «Описание — многословный вывод LLM. Код хотя бы частично написан человеком? Автор понимает, что он отправляет? Тестировал ли он это? Не выдуманы ли результаты тестов?»
Проблема не ограничивается только выявлением сгенерированного кода. Даже когда подозрение подтверждается, начинается цепочка неудобных ситуаций. Стоит спросить автора, использовал ли он ИИ, и типичный ответ: «Да, но только для описания PR, потому что плохо владею английским». Где здесь проходит граница между честной ошибкой неопытного разработчика и откровенной халтурой?
Godot гордится тем, что открыт для новых участников — любой пользователь движка может повлиять на его развитие. Мейнтейнеры тратят значительное время, помогая новичкам довести PR до состояния, пригодного для слияния. Но поток некачественных вкладов истощает эту готовность помогать. «Я не знаю, как долго мы сможем это выдерживать», — признался Вершельде.
Команда Godot обсуждает несколько вариантов. Один из них — автоматическое обнаружение сгенерированного контента. Но Вершельде назвал это «ужасно ироничным» — использовать ИИ для борьбы с ИИ, при этом подпитывая ту самую экосистему, которая создаёт проблему.
Рассматривается и переход на менее популярную платформу, где у пользователей будет меньше стимулов «фармить» репутацию разработчика через сгенерированные вклады. Но риск очевиден: легитимные контрибьюторы могут просто не последовать за проектом.
В январе 2026 года GitHub признал проблему растущего объёма низкокачественных вкладов. На прошлой неделе платформа предоставила мейнтейнерам возможность ограничивать pull requests только для коллабораторов или полностью их отключать. Учитывая, что GitHub принадлежит Microsoft — одному из крупнейших сторонников развития ИИ — вопрос о реальной мотивации платформы бороться с этим явлением остаётся открытым.
По мнению Вершельде, единственное надёжное решение — финансовая поддержка, позволяющая нанять больше мейнтейнеров для обработки потока некачественных PR.
Для тех, кто работает с ИИ-инструментами в разработке и автоматизации, ситуация вокруг Godot AI код — полезный сигнал. Генеративные модели вроде тех, что мы в Фабио Де Лука используем при создании автоматизаций, требуют осмысленного контроля. ИИ — мощный инструмент, но без человеческой экспертизы он легко превращается в источник проблем, а не решений.