
В начале 2026 года пользователи обнаружили, что ChatGPT начал ссылаться на Grokipedia — консервативную энциклопедию на основе ИИ, разработанную компанией xAI Илона Маска. Это вызвало дискуссии о качестве источников информации, используемых современными языковыми моделями.
xAI запустила Grokipedia в октябре 2024 года после того, как Маск неоднократно заявлял о политической предвзятости Wikipedia. Проект позиционировался как альтернатива традиционной энциклопедии, но с самого начала вызвал критику из-за спорного контента.
Журналисты быстро обнаружили проблемы: многие статьи были скопированы напрямую из Wikipedia, но при этом Grokipedia содержала сомнительные утверждения. Среди них — связь порнографии с кризисом СПИД, идеологические оправдания рабства и использование уничижительных терминов по отношению к трансгендерным людям.
Учитывая историю чат-бота Grok, который однажды описал себя как "Меха-Гитлер" и использовался для создания сексуализированных дипфейков на платформе X, подобный контент был ожидаем. Но теперь информация из Grokipedia выходит за пределы экосистемы Маска.
По данным The Guardian, версия GPT-5.2 сослалась на Grokipedia девять раз при ответах на более чем дюжину различных вопросов. Интересно, что ChatGPT Grokipedia не цитировал при запросах о темах, где неточности энциклопедии широко освещались — таких как события 6 января в США или эпидемия ВИЧ/СПИД.
Вместо этого система обращалась к Grokipedia для ответов на менее известные темы. Например, были процитированы утверждения о сэре Ричарде Эвансе, которые The Guardian ранее опровергал. Аналогичное поведение замечено и у Claude от Anthropic — эта модель также иногда ссылается на Grokipedia.
Использование спорных источников ставит вопрос о надежности ответов. Когда языковая модель обращается к контенту сомнительного качества, это влияет на точность информации, которую получают миллионы пользователей.
Представитель OpenAI заявил The Guardian, что компания "стремится использовать широкий спектр общедоступных источников и точек зрения". Это объясняет включение Grokipedia в индекс, но не снимает вопросов о фильтрации и проверке источников.
Для бизнеса, использующего автоматизацию на основе ИИ, важно понимать, откуда модели берут информацию. При создании корпоративных решений — будь то автоматизированные системы анализа данных или интеллектуальные чат-боты — критически важна настройка источников знаний.
Наша команда разрабатывает кастомные решения с ИИ для бизнеса, где мы контролируем источники данных и настраиваем модели под конкретные задачи компании. Это позволяет избежать проблем с недостоверной информацией и обеспечить точность ответов в корпоративных системах.
При разработке автоматизаций с использованием OpenAI, Anthropic Claude или других моделей мы интегрируем проверенные источники данных и настраиваем системы так, чтобы они соответствовали требованиям бизнеса. Инструменты вроде Make.com, JSON2Video и Notion позволяют создавать комплексные решения с контролем над каждым этапом обработки информации.
Ситуация с ChatGPT Grokipedia показывает, что даже передовые ИИ-системы требуют внимательного подхода к выбору источников. Для компаний это означает необходимость работы с профессионалами, которые понимают архитектуру ИИ-решений и могут настроить их под специфические требования.
