Согласно недавнему отчету, опубликованному на сайте The Guardianпоследняя модель ChatGPT все чаще использует для ответов на вопросы онлайн-энциклопедию Элона Маска Grokipedia. В рамках расследования ИИ ссылался на эту платформу при ответе на различные темы, такие как политические структуры в Иране, а также биографические сведения об исторических личностях.
Такое развитие событий вызывает опасения по поводу качества информации, предоставляемой ChatGPT. Точнее говоря, эти данные не проходят тех же процессов проверки, что и источники, которые поддерживаются редакционными группами или большим сообществом.
Грокипедия была создана Элоном Маском (Elon Musk) в качестве конкурента существующей Википедии. Хотя Маск обвиняет Википедию в левом уклоне и утверждает, что его проект стремится к правде и нейтральности, критики часто видят в Грокипедии противоположную крайность. Они утверждают, что платформа иногда представляет материалы с политически правой точки зрения или рассматривает спорные темы в одностороннем ключе.
В отличие от записей в Википедии, которые курируются реальными людьми, тексты в Грокипедии генерируются в основном собственной моделью искусственного интеллекта под названием Grok. Пользовательские правки не являются частью этой системы, поскольку их качество якобы проверяется сотрудниками xAI. Когда другие языковые модели, такие как GPT-5.2, используют эти сгенерированные машиной тексты в качестве фактического источника, возникает техническая петля обратной связи, в которой ИИ учатся друг у друга.
Это повышает риск так называемого сценария "мусор внутрь, мусор наружу". Если ИИ начнут использовать нефильтрованный материал от других ИИ в качестве основы для своих собственных ответов, ошибки или специфические предубеждения могут передаваться без какой-либо проверки. Расследование The Guardian уже показало, что ChatGPT ссылается на Грокипедию и повторяет утверждения, которые выходят за рамки общепринятых знаний или уже давно опровергнуты. Это иллюстрирует опасность того, что дезинформация выглядит более правдоподобной благодаря взаимному цитированию моделями ИИ, а пользователям становится все труднее распознать такую ложную информацию.
OpenAI уже отреагировал на этот отчет и подчеркнул, что веб-поиск модели старается отражать широкий спектр общедоступных источников и точек зрения. Представитель компании заявил, что для снижения риска отображения ссылок на контент с высоким потенциалом нанесения вреда предусмотрены защитные фильтры. Кроме того, в целях прозрачности ChatGPT снабжает ответы ссылками и источниками. Компания также упомянула о текущих программах, призванных отсеять источники с низким уровнем доверия.








