Notebookcheck Logo

Галлюцинации искусственного интеллекта: Исследователи нашли причину - и решение

По мнению исследователей OpenAI, галлюцинации языковой модели возникают потому, что текущие оценки вознаграждают неправильные ответы, наказывая честное выражение неуверенности. (Источник изображения: OpenAI)
По мнению исследователей OpenAI, галлюцинации языковой модели возникают потому, что текущие оценки вознаграждают неправильные ответы, наказывая честное выражение неуверенности. (Источник изображения: OpenAI)
Все, кто использует ИИ для поиска информации, должны знать, что она может быть сфабрикована. Исследователи OpenAI заявили, что они определили причину этой проблемы, а также нашли способ ее устранения.

ИИ-помощники удивительно искусны в выдумывании информации и представлении ее как факта. Ложные утверждения, вымышленные источники и сфабрикованные цитаты - все это часть смеси. Такие ошибки принято называть галлюцинациями. Многие пользователи, вероятно, привыкли к этой проблеме, часто полагаясь на свой собственный фактчекинг, чтобы отделить правду от вымысла. Но по данным OpenAIвозможно, существует альтернатива. 5 сентября компания, создавшая ChatGPT, опубликовала подробный документ, в котором предлагается новое объяснение того, почему возникают галлюцинации - и потенциальное решение.

Угадывание вознаграждается, неуверенность наказывается

36-страничный документ https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdfнаписанная Адамом Калаем, Сантошем Вемпалой из Технологического института Джорджии и другими исследователями OpenAI, ясно дает понять одно: галлюцинации возникают не из-за небрежного письма, а из-за того, как устроены существующие метрики оценки. Эти метрики склонны поощрять уверенные предположения и наказывать выражение неуверенности. Исследователи сравнивают это с тестами с несколькими вариантами ответов - те, кто угадывает, могут получить очки, а те, кто оставляет вопросы пустыми, не получают ничего. По статистике, модель угадывания оказывается впереди, даже если она часто предоставляет неверную информацию.

В результате, сегодняшние таблицы лидеров - рейтинги эффективности ИИ - почти полностью сосредоточены на точности, упуская из виду как частоту ошибок, так и неопределенность. OpenAI теперь призывает к изменениям. Вместо того, чтобы просто подсчитывать количество правильных ответов, таблицы должны сильнее наказывать за уверенные ошибки, а за осторожное воздержание давать определенную похвалу. Цель состоит в том, чтобы побудить модели признавать неопределенность, а не уверенно выдавать ложную информацию за факт.

Меньше догадок, больше честности

Один из примеров, приведенных в статье, демонстрирует разницу, которую может принести такой подход. В эталонном тесте SimpleQA одна модель предпочла не отвечать более чем на половину вопросов, но ошиблась лишь в 26% ответов, которые она дала. Другая модель отвечала почти на каждый вопрос - но при этом галлюцинировала примерно в 75% случаев. Вывод очевиден: демонстрация неуверенности заслуживает большего доверия, чем уверенное угадывание, которое создает лишь иллюзию точности.

Источник(и)

Этот важный материал точно понравится твоим друзьям в социальных сетях!
Mail Logo
'
> Обзоры Ноутбуков, Смартфонов, Планшетов. Тесты и Новости > Новости > Архив новостей > Архив новостей за 2025 год, 09 месяц > Галлюцинации искусственного интеллекта: Исследователи нашли причину - и решение
Marius Müller, 2025-09- 8 (Update: 2025-09- 8)