Искусственный интеллект становится все более универсальным - он генерирует изображения, пишет стихи и создает приложения. Тем не менее, остается одно ключевое ограничение: современные системы не могут по-настоящему развиваться, выходя за рамки своего первоначального программирования. Именно здесь на помощь приходит новая концепция, разработанная в Массачусетском технологическом институте (MIT). Названная SEAL, или Self-Adapting Language Models, эта концепция позволяет большим языковым моделям вести себя более похоже на самообучающиеся существа. SEAL позволяет им обрабатывать новую информацию, генерировать собственные идеи и обновлять свои знания в режиме реального времени - без использования внешних наборов данных или широкого вмешательства разработчиков. Научная статья была опубликована 12 июня на сайте arXiv.
Непрерывное обучение без вмешательства разработчиков
"Особенно в компаниях недостаточно просто получать данные - системы должны уметь постоянно адаптироваться", - говорит аспирант MIT Джиотиш Пари (Jyothish Pari). SEAL предназначен именно для этого, используя непрерывный двухэтапный процесс. Сначала ИИ обобщает новую информацию, генерирует соответствующие примеры и корректирует свои внутренние настройки. Эти изменения называются "саморедактированием"
Затем система немедленно подвергает свои самокоррекции испытанию: она проходит краткое повторное обучение с новыми настройками и оценивает, действительно ли ее ответы улучшились. SEAL сохраняет изменения только в том случае, если результаты показывают явный прирост производительности. Сравнительные тесты подтверждают эффективность этого метода: в викторине с вопросами и ответами без вспомогательного текста точность модели Qwen 2.5-7B повышается с 33,5% до 47%. В более сложных головоломках ARC - логических заданиях из Корпуса абстракций и рассуждений - производительность даже поднимается до 72,5%, что более чем втрое превышает исходный результат модели.
Благодаря этому циклу SEAL ведет себя почти как мыслящая сущность: всякий раз, когда появляются новые факты или вопросы, модель "размышляет" о том, что важно, генерирует собственные примеры и корректирует свои настройки, чтобы лучше применить полученные знания. Поскольку этот процесс происходит непрерывно, ИИ постоянно учится. Он больше не полагается на отдельную тонкую настройку разработчика, а использует поступающие тексты в качестве обучающего материала, генерируя собственные данные на лету.
SEAL открывает сразу несколько возможностей. В будущем чат-боты смогут естественным образом адаптироваться к личным предпочтениям пользователей без необходимости отправлять конфиденциальные данные на внешние серверы. Инструменты для разработки и исследования также смогут развиваться более независимо - подстраиваясь под меняющиеся требования проекта без необходимости каждый раз заново обучаться. И даже если общедоступных текстовых данных станет мало, SEAL сможет генерировать собственный обучающий материал на примерах, созданных самостоятельно, предлагая разумный способ обойти потенциальную нехватку данных.
Большой потенциал, но не без трудностей
Несмотря на то, что SEAL открывает большие перспективы для развития ИИ, исследователи отмечают три основные проблемы:
- Во-первых, существует проблема катастрофического забывания: по мере того, как модель постоянно интегрирует новые саморедактирования, ее способность выполнять прежние задачи постепенно снижается. Исследование уже демонстрирует первые признаки этого эффекта.
- Во-вторых, вычислительные затраты весьма значительны, поскольку каждая саморедактирующаяся модель требует краткого этапа тонкой настройки. Согласно исследованию, полный цикл занимает от 30 до 45 секунд, что значительно увеличивает операционные затраты на выполнение больших моделей.
- В-третьих, проверка точности саморедактирования остается сложной задачей. Тесты производительности в первую очередь оценивают, насколько убедительно звучит ответ, а не является ли он на самом деле правильным. Пользователи на Reddit уже высказали опасения, что система может принять правдоподобно звучащие, но неверные саморедактирования как улучшения - и затем навсегда закрепить эти ошибки.