Исследователи предупреждают о роях ИИ, создающих фальшивое общественное мнение

Представьте себе мир, в котором большая группа людей может обсуждать определенную тему, вызывая ее тренд в Интернете. Или мир, в котором эти люди могут навязывать публичным деятелям свою точку зрения или даже распространять дезинформацию. А теперь представьте мир, в котором "люди" - это профили, управляемые искусственным интеллектом, действующие в унисон и имитирующие уникальные человеческие голоса.
Именно об этой опасности предупреждают нас ученые из множества институтов по всему миру в недавней публикации в журнале Science.
Международная исследовательская группа подробно описала, как объединение больших языковых моделей (LLM) с мультиагентными системами позволяет создавать вредоносные рои ИИ. В отличие от традиционных, легко идентифицируемых ботов, эти продвинутые рои состоят из управляемых ИИ персон, которые сохраняют постоянную личность, память и согласованные цели. Они могут динамически адаптировать свой тон и содержание в зависимости от взаимодействия с человеком, работая с минимальным надзором на различных платформах.
Основная угроза, исходящая от этих сетей, - это создание "синтетического консенсуса" Наводняя цифровое пространство сфабрикованными, но очень убедительными разговорами, эти рои создают ложную иллюзию того, что определенная точка зрения является общепринятой. Исследователи отмечают, что это явление ставит под угрозу основы демократического дискурса, поскольку один злоумышленник может маскироваться под тысячи независимых мнений.
Такое постоянное влияние не ограничивается лишь изменением временных мнений; оно может коренным образом изменить язык, символы и культурную идентичность сообщества. Более того, этот скоординированный результат угрожает загрязнить обучающие данные обычных моделей искусственного интеллекта, распространяя манипуляции на уже существующие платформы ИИ.
Чтобы противостоять этой развивающейся угрозе, эксперты утверждают, что традиционная модерация контента от поста к посту уже неэффективна. Механизмы защиты должны быть направлены на выявление статистически маловероятной координации и отслеживание происхождения контента. Исследователи также подчеркивают необходимость применения поведенческих наук для изучения коллективных действий агентов ИИ, когда они взаимодействуют в больших группах. Предлагаемые решения включают в себя внедрение методов проверки, сохраняющих конфиденциальность, обмен доказательствами через распределенную обсерваторию влияния ИИ, а также ограничение финансовых стимулов, которые побуждают к неаутентичному взаимодействию.
Источник(и)
Наука через Tech Xplore

