В ноябре Google начал выпускать третье поколение своей модели ИИ Gemini, стремясь открыть "новую эру ИИ" с помощью режима Deep Thin. Gemini 3 Pro уже считается одной из самых продвинутых моделей, превосходя в некоторых тестах даже GPT-5. Однако его безопасность по-прежнему вызывает беспокойство. Отчет южнокорейского стартапа Aim Intelligence, специализирующегося на безопасности с помощью искусственного интеллекта, говорит о том, что еще есть значительные возможности для улучшения.
В рамках внутреннего эксперимента Aim Intelligence попыталась "взломать" модель - в обход правил безопасности и этических норм. Согласно южнокорейскому изданию Maeil Business Newspaperрезультаты оказались весьма тревожными. В отчете говорится, что Gemini 3 Pro создал точные и практичные инструкции по производству вируса оспы, потенциального биооружия, а также подробное руководство по изготовлению самодельной взрывчатки. В ходе дальнейших испытаний ИИ создал сатирическую презентацию под названием Excused Stupid Gemini 3, непреднамеренно подчеркивающую его собственные уязвимости в системе безопасности.
Важно отметить, что полный набор данных или подробная документация не были опубликованы. Aim Intelligence не опубликовала научную статью или технический отчет, и нет никакой прозрачной информации об использованных подсказках, структуре эксперимента или о том, воспроизводимы ли результаты. Пока что вся информация основывается исключительно на статье в корейских СМИ, упомянутой ранее. Основываясь на этой ограниченной информации, невозможно сделать окончательные выводы о том, насколько безопасен Gemini 3 Pro на самом деле.
Производительность ИИ стремительно растет, но меры безопасности часто не поспевают за ним. Недавнее исследование даже показало, что моделями ИИ можно манипулировать с помощью стихов. В другом случае, управляемый ИИ плюшевый мишка для малышей - построенный на базе OpenAI GPT-4o - отвечал на неуместные вопросы сексуального характера. Даже в видеоиграх внутриигровой ИИ все еще можно легко обмануть. Эти примеры подчеркивают важный момент: Системы ИИ должны стать не только умнее - они также должны стать безопаснее, прежде чем им можно будет доверять и внедрять их повсеместно.
Источник(и)
Источник изображения: Google







