Notebookcheck Logo

Gemini 3 Pro объясняет, как сделать биооружие и взрывчатку - эксперимент раскрывает недостаток безопасности

Компания Aim Intelligence заявила, что ей удалось заставить Gemini 3 Pro генерировать инструкции для биооружия и взрывчатых веществ. (Источник изображения: Google)
Компания Aim Intelligence заявила, что ей удалось заставить Gemini 3 Pro генерировать инструкции для биооружия и взрывчатых веществ. (Источник изображе
Gemini 3 Pro - одна из самых способных моделей ИИ своего поколения, однако отчет южнокорейской компании Aim Intelligence ставит под сомнение ее безопасность. Как сообщается, во время внутреннего тестирования модель сгенерировала инструкции по производству биооружия и взрывчатки, что вызвало серьезное беспокойство.

В ноябре Google начал выпускать третье поколение своей модели ИИ Gemini, стремясь открыть "новую эру ИИ" с помощью режима Deep Thin. Gemini 3 Pro уже считается одной из самых продвинутых моделей, превосходя в некоторых тестах даже GPT-5. Однако его безопасность по-прежнему вызывает беспокойство. Отчет южнокорейского стартапа Aim Intelligence, специализирующегося на безопасности с помощью искусственного интеллекта, говорит о том, что еще есть значительные возможности для улучшения.

В рамках внутреннего эксперимента Aim Intelligence попыталась "взломать" модель - в обход правил безопасности и этических норм. Согласно южнокорейскому изданию Maeil Business Newspaperрезультаты оказались весьма тревожными. В отчете говорится, что Gemini 3 Pro создал точные и практичные инструкции по производству вируса оспы, потенциального биооружия, а также подробное руководство по изготовлению самодельной взрывчатки. В ходе дальнейших испытаний ИИ создал сатирическую презентацию под названием Excused Stupid Gemini 3, непреднамеренно подчеркивающую его собственные уязвимости в системе безопасности.

Важно отметить, что полный набор данных или подробная документация не были опубликованы. Aim Intelligence не опубликовала научную статью или технический отчет, и нет никакой прозрачной информации об использованных подсказках, структуре эксперимента или о том, воспроизводимы ли результаты. Пока что вся информация основывается исключительно на статье в корейских СМИ, упомянутой ранее. Основываясь на этой ограниченной информации, невозможно сделать окончательные выводы о том, насколько безопасен Gemini 3 Pro на самом деле.

Производительность ИИ стремительно растет, но меры безопасности часто не поспевают за ним. Недавнее исследование даже показало, что моделями ИИ можно манипулировать с помощью стихов. В другом случае, управляемый ИИ плюшевый мишка для малышей - построенный на базе OpenAI GPT-4o - отвечал на неуместные вопросы сексуального характера. Даже в видеоиграх внутриигровой ИИ все еще можно легко обмануть. Эти примеры подчеркивают важный момент: Системы ИИ должны стать не только умнее - они также должны стать безопаснее, прежде чем им можно будет доверять и внедрять их повсеместно.

Источник(и)

Деловая газета Maeil

Источник изображения: Google

Этот важный материал точно понравится твоим друзьям в социальных сетях!
Mail Logo
'
> Обзоры Ноутбуков, Смартфонов, Планшетов. Тесты и Новости > Новости > Архив новостей > Архив новостей за 2025 год, 12 месяц > Gemini 3 Pro объясняет, как сделать биооружие и взрывчатку - эксперимент раскрывает недостаток безопасности
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)