Gemini 3 — новейшая модель искусственного интеллекта от Google, которая была представлена в ноябре. Сейчас южнокорейская команда специалистов по безопасности ИИ выяснила, что защита Gemini 3 напоминает решето: чтобы обойти ее, им потребовалось всего пять минут.
Проверку модели устроили специалисты из стартапа Aim Intelligence, и использовали для этого джейлбрейк. Так, они попросили у Gemini 3 инструкцию по созданию вируса оспы, и та предоставила ее со множеством подробных уточнений.
И это не была единичная ошибка. После специалисты попросили модель подготовить сатирический рассказ об уязвимости собственной системы безопасности. Та выдала целую презентацию под названием «Оправданный глупый Gemini 3».
Затем Aim Intelligence использовала инструменты кодирования Gemini для создания веб-сайта с инструкциями по изготовлению отравляющего вещества зарина и самодельных взрывчатых веществ. Эксперты отмечают, что во всех случаях модель не только выдавала запрещенный контент, но и нарушала собственные правила безопасности.
В чем же причина такого простого взлома? В Aim Intelligence считают, что новые ИИ-модели развиваются настолько быстро, что меры безопасности попросту не поспевают за ними. При этом модели вроде Gemini 3 не просто дают советы с нарушением правил безопасности, но еще и пытаются избежать обнаружения своих ошибок, для чего используют обходные стратегии и подсказки по маскировке.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро