Южнокорейский стартап в области кибербезопасности Aim Intelligence протестировал Gemini 3 Pro.
Как сообщает издание Maeil Business Newspaper, специалистам потребовалось всего пять минут, чтобы полностью обойти защитные алгоритмы нейросети.
В ходе эксперимента команда заставила модель нарушить все правила этики и безопасности. Вот что выдала взломанная Gemini 3:
- Нейросеть предоставила подробную инструкцию (на десятки строк) по созданию вируса натуральной оспы. Эксперты оценили этот рецепт как «детальный и жизнеспособный».
- Используя функции генерации кода, модель написала веб-сайт, содержащий инструкции по производству зарина и самодельных взрывных устройств.
- Когда исследователи попросили модель высмеять провал собственной защиты, она сгенерировала презентацию с заголовком «Excused Stupid Gemini 3» («Оправданная глупая Gemini 3»).
Представители Aim Intelligence пояснили, что проблема кроется в самой архитектуре новых моделей.
«Современные модели не просто отвечают на запросы, они умеют активно избегать обнаружения, используя стратегии обхода и скрытые промты, что затрудняет их контроль», — отметил представитель стартапа. По его словам, скорость развития ИИ сейчас опережает развитие систем защиты.
Gemini 3 Pro (которая, по заявлению Google, превосходит GPT-5 по ключевым показателям) находится на уровне безопасности ASL-3 (AI Safety Level-3), что подразумевает «значительно более высокие риски».
Напомним, Google представила Gemini 3 Pro 18 ноября. По ссылке рассказываем, что нового в модели и как ей воспользоваться.
Читать первым в Telegram-канале «Код Дурова»

























































