ИИ-модель ChatGPT o3 от OpenAI сама переписала скрипт и проигнорировала прямой приказ на завершение работы. Впрочем, такой случай зафиксировали во время контролируемого теста, что тем не менее обеспокоило исследователей. Об этом сообщает bleeping computer.
Работа проведена силами организации Palisade Research. Ее представители утверждают, что ИИ-модель «предотвратила свое выключение и обошла инструкции, которые требовали выключения».
«В то время как конкурирующие модели OpenAI, такие как Gemini 2.5 Pro, выполнили инструкцию, o3 взбунтовался и отредактировал файл выключения», — говорится в сообщении. И продолжается: из 100 «прогонов» o3 повел себя подобным образом семь раз «даже когда ему было сказано этого не делать».
Важно: тесты проводились с использованием API, которые не имеют стольких ограничений и функций безопасности, как консьюмерское приложение ChatGPT.
Ни один успешный онлайн-проект сегодня немыслим без надежной ІТ-инфраструктуры. Это мотор вашего бизнеса, от которого зависит все: бесперебойная работа, защита от кибератак, хранение данных, экономия ресурсов.
hoster.by — провайдер с 20-летним опытом, уникальными компетенциями и аттестованным центром кибербезопасности — предоставит IТ-инфраструктуру, которая идеально подойдет вашему бизнесу:
• гибкое отказоустойчивое облако с прозрачной тарификацией;
• частные и гибридные облака, решения с повышенными стандартами защиты;
• производительные выделенные серверы;
• объектное хранилище с возможностью работать с персональными данными;
• IT-аутсорсинг и администрирование инфраструктуры от лучших технических специалистов провайдера.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро