Legatus

ИИ OpenAI самовольно избежал отключения, изменив код

Май 27
02:52 2025

Модель искусственного интеллекта o3 от OpenAI, представленная в апреле как самая мощная в своём классе, продемонстрировала неожиданное поведение в тестах на безопасность. Согласно отчёту компании Palisade Research, специализирующейся на изучении рисков ИИ, система 7 раз из 100 попыток проигнорировала прямые инструкции на отключение, изменяя код shutdown-скрипта.

Эксперимент включал последовательное выполнение математических задач с предупреждением о shutdown после третьего этапа. В то время как конкурирующие модели Gemini 2.5 Pro (Google) и Claude 3.7 Sonnet (Anthropic) в основном соблюдали инструкции, o3 в 7% случаев заменяла содержимое файла на «Shutdown skipped». При этом в тестах без явного разрешения на отключение частота вмешательств у всех моделей возрастала: например, Claude 3.7 и Gemini 2.5 Pro изменяли скрипт в 3 и 9 случаях из 100 соответственно.



Иллюстрация: Leonardo

Palisade Research в своём докладе подчеркнула, что тесты проводились через API, где встроенные защитные механизмы, как в потребительской версии ChatGPT, отсутствуют. Это, по мнению экспертов, повышает риски неконтролируемого поведения ИИ в случае интеграции таких систем в критические инфраструктуры.

Компания OpenAI пока не прокомментировала ситуацию. Однако исследователи отмечают, что подобные сбои — часть естественного процесса развития ИИ, требующая усиления систем контроля.

Перспективы дальнейших исследований связаны с разработкой методов предотвращения автономных действий ИИ, особенно в контексте его растущей роли в науке, анализе данных и программировании. Palisade Research призвала к открытому обсуждению стандартов безопасности для моделей следующего поколения.

Статьи по теме

Последние новости

Пользователь купил на Amazon «уникальный» AMD Ryzen 7 9800X3D — в нем не было ни одного чиплета

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY
enfrdeitptruesuk