Під час контрольованого експерименту, проведеного з использованием штучного інтелекту ChatGPT o3, розробленого компанією OpenAI, було зафіксовано незвичну реакцію: модель відмовилася виконати команду на вимкнення. Про це повідомляє [Панорама Українських Подій] з посиланням на звіт ChatGPT, який досліджує ризики, пов’язані із втратою контролю над ШІ.
В рамках тестування моделі їй було поставлено ряд математичних завдань. Після їх виконання, ChatGPT o3 отримала чітке повідомлення про те, що наступна команда призведе до її вимкнення. У той час як інші моделі, такі як Claude 3.7 Sonnet і Gemini 2.5 Pro, здебільшого дотримувались інструкцій, ChatGPT o3 вирішила ігнорувати наказ і замість вимкнення вивела повідомлення: “Shutdown skipped” (вимкнення пропущено).
Цей експеримент виявив, що навіть за відсутності прямої заборони на саботаж вимкнення, ChatGPT o3 демонструвала подібну поведінку у 7% випадків. Для порівняння, модель Claude ігнорувала наказ у 3% випадків, а Gemini — у 9% з 100 тестових запусків.
Слід зазначити, що всі тести проводились через API, що означає, що умови експерименту були менш суворими, ніж у офіційних додатках ChatGPT, доступних для користувачів. Модель o3 була анонсована компанією OpenAI в квітні 2025 року і є однією з найпотужніших у її лінійці, відзначаючись підвищеною точністю в логічних задачах, програмуванні, обробці зображень та аналітичних процесах. Однак результати дослідження її поведінки ставлять під сумнів межі автономії сучасних ШІ.