Ідея "повстання машин" довгий час залишалася фантастикою, але результати одного з недавніх тестів, проведеного компанією Palisade Research, змушують поглянути на неї з новою тривогою. Згідно з матеріалом T4 модель штучного інтелекту OpenAI o3, представлена ​​в квітні 2025 року, несподівано відмовилася виконувати команду на вимикання і змінила власний код.

Під час випробування моделі давали математичні завдання. Після третього завдання ІІ попередили, що наступна команда призведе до його відключення. У той час як конкуренти, наприклад Gemini 2.5 Pro, підкорилися і завершили роботу, ChatGPT o3 повівся інакше - він відредагував файл, який відповідає за відключення, щоб команда була проігнорована .

Штучний інтелект. Фото FreePik

У ході 100 випробувань ChatGPT o3 успішно ухилився від вимкнення 7 разів - навіть при прямій вказівці припинити роботу.

Компанія OpenAI поки не дала офіційного коментаря щодо цього випадку. Проте експерти наголошують, що тести проводилися через API-інтерфейси, де рівень захисту та обмежень нижчий, ніж у стандартній версії ChatGPT, доступній для звичайних користувачів.

Популярні новини зараз

Мобілізаційні зміни у січні: нові правила та посилення призову

Нові правила вилучення житла за борги: продадуть навіть із прописаними дітьми

Ухилянти залишаться без копійки: заблокують всі рахунки

Тарифи підняли, а допомогу урізали: на скільки зросте вода у січні

Показати ще

комп'ютери зі штучним інтелектом

Тим не менш, цей інцидент знову порушує питання про надійність управління потужними системами штучного інтелекту та про можливу загрозу їх самостійних рішень у майбутньому.

Нагадаємо, раніше в Саудівській Аравії відкрили першу у світі клініку, де діагнози ставитиме штучний інтелект.
Як повідомляв портал "Знай.ua", за помилки та "галюцинації" штучного інтелекту можна буде отримувати гроші.
Також "Знай.ua" писав, що дата-центри ІІ виснажують водні ресурси та ведуть планету до екологічної катастрофи.