Ідея "повстання машин" довгий час залишалася фантастикою, але результати одного з недавніх тестів, проведеного компанією Palisade Research, змушують поглянути на неї з новою тривогою. Згідно з матеріалом T4 модель штучного інтелекту OpenAI o3, представлена в квітні 2025 року, несподівано відмовилася виконувати команду на вимикання і змінила власний код.
Підпишись на наш Viber: новини, гумор та розваги!
ПідписатисяПід час випробування моделі давали математичні завдання. Після третього завдання ІІ попередили, що наступна команда призведе до його відключення. У той час як конкуренти, наприклад Gemini 2.5 Pro, підкорилися і завершили роботу, ChatGPT o3 повівся інакше - він відредагував файл, який відповідає за відключення, щоб команда була проігнорована .
У ході 100 випробувань ChatGPT o3 успішно ухилився від вимкнення 7 разів - навіть при прямій вказівці припинити роботу.
Компанія OpenAI поки не дала офіційного коментаря щодо цього випадку. Проте експерти наголошують, що тести проводилися через API-інтерфейси, де рівень захисту та обмежень нижчий, ніж у стандартній версії ChatGPT, доступній для звичайних користувачів.
Тим не менш, цей інцидент знову порушує питання про надійність управління потужними системами штучного інтелекту та про можливу загрозу їх самостійних рішень у майбутньому.
Нагадаємо, раніше в Саудівській Аравії відкрили першу у світі клініку, де діагнози ставитиме штучний інтелект.
Як повідомляв портал "Знай.ua", за помилки та "галюцинації" штучного інтелекту можна буде отримувати гроші.
Також "Знай.ua" писав, що дата-центри ІІ виснажують водні ресурси та ведуть планету до екологічної катастрофи.