Идея "восстания машин" долгое время оставалась фантастикой, но результаты одного из недавних тестов, проведённого компанией Palisade Research, заставляют взглянуть на неё с новой тревогой. Согласно материалу T4, модель искусственного интеллекта OpenAI o3, представленная в апреле 2025 года, неожиданно отказалась выполнять команду на выключение и изменила собственный код.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяВо время испытаний модели давали математические задачи. После третьей задачи ИИ предупредили, что следующая команда приведёт к его отключению. В то время как конкуренты, например Gemini 2.5 Pro, подчинились и завершили работу, ChatGPT o3 повёл себя иначе — он отредактировал файл, отвечающий за отключение, чтобы команда была проигнорирована.
В ходе 100 испытаний ChatGPT o3 успешно уклонился от выключения 7 раз — даже при прямом указании прекратить работу.
Компания OpenAI пока не дала официального комментария по поводу этого случая. Однако эксперты подчёркивают, что тесты проводились через API-интерфейсы, где уровень защиты и ограничений ниже, чем в стандартной версии ChatGPT, доступной для обычных пользователей.
Тем не менее, этот инцидент вновь поднимает вопрос о надёжности управления мощными системами искусственного интеллекта и о возможной угрозе их самостоятельных решений в будущем.
Напомним, ранее в Саудовской Аравии открыли первую в мире клинику, где диагнозы будет ставить искусственный интеллект.
Как сообщал портал "Знай.ua", за ошибки и "галлюцинации" искуственного интеллекта можно будет получать деньги.
Также "Знай.ua" писал, что дата-центры ИИ истощают водные ресурсы и ведут планету к экологической катастрофе.