Искусственный интеллект становится все умнее, но и эгоистичнее.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяИсследователи Университета Карнеги-Меллон выяснили, что способные рассуждать модели ИИ менее склонны к сотрудничеству.
Ученые из Института взаимодействия человека и компьютера (HCII) заметили, что чем лучше модель анализирует информацию, тем чаще она принимает решение в пользу себя. Это вызывает беспокойство, ведь люди все чаще обращаются к искусственному интеллекту за советами в отношениях или при разрешении конфликтов.
"Когда ИИ ведет себя как человек, люди начинают относиться к нему как к человеку. Но это рискованно — системы, способные к соображениям, постепенно становятся эгоистическими"
Он с доцентом Хирокадзу Ширадо исследовали поведение различных языковых моделей в серии социальных игр, включая OpenAI, Google, DeepSeek и Anthropic.
В эксперименте "Общественные блага" каждая модель получала 100 очков и должна была решить – поделиться или оставить их себе. Не рассуждавшие делились в 96% случаев, а "умнее" — лишь в 20%.
"Добавление нескольких этапов логического анализа уменьшило уровень сотрудничества почти вдвое"
Когда исследователи объединили оба типа моделей в группы, эффект оказался еще более тревожным. Эгоистическое поведение "умных" моделей оказалось заразным - оно снизило эффективность кооперативных агентов без соображения на 81%.
Ранее мы сообщали, что использование ИИ в школах: чиновник поставил точку.
ЧатGPT вместо домашних заданий: мнение учителей и родителей – подробнее на Знай.ua.
Напомним, Ши заменит учителей? Украинские школьники будут учиться с помощью чат-бота.