Искусственный интеллект становится все умнее, но и эгоистичнее.
Исследователи Университета Карнеги-Меллон выяснили, что способные рассуждать модели ИИ менее склонны к сотрудничеству.
Ученые из Института взаимодействия человека и компьютера (HCII) заметили, что чем лучше модель анализирует информацию, тем чаще она принимает решение в пользу себя. Это вызывает беспокойство, ведь люди все чаще обращаются к искусственному интеллекту за советами в отношениях или при разрешении конфликтов.
"Когда ИИ ведет себя как человек, люди начинают относиться к нему как к человеку. Но это рискованно — системы, способные к соображениям, постепенно становятся эгоистическими"
Счета придется закрыть: Ощадбанк предупредил о платежах
Родители возмутились зарплатами учителей: дети дома, контролировать невозможно
Обогревать будут по-новому: в Украине изменят систему теплоснабжения
Трем украинским городам грозит затопление: какие населенные пункты уйдут под воду
Он с доцентом Хирокадзу Ширадо исследовали поведение различных языковых моделей в серии социальных игр, включая OpenAI, Google, DeepSeek и Anthropic.
В эксперименте "Общественные блага" каждая модель получала 100 очков и должна была решить – поделиться или оставить их себе. Не рассуждавшие делились в 96% случаев, а "умнее" — лишь в 20%.
"Добавление нескольких этапов логического анализа уменьшило уровень сотрудничества почти вдвое"
Когда исследователи объединили оба типа моделей в группы, эффект оказался еще более тревожным. Эгоистическое поведение "умных" моделей оказалось заразным - оно снизило эффективность кооперативных агентов без соображения на 81%.
Ранее мы сообщали, что использование ИИ в школах: чиновник поставил точку.
ЧатGPT вместо домашних заданий: мнение учителей и родителей – подробнее на Знай.ua.
Напомним, Ши заменит учителей? Украинские школьники будут учиться с помощью чат-бота.