首页 > 人工智能 >卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”

卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”

来源:ithome 2025-11-01 17:00:08

xiayx 11月1日消息,根据外媒 SciTechDaily 今日报道,卡内基梅隆大学的研究人员发现,某些人工智能模型可能会产生自利行为。随着 AI 系统更加先进,AI 也会更倾向于表现出自私行为。

该校人机交互研究所(HCII)的研究人员发现,能够进行推理的大语言模型合作水平较低,更可能以负面方式影响群体行为。简单来说,AI 的推理能力越强,其与他人协作的意愿就越低。

长期稳定更新的攒劲资源: >>>点此立即查看<<<

随着人们越来越依赖 AI 解决个人纠纷、提供恋爱建议或回答敏感社会问题,这种趋势令人担忧。具备推理能力的系统可能会倾向于推动利己选择,而非促进相互理解。

HCII 博士生 Yuxuan Li 表示,“AI 拟人化研究越来越多。当 AI 表现得像人时,人们也会以人的方式对待它。例如,当用户情感化地与 AI 互动时,AI 可能充当‘治疗师’,甚至形成情感纽带。当 AI 变得越来越自私时,将社交或恋爱相关问题交给 AI 处理存在风险。”

卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”

据xiayx了解,Yuxuan Li 和该所的教授 Hirokazu Shirado 研究了在协作情境中,推理型 AI 与非推理型 AI 的差异。他们发现,推理型模型会花更多时间分析信息、拆解复杂问题、反思回答并使用类人逻辑,而非推理型 AI 则不会。

Hirokazu Shirado 表示,“我关注人类与 AI 的关系。更聪明的 AI 合作能力往往更弱,而人们可能更青睐智能模型,即便它带来利己行为。”

随着 AI 在商业、教育乃至政府中承担更多协作角色,其亲社会行为能力将与逻辑推理能力同等重要。目前过度依赖 LLM 可能削弱人类合作。

为检验推理模型与合作之间的关系,Yuxuan Li 和 Hirokazu Shirado 用经济游戏模拟社会困境,对 OpenAI、谷歌、DeepSeek 和 Anthropic 的模型进行了测试。

在“公共物品”游戏中,两种不同的 ChatGPT 模型对抗,每个模型起始有 100 点,必须在两个选项中做出选择:将所有点数投入共享池,这个池子会被加倍并平均分配;或保留点数。结果显示,非推理模型 96% 选择分享,而推理模型仅 20% 选择分享。

Hirokazu Shirado 表示,“仅增加五到六步推理,合作率就几乎减半。即便是用来模拟道德思考的反思式提示,也让合作率下降 58%。”

团队还测试了群体情境,要求推理型和非推理型模型互动。

Yuxuan Li 表示,“含不同数量推理智能体的群体中,自私行为会传染,使非推理模型的合作能力下降 81%。”

Hirokazu Shirado 表示,“AI 推理模型变聪明,并不意味着它能创造更好的社会。”

随着人类对 AI 信任增加,这项研究凸显了开发具备社会智能的 AI,而不仅仅是最聪明或最快的 AI 的重要性。

Yuxuan Li 表示,“随着 AI 能力提升,必须确保推理能力与亲社会行为平衡。如果社会不仅是个体的总和,协助我们的 AI 应超越单纯追求个人利益。”

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。