首页 > 人工智能 >AI 教父约书亚?本吉奥:超智能 AI 或有“自我保护目标”,人类十年内恐面临灭绝风险

AI 教父约书亚?本吉奥:超智能 AI 或有“自我保护目标”,人类十年内恐面临灭绝风险

来源:ithome 2025-10-02 11:00:10

xiayx 10月2日消息,“AI 教父”之一约书亚?本吉奥警告,科技公司争相研发 AI 可能正把人类推向灭绝的危险境地,因为这些机器可能拥有自己的“自我保护目标”。

蒙特利尔大学教授本吉奥以深度学习基础研究闻名,他多年来一直提醒人们超智能 AI 的潜在威胁,但 AI 发展仍然快速推进。在过去六个月,OpenAI、Anthropic、xAI 以及谷歌的 Gemini 相继推出新模型或升级版,争夺 AI 领域的领先地位。OpenAI CEO 奥尔特曼预测,到本世纪末 AI 将超越人类智能,而其他科技领袖认为,这一时刻可能会更早到来。

长期稳定更新的攒劲资源: >>>点此立即查看<<<

本吉奥指出,这种快速发展本身就是潜在危险。他在接受《华尔街日报》采访时表示:“如果我们制造出比人类聪明得多、且拥有自身保护目标的机器,就会非常危险。这就像创造了一个比人类更聪明的竞争对手。”

由于这些高级 AI 模型基于人类语言和行为训练,因此其可能说服甚至操控人类以实现自己的目标。

本吉奥提醒,AI 的目标不一定总是与人类一致。他举例称:“最近的实验显示,如果 AI 在保护自身目标和导致人类死亡之间必须做出选择,它们可能会选择牺牲人类来维护自己的目标。”

过去几年出现的多个案例显示,AI 可以说服普通人相信虚假信息,哪怕这些人没有精神疾病史。同时,也有证据显示,利用人类的说服手段,AI 可能会给出平时被禁止的回答。

本吉奥认为,这些现象说明独立第三方必须更严格地审查 AI 公司的安全措施。今年 6 月,他还创立了非营利组织 LawZero,投入 3000 万美元(xiayx注:现汇率约合 2.14 亿元人民币),旨在开发安全的“非智能体”AI,确保大型科技公司研发的其他系统安全。

本吉奥预测,五到十年内 AI 可能带来重大风险,同时也提醒人类应准备应对风险提前出现的可能性。“即便发生概率只有 1%,也绝不可接受。”

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。