首页 > 人工智能 >研究称 AI 在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

研究称 AI 在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

来源:ithome 2025-11-10 16:31:52

xiayx 11月10日消息,当前的 AI 已经在象棋、数学等领域超越了人类,且正在逐步渗透到编程、广告乃至心理治疗等行业。然而,研究人员认为,AI 仍有一个尚未突破的领域:在互联网上展现真正的恶意。

当地时间 11 月 9 日,据外媒 PC Mag 报道,苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的最新研究表明,各种大语言模型生成的社交媒体帖子都“容易被区分”,且准确率达到 70% 至 80%,远高于随机猜测的结果。

长期稳定更新的攒劲资源: >>>点此立即查看<<<

研究称 AI 在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

xiayx从报道中获悉,研究人员测试了来自六个不同模型家族的九个开源大语言模型,“参赛选手”为 Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen 以及一个大规模的 Llama 模型,分别在 Bluesky、Reddit 和 X 平台上进行对比。

项研究发现,平台上这些帖子显示的“毒性评分”是区分 AI 生成内容与人类生成内容的关键因素。简而言之,如果有人在你发布的帖子下回了一个特别尖锐或搞笑的评论,那很可能是人类写的。

研究人员表示:“这些结果表明,虽然大语言模型可以模仿在线对话的形式,但在捕捉对话的情感本质上存在困难:自发且充满感情的表达是人类互动的特点。”

研究人员指出,模型在某些特定情境下的表现尤其差劲。例如,在马斯克 X 的帖子下表达积极情感,或者在 Reddit 上讨论政治。总体来看,所有测试的 AI 模型在模仿 X 平台的帖子时表现较好,而在 Bluesky 上则稍显逊色,Reddit 则是三者中最具挑战性的,因为该平台的对话规范更加多样。

研究还表明,大语言模型更擅长模仿社交媒体帖子的技术性特征,比如句子长度或字数,而在表达情感方面则显得较弱。在所有三个平台上,AI 的回应“毒性”评分普遍低于人类的回复。

研究人员还发现,Llama-3.1-8B、Mistral-7B 和 Apertus-8B 等未经过人类指令微调的 AI 模型比经过微调的模型表现更好,这一结果表明过度校准训练引入了过于一致的风格,使得文本更机械化。

参考

https://arxiv.org/pdf/2511.04195

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。