首页 > 新闻资讯 >微软拒认Copilot四大安全问题 引发AI漏洞界定争议

微软拒认Copilot四大安全问题 引发AI漏洞界定争议

来源:两三杯可乐 2026-01-08 16:16:08

1月7日,有安全研究人员披露,其向微软报告了关于Copilot的四项潜在安全问题,但相关反馈被官方驳回,此事在网络安全领域引发了对人工智能系统漏洞界定标准的广泛讨论。

安全工程师John Russell近日在社交平台表示,他已向微软提交了四个与Copilot相关的问题案例,包括通过Base64编码绕过文件上传限制、实现命令执行以及诱导模型泄露系统提示词等行为。然而,这些报告随后被关闭,理由是不符合漏洞修复的认定条件。

长期稳定更新的攒劲资源: >>>点此立即查看<<<

据描述,其中一项技术涉及将可执行文件转换为Base64格式的文本字符串,从而避开前端检测机制。当该文本在对话过程中被解码后,原始文件得以还原并被系统处理,实质上绕过了原有的安全策略。此外,研究者还演示了如何利用特定输入指令使模型输出其内部使用的系统提示内容,这一过程属于典型的提示注入攻击路径。

对此,微软方面回应称,所有提交事项均已依据其公开发布的AI安全评估框架进行审查。公司认为,若相关行为未突破预设的安全边界,例如未导致跨用户数据泄露或未获得未授权访问权限,则不构成传统意义上的安全漏洞,而应归类为当前生成式人工智能技术的已知局限。

这一立场引发了业内不同声音。部分技术人员认为,尽管此类现象在大型语言模型中普遍存在,但能否有效防御已知攻击模式仍应作为产品安全性的重要衡量指标。有观点指出,已有其他厂商的模型在类似场景下表现出更强的防御能力,说明输入验证和上下文隔离仍具备优化空间。

与此同时,也有安全组织持审慎态度,认为系统提示词的暴露本身并不必然等同于高风险事件,除非其直接导致敏感信息外泄或核心防护机制失效。当前,围绕AI系统的威胁模型仍在演进中,如何界定“漏洞”与“功能边界”,仍是行业亟需统一认知的关键议题。

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。