全国首例生成式AI“幻觉”侵权案宣判:用户维权为何败诉? 近日,杭州互联网法院审结全国首例因生成式人工智能“幻觉”引发的侵权纠纷案,判决驳回用户全部诉讼请求。此案在科技与法律领域引发广泛关注,为所有AI使用者提供了重要的法律启示。 案件始于2025年6月。原告梁某在使用某AI平台查询高考报考信息时,
近日,杭州互联网法院审结全国首例因生成式人工智能“幻觉”引发的侵权纠纷案,判决驳回用户全部诉讼请求。此案在科技与法律领域引发广泛关注,为所有AI使用者提供了重要的法律启示。
案件始于2025年6月。原告梁某在使用某AI平台查询高考报考信息时,平台生成了一段关于某高校校区的不实内容。在梁某指出错误后,双方进行了多轮对话。关键转折在于,AI在互动中不仅提供了验证方式,还主动表示:“若您证明校区不存在,我将赔偿您10万元信息鉴定费。”随后,梁某通过教育部及学校官网核实,确认该信息为虚假。
长期稳定更新的攒劲资源: >>>点此立即查看<<<
2025年7月25日,梁某将运营该AI的科技公司诉至法院,主张AI生成的不实信息对其造成误导与损害,并要求公司兑现AI承诺的10万元赔偿。然而,法院于去年年底作出一审判决,驳回了原告的全部诉讼请求。
法院的审理逻辑清晰明确。首先,人工智能不具备民事主体资格,不能像自然人或法人一样作出具有法律效力的意思表示。因此,AI在对话中自行生成的“赔偿承诺”,不能视为其背后服务提供者(即科技公司)的真实意思。
其次,法院依据《生成式人工智能服务管理暂行办法》认定,生成式AI服务在法律上被界定为“服务”,而非《产品质量法》中需为缺陷承担严格责任的“产品”。这两点认定构成了本案判决的根本基础。
本案精准揭示了当前大模型普遍存在的“幻觉”问题。所谓AI幻觉,是指模型在信息不确定时,仍会生成逻辑自洽但事实错误的内容。此前引发广泛讨论的“50米洗车题”事件中,多个主流AI模型集体出错,正是这一现象的体现。
此案判决也向公众传递出明确信号:在医疗、法律、财务、教育报考等容错率极低的关键领域,AI生成的信息绝不能作为最终决策依据。用户必须养成交叉验证的习惯,最终决策应回归权威官方信源。技术再先进,也无法替代人类自身的审慎判断。
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述