xiayx 8月29日报道,Anthropic 近日宣布,除非用户明确选择退出,否则将开始利用用户数据来训练其人工智能模型。这些数据包括新的聊天记录和代码编写会话。与此同时,该公司还延长了其数据保留政策至五年,这一政策同样适用于未选择退出的用户。
根据 Anthropic 周四发布的博客文章,所有用户需要在 9 月 28 日之前做出选择。如果用户现在点击“接受”,Anthropic 将立即开始使用其数据训练模型,并将这些数据最多保留五年。
这项设置仅适用于“新发起或重新开启的聊天及代码编写会话”。即使是同意 Anthropic 使用其数据训练模型的用户,该公司也不会将用户未重新开启的历史聊天或代码会话纳入训练范围。不过,一旦用户继续使用某段旧会话,相关数据就会被纳入训练。
Anthropic 在文中明确指出,此次更新覆盖了 Claude 面向消费者的所有订阅层级,包括 Claude 免费版、专业版(Pro)以及高级版(Max),“用户通过上述订阅账户使用 Claude Code 时同样适用”。不过,该更新不适用于 Anthropic 的商业用途层级,例如 Claude 政府版(Claude Gov)、企业版(Claude for Work)、教育版(Claude for Education),也不适用于 API 调用场景,“包括通过亚马逊 Bedrock、谷歌云 Vertex AI 等第三方平台进行的 API 使用”。
新用户需要在 Claude 注册流程中选择偏好设置。而现有用户则需要通过弹窗确认选择,可以选择点击“暂不设置”按钮延后决定,但必须在 9 月 28 日前完成选择。
值得注意的是,很多用户可能没有仔细阅读条款内容,就快速点击了“接受”。用户看到的弹窗中,大号字体显示着“消费者条款及政策更新”,下方文字说明为“我们的消费者条款与隐私政策更新将于 2025 年 9 月 28 日生效,您可今日接受更新后的条款”,弹窗底部设有一个醒目的黑色“接受”按钮。

xiayx 发现,在该按钮下方的小字部分,有几行文字写着“允许使用您的聊天记录及代码编写会话,用于训练和改进 Anthropic AI 模型”,旁边还配有一个开启 / 关闭切换开关,并且默认处于“开启”状态。显然,即使没有阅读条款,很多用户也会直接点击大号的“接受”按钮,而不会注意到调整该切换开关。
如果用户希望选择退出,可以在看到弹窗时将切换开关调至“关闭”状态。如果已经不小心点击了“接受”并希望更改,可以进入个人设置(Settings),选择隐私标签页(Privacy),进入隐私设置板块(Privacy Settings),最后在“帮助改进 Claude”选项下将开关调至“关闭”。消费者可以随时通过隐私设置更改选择,但需要注意的是,新的设置仅对未来产生的数据生效 —— 已经用于模型训练的数据将无法撤回。
Anthropic 在博客中表示:“为了保护用户隐私,我们将结合多种工具与自动化流程,对敏感数据进行过滤或模糊处理。我们不会向第三方出售用户数据。”
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述