切换到宽版
  • 18阅读
  • 2回复

[智能应用]聊天记录将被用于 AI 训练,默认同意 [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
152794
金币
346247
道行
20030
原创
761
奖券
224
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 18082(小时)
注册时间: 2012-06-21
最后登录: 2025-08-29
只看楼主 倒序阅读 使用道具 楼主  发表于: 昨天 11:12
IT之家 8 月 29 日消息,Anthropic 宣布,将开始使用用户数据训练其 AI 模型,这些数据包括新的聊天记录和代码编写会话,除非用户主动选择退出。同时,该公司还将其数据保留政策延长至五年,同样适用于未选择退出的用户。
根据 Anthropic 周四发布的博客文章,所有用户需在 9 月 28 日前做出选择。若用户现在点击“接受”,Anthropic 将立即开始用其数据训练模型,并将这些数据保留至多五年。
这一设置仅适用于“新发起或重新开启的聊天及代码编写会话”。即便用户同意 Anthropic 使用其数据训练模型,该公司也不会将用户未重新开启的历史聊天或代码会话纳入训练范围。但一旦用户继续使用某段旧会话,相关数据则将被纳入训练。
Anthropic 在文中指出,此次更新覆盖 Claude 面向消费者的所有订阅层级,包括 Claude 免费版、专业版(Pro)及高级版(Max),“用户通过上述订阅账户使用 Claude Code 时同样适用”。不过,该更新不适用于 Anthropic 的商业用途层级,例如 Claude 政府版(Claude Gov)、企业版(Claude for Work)、教育版(Claude for Education),也不适用于 API 调用场景,“包括通过亚马逊 Bedrock、谷歌云 Vertex AI 等第三方平台进行的 API 使用”。
新用户需在 Claude 注册流程中选择偏好设置。现有用户则需通过弹窗确认选择,可点击“暂不设置”按钮延后决定,但 9 月 28 日前必须完成选择。
需要注意的是,许多用户可能未仔细阅读条款内容,就快速点击“接受”。用户将看到的弹窗中,大号字体显示“消费者条款及政策更新”,下方文字说明为“我们的消费者条款与隐私政策更新将于 2025 年 9 月 28 日生效,您可今日接受更新后的条款”,弹窗底部设有一个醒目的黑色“接受”按钮。

IT之家注意到,在该按钮下方的小字部分,有几行文字写着“允许使用您的聊天记录及代码编写会话,用于训练和改进 Anthropic AI 模型”,旁边配有一个开启 / 关闭切换开关,且默认处于“开启”状态。显然,即便未阅读条款,许多用户也会直接点击大号“接受”按钮,而不会调整该切换开关。
若用户希望选择退出,可在看到弹窗时将切换开关调至“关闭”状态。若已不慎点击“接受”并希望更改,可进入个人设置(Settings),选择隐私标签页(Privacy),进入隐私设置板块(Privacy Settings),最后在“帮助改进 Claude”选项下将开关调至“关闭”。消费者可随时通过隐私设置更改选择,但新设置仅对未来产生的数据生效 —— 已用于模型训练的数据无法撤回。
Anthropic 在博客中表示:“为保护用户隐私,我们将结合多种工具与自动化流程,对敏感数据进行过滤或模糊处理。我们不会向第三方出售用户数据。”
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
152794
金币
346247
道行
20030
原创
761
奖券
224
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 18082(小时)
注册时间: 2012-06-21
最后登录: 2025-08-29
只看该作者 沙发  发表于: 昨天 11:13
Claude用户数据使用政策重大调整:默认同意训练与五年保留期
2025年8月29日,Anthropic宣布对Claude用户数据政策进行重大更新,核心变化包括默认同意将新聊天记录用于AI训练及数据保留期延长至五年。此次调整覆盖所有消费者订阅层级(免费版、Pro、Max),但不适用于商业版本(如政府版、企业版)及API调用场景12。用户需在2025年9月28日前通过弹窗确认选择,可点击“暂不设置”延后决定,但逾期未操作将默认启用新政策12。

数据使用范围与关键规则说明
适用对象:覆盖Claude消费者版本(含免费版、Pro、Max)及Claude Code功能,商业版本(如Claude Gov、企业版)与API调用(如亚马逊Bedrock、谷歌Vertex AI)不受影响12。
数据纳入条件:仅新发起或重新开启的聊天/代码会话会被用于训练;未重新开启的历史会话不纳入,但一旦用户继续使用旧会话,相关数据将立即被纳入训练12。
数据保留时限:未选择退出的用户数据将保留至多五年,选择退出后数据保留规则未明确说明1[2]。
用户选择权与操作建议
主动退出路径:用户可通过设置界面关闭数据用于训练的选项,但需在9月28日前完成操作,否则默认同意13。
隐私风险提示:弹窗设计中,“接受”按钮为醒目黑色,而数据使用说明为小字,且“允许训练”选项默认处于开启状态,可能导致用户在未充分阅读条款时误操作3。
历史会话处理:若需避免历史数据被用于训练,用户应停止使用所有旧会话,或在设置中明确选择退出1。
行业对比:AI产品数据政策差异
产品    数据训练默认设置    用户选择权    数据保留期
Claude(2025.9更新)    默认同意,需手动退出    可选择退出,9月28日前截止    五年(未退出用户)12
ChatGPT(2023.4更新)    默认关闭(需主动开启)    可随时禁用聊天记录,禁用后数据不用于训练    30天(仅用于安全审查)56
LinkedIn(2025.1)    默认共享,用户无明确退出选项    集体诉讼争议点(涉嫌强制共享)    未明确说明4
隐私保护建议与风险提示
立即检查设置:Claude用户需在9月28日前确认数据使用偏好,路径为“设置-隐私-数据训练选项”。
避免敏感信息交互:在未退出数据训练的情况下,切勿在会话中包含个人身份证号、财务信息等敏感内容。
行业监管关注:此前LinkedIn因默认共享数据遭集体诉讼4,用户可关注后续监管机构对Anthropic政策的合规性审查。
技术伦理风险:类似用50万条群聊记录训练AI模仿个人对话的案例7
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
181389
金币
377878
道行
2004
原创
2420
奖券
2935
斑龄
37
道券
1068
获奖
0
座驾
设备
摄影级
在线时间: 40629(小时)
注册时间: 2008-10-01
最后登录: 2025-08-30
只看该作者 板凳  发表于: 昨天 17:58
Anthropic是一家以负责任和安全为优先原则的人工智能公司,其在数据使用和隐私保护方面一直备受关注。近期,有关其开始使用用户数据训练AI模型,并将数据保留政策延长至五年的做法引发了广泛讨论。以下从多个角度对其背后的原因和潜在影响进行深入分析:

---

一、技术优化与模型迭代的需求

1. 提升模型性能与个性化能力  
AI模型的训练高度依赖于数据的质量与多样性。通过引入真实用户的交互数据,Anthropic可以更有效地捕捉自然语言的复杂性、语境变化以及用户意图,从而提升模型的准确性与对话能力。此外,用户数据的积累有助于开发更个性化的AI体验,满足不同场景下的定制化需求。

2. 支持持续学习与模型更新  
AI模型并非一成不变,它们需要不断的迭代和优化。保留用户数据长达五年,意味着Anthropic可以基于长期数据趋势进行模型更新,适应用户行为的变化,甚至预测未来趋势。

---

二、数据治理与合规性考量

1. 合规前提下的数据利用  
尽管数据保留时间延长,但Anthropic强调会遵循严格的数据隐私政策,包括匿名化处理、加密存储和用户权限控制。这表明其在推进数据利用的同时,也在努力符合如GDPR(欧盟通用数据保护条例)等国际隐私法规的要求。

2. 用户知情与选择权机制  
Anthropic在更新其数据政策时,通常会提供透明的说明和用户退出机制(如数据删除请求),以确保用户在知情同意的前提下参与数据贡献,这有助于构建用户信任。

---

三、商业战略与竞争格局的考量

1. 提升产品竞争力  
在AI竞争日益激烈的市场中,拥有高质量的训练数据是企业构建核心壁垒的重要手段。Anthropic通过用户数据优化模型,旨在提升其Claude系列模型在功能、响应速度、准确性等方面的竞争力,从而在与OpenAI、Google等巨头的竞争中占据有利位置。

2. 构建闭环生态系统  
通过长期保留用户数据,Anthropic可以更好地理解用户在其平台上的行为轨迹,进而优化产品设计、功能推荐与服务体验,打造更加紧密的用户-平台-模型互动闭环。

---

四、伦理与安全的平衡挑战

1. 隐私风险与信任问题  
尽管数据保留有助于技术进步,但用户可能担忧其隐私数据被滥用或泄露。Anthropic需要在数据价值与用户隐私之间找到平衡点,确保其数据使用方式不会损害用户信任。

2. 安全性与模型偏见控制  
使用真实用户数据也可能引入偏见或有害内容,从而影响AI模型的输出质量。为此,Anthropic必须持续投入于数据清洗、内容过滤和模型伦理审查机制的建设。

---

五、未来展望与用户建议

对于用户而言,在享受AI带来的便利的同时,也应主动了解平台的数据政策,合理行使数据控制权;而对于Anthropic等AI公司而言,如何在数据驱动的创新与用户隐私保护之间取得平衡,将是未来持续面临的重要课题。

---

总结

Anthropic延长用户数据保留期并用于模型训练,既是技术发展的必然趋势,也是商业战略与伦理责任的交汇点。其背后体现了AI行业对数据价值的高度依赖,也反映出数据治理在未来AI发展中的重要性。唯有在透明、合规、可控的前提下,这种数据利用方式才能真正实现技术进步与用户权益的双赢。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个