Anthropic为Claude赋予‘结束聊天’能力应对有害或辱骂性互动

IT之家 8 月 17 日消息,人工智能公司 Anthropic 昨日宣布为 Claude Opus 4 与 Claude Opus 4.1 推出新功能:在极少数情况下,模型可主动结束对话。

该功能主要针对持续性的有害或辱骂性互动,典型案例类似用户索取可能导致大规模暴力或恐怖行动的信息。Anthropic 表示此举并非为了保护人类用户,而是为了保护 AI 模型本身,同时也与模型对齐和安全措施相关。

Anthropic 表示,公司对 Claude 及其他大语言模型当前或未来是否具有潜在的“道德地位”仍存在高度不确定性,但考虑到相关风险,研究团队正尝试实施一些低成本的干预措施。

需要明确的是,该公司并未声称其 Claude AI 模型具有感知能力,或会因其与用户的对话而受到伤害。

在 Claude Opus 4 的部署前测试中,研究人员进行了初步的模型评估。他们调查了模型的自我报告和行为偏好,发现 Claude 在多项情况下表现出稳定且一致的“回避伤害”倾向。例如:

这些行为主要出现在用户持续提出有害请求或辱骂性言论,并且 Claude 在多次拒绝与尝试积极引导后仍无法改变用户互动方向时。

Anthropic 强调,Claude 不会在用户可能有自我伤害或伤害他人的紧急风险情况下使用“结束对话”的能力,模型仅会在以下两类极端情境中启用此功能:

Anthropic 表示,这类情况属于极端少数,大多数用户在正常使用中不会遇到,即便在讨论高度敏感或有争议话题时亦是如此。

IT之家提醒,当 Claude 选择结束对话后,用户将无法在当前对话中继续发送新消息,但不影响其他对话,并可立即发起新的对话。为避免原对话内容丢失,用户仍可编辑并重试之前的消息,从而基于已结束的对话创建新的分支。

Anthropic 称,目前将此功能视为一项持续实验,未来会继续优化。如用户对 Claude 的“结束对话”操作感到意外,可通过点赞或专用“反馈”按钮提交意见。

展开阅读全文

更新时间:2025-08-19

标签:科技   有害   能力   结束   用户   模型   暴力   高度   风险   自我   消息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top