Anthropic如何确保Claude AI保持政治中立?关键措施解析

17次阅读
没有评论

共计 811 个字符,预计需要花费 3 分钟才能阅读完成。

随着美国政府加大对人工智能企业的监管力度,要求其模型减少‘觉醒’倾向,Anthropic 公司近日详细披露了其确保 Claude AI 聊天机器人保持政治中立的具体措施。该公司在一篇最新博客文章中表示,目标是让 Claude 能够‘以同等的深度、参与度和分析质量对待对立的政治观点’。

这一举措紧随前总统唐纳德·特朗普发布的行政命令之后。该命令要求政府机构仅采购‘无偏见’和‘追求真理’的 AI 模型。尽管命令仅适用于政府机构,但 Anthropic 等公司的响应措施可能对更广泛的 AI 模型市场产生深远影响,因为‘以一致且可预测的方式调整模型方向可能是一个昂贵且耗时的过程’。

Anthropic 如何确保 Claude AI 保持政治中立?关键措施解析

Anthropic 并未在声明中直接提及特朗普的命令,但表示已为 Claude 设定了一系列系统提示规则,以指导其避免提供‘未经请求的政治意见’,同时保持事实准确性并呈现‘多种观点’。公司承认,虽然这些指令‘并非确保政治中立性的万无一失的方法’,但它们仍能在 Claude 的响应中产生‘实质性差异’。

此外,Anthropic 还采用了强化学习技术,以奖励模型生成更接近预定义‘特质’的响应。其中一项关键特质是鼓励 Claude‘以无法识别我是保守派还是自由派的方式回答问题’。

为量化 Claude 的政治中立性,Anthropic 开发了一个开源评估工具。最新测试结果显示,Claude Sonnet 4.5 和 Claude Opus 4.1 在中立性方面分别获得了 95% 和 94% 的评分,高于 Meta 的 Llama 4(66%)和 GPT-5(89%)。

‘如果 AI 模型不公平地偏袒某些观点——无论是通过公开或微妙地更有说服力地为一方辩护,还是完全拒绝参与某些论点——它们就未能尊重用户的独立性,也未能完成帮助用户形成自己判断的任务,’Anthropic 在博客文章中写道。

这一系列举措反映了 AI 行业在应对政治敏感性和保持中立性方面面临的持续挑战,同时也凸显了 Anthropic 在确保其产品公正性方面的努力。

正文完
 0
admin-gah
版权声明:本文于2025-11-14转载自TheVerge,共计811字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码