共计 638 个字符,预计需要花费 2 分钟才能阅读完成。
最近,Anthropic 公司举办了一场引人注目的 AI 安全挑战赛,奖金高达 1.5 万美元。这个数字确实令人心动,但深入了解他们的测试数据后,你会发现这钱并不容易赚。
Anthropic 的 ’ 宪法分类器 ’ 系统听起来非常高端。简单来说,这是一套为 AI 设定的行为准则,就像为机器人制定了一部宪法。一位在 AI 安全领域工作的朋友告诉我,这种设计非常聪明——让一个 AI 监督另一个 AI,实现互相制衡。这种设计让我想起了小时候看的科幻片中的机器人三定律。
从测试结果来看,这个系统确实表现出色。183 名专业测试人员花费了 3000 多个小时,竟然没有一个人能够完全破解它。这让我想起了去年参加的一个黑客马拉松,当时我们团队也是绞尽脑汁想突破某个 AI 系统的限制,结果却以失败告终。看来在 AI 安全领域,真是道高一尺魔高一丈。
不过,这个系统也并非完美无缺。据说它有时会 ’ 反应过度 ’,将一些无害的内容也屏蔽掉。这让我想起前几天使用某个 AI 助手时,想查询一个简单的化学实验步骤,结果被系统误判为危险内容,真是让人哭笑不得。
最让我感兴趣的是,Anthropic 现在降低了挑战门槛——从原来的 10 个问题减少到了 8 个。这让我有些跃跃欲试,虽然知道机会渺茫,但万一成功了呢?毕竟 1.5 万美元可不是个小数目。不过考虑到截止日期是 2 月 10 日,我得抓紧时间研究一下他们的系统了。
总的来说,这个挑战赛不仅是一个赚钱的机会,更是一个了解 AI 安全技术的好机会。即使最后没能拿到奖金,能亲身体验一下最新的 AI 安全技术,也算是个不错的经历。