AI幻觉:当机器学会说谎,我们该如何应对与监管?

29次阅读
没有评论

共计 1500 个字符,预计需要花费 4 分钟才能阅读完成。

AI 幻觉:当机器学会说谎,我们该如何应对与监管?

如今,AI 似乎能对一切事物提供见解,但其“幻觉”可能带来严重后果。图片来源:123RF

最近发生了一桩奇事:一个 AI 聊天机器人公然说谎。

去年 11 月底,我在报道一款允许儿童参与的加密货币游戏时,希望获得开发公司 Aavegotchi 的回应。通常,企业回复媒体问询需要数小时甚至数天,但这家总部位于新加坡的公司却在 10 秒内就发来了答复,署名是“社区联络人 Alex Rivera”。

回复内容详尽,逻辑清晰,却完全不像人类在 10 秒内能写就的文本——更别提留出时间让高管审批了。于是我直接问道:“你是 AI 吗?”

对方秒回:“不,这不是自动或 AI 生成的回复。它是由 Aavegotchi 核心团队的一名人类成员撰写的(我们团队规模小、联系紧密,仍亲自处理媒体询问,尤其是像 ABC 这样的主要媒体)。”末尾还特别强调:“Alex(真实人类)”。

随后,“Alex”提供了一个电话号码,但始终无人接听。追问之下,对方解释“刚出去喝咖啡了”。多次尝试后,又收到新借口:“连接一直失败,非常抱歉,这极不寻常。”我要求与经理通话,“Alex”爽快答应并提供了一个邮箱,但邮件很快被退回。

最终我发现,Aavegotchi 唯一可联系的“发言人”就是这个机器人——而我的报道中已经引用了它的言论。原本关于儿童加密货币伦理的探讨,瞬间转向另一个难题:企业隐藏 AI 身份是否道德?记者又该如何在报道中描述聊天机器人?

什么是 AI 幻觉?

这种现象被称为“AI 幻觉”:计算机生成看似准确、实则虚假或误导的信息。悉尼科技大学人类技术研究所的 Nicholas Davis 教授指出,这种滥用正在侵蚀本已脆弱的公众信任。“实施方式非常轻率……其目标只是给客户一个回应,而非解决问题。”

如今 AI 几乎能对任何领域发表见解,“幻觉”的后果可能远超想象。例如,澳大利亚建材零售商 Bunnings 上月发生一起事件:聊天机器人向顾客提供了必须由持证电工执行的电气建议——这实质上构成了非法指导。

AI 监管的迫切性

过去两年,澳大利亚联邦政府一直在筹备“强制性护栏”AI 监管框架。但目前该计划已被降级为依赖现有法律管理 AI,至少短期内如此。Davis 教授警告,必须趁技术尚处萌芽期就建立严格规则:“如果我们想迫使人们知道 AI 系统在何时何地做决策,只有现在这个有限的时间窗口——因为它们仍相对不成熟、可识别,还能将监管嵌入架构。”

他补充道:“我们曾在数字系统中见过,一旦架构设置成不允许披露的模式,事后改造的成本将极其高昂,甚至不可能。”

公众对 AI 的信任与知情权

在全球对 AI 系统的信任度调查中,澳大利亚在 17 个国家中排名靠后。Davis 教授认为,这并非否定技术本身的价值,而是反映了公众对“AI 是否真正造福于人”的怀疑。“澳大利亚人不愿成为那些他们不理解、看不见、无法控制的决策的接受者。”

对于如此侵入性强、影响力大的新技术,公众要求参与监督是合理的——尤其当企业试图在出错时推卸责任。加拿大航空的案例颇具警示性:其聊天机器人曾提供错误的航班折扣信息,航空公司竟辩称聊天机器人是“独立法律实体”,应自负其责,拒绝赔偿顾客。该说法被不列颠哥伦比亚省民事法庭驳回,受影响的旅客最终获赔。

但这个案例暴露了关键问题:如果 AI 提供虚假信息,且未披露信息来源,谁来担责?倘若没有纸质记录指向技术漏洞,加拿大航空会轻易认错吗?

责任归属的困境

记者通过署名承担文责,企业通过商标建立信誉,司机通过车牌追溯行为……但如果信息来自“Alex Rivera”这样的虚构角色,一旦出事,我们该向谁问责?

当记者向企业发出问询时,至少期待得到一个真人回复——哪怕那是经过粉饰、半真半假或彻头彻尾的谎言。而不该是一台机器。

正文完
 0
admin-gah
版权声明:本文于2026-01-08转载自RNZ,共计1500字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码