共计 463 个字符,预计需要花费 2 分钟才能阅读完成。
你相信自己 – 至少大部分时间是这样的。
不过,你对人工智能(AI)有多少信任呢?
乔治亚州立大学的研究人员进行了一种“道德图灵测试”,想看看普通人是如何对待两个不同来源提供的道德问题答案的。
在这个测试中,被测试的人在不知道回答来源的情况下,评价了 AI 和人类的回答。乔治亚州立大学的新闻稿提到,参与者在道德性、智慧和可信度方面普遍偏向于 AI 的回答。
如果这个测试结果可以代表整体趋势,那么 AI 可能会比人类更擅长引导我们面对生活中的伦理不确定性。
想象一下,对于有偏见的教师或政治上受到妥协的法官来说,AI 可能会提供更好的帮助。当我们面临道德问题时,我们可以说:“你会这么认为,但 AI 的回答是什么?”
不过,研究人员也提出了必要的警告,不能盲目依赖 AI。埃亚尔·阿哈罗尼,这项研究的首席研究员,表示研究人员没有告诉参与者两个回答的来源,这表明参与者主观上认为 AI 的回答更优越,并不一定代表 AI 在道德上更卓越。
AI 可能会成为新的道德仲裁者,帮助我们面对伦理困境,但我们仍需谨慎对待。正如阿哈罗尼所言,随着我们越来越依赖 AI,风险也会随之增加。
正文完