人工智能决策偏见:ChatGPT展现人类认知缺陷

40次阅读
没有评论

共计 1727 个字符,预计需要花费 5 分钟才能阅读完成。

研究人员表示,企业和政策制定者需要像监控人类决策者一样密切监控人工智能的决策。最新研究显示,尽管 ChatGPT 在逻辑和数学方面表现优异,但在进行主观决策时却展现出与人类相似的认知偏见。

该人工智能在常见判断错误测试中表现出过度自信、风险规避,甚至经典的赌徒谬误,尽管它避免了其他典型的人类错误,如忽视基础率。较新版本的人工智能在分析准确性上有所提升,但在某些情况下也表现出更强的基于判断的偏见。

 人工智能决策偏见:ChatGPT 展现人类认知缺陷

关键发现

  • 人工智能的偏见倾向:ChatGPT 在近一半的测试场景中表现出类似人类的认知偏见。
  • 判断与逻辑的差异:人工智能在客观任务上表现出色,但在主观决策上表现欠佳。
  • 监督的必要性:专家强调,人工智能应像人类决策者一样受到监控。

人工智能真的能做出比人类更好的决策吗?最新研究表明,答案并不总是肯定的。研究发现,OpenAI 的 ChatGPT 作为最先进的人工智能模型之一,在某些情况下会犯与人类相同的决策错误——表现出诸如赌徒谬误的偏见——但在其他情况下则表现得不像人类(例如,不会受到基础率忽视或沉没成本谬误的影响)。

这项发表在《INFORMS 期刊制造与服务运营管理》上的研究揭示,ChatGPT 不仅仅是处理数字——它的 ” 思考 ” 方式与人类惊人地相似,包括心理捷径和盲点。这些偏见在不同的商业情境中保持相对稳定,但随着人工智能从一个版本发展到下一个版本,可能会发生变化。,

人工智能:具有类似人类缺陷的智能助手

这项名为《经理和人工智能走进酒吧:ChatGPT 会像我们一样做出有偏见的决策吗?》的研究对 ChatGPT 进行了 18 种不同的偏见测试。结果如何?,

  • 人工智能陷入人类决策陷阱——ChatGPT 在近一半的测试中表现出过度自信或模糊规避以及合取谬误(也称为 ” 琳达问题 ”)等偏见。
  • 人工智能擅长数学,但在判断上表现不佳——它在逻辑和概率问题上表现出色,但在需要主观推理的决策上表现欠佳。
  • 偏见持续存在——尽管较新的 GPT- 4 模型在分析上比其前身更准确,但在基于判断的任务中有时表现出更强的偏见。

研究的重要性

从招聘到贷款审批,人工智能已经在商业和政府中塑造了重大决策。但如果人工智能模仿人类偏见,它是否可能强化不良决策而不是纠正它们?

“ 随着人工智能从人类数据中学习,它也可能像人类一样思考——包括所有偏见,” 西安大略大学的助理教授、该研究的主要作者杨晨表示。

“ 我们的研究表明,当人工智能用于做出判断时,它有时会使用与人类相同的心理捷径。”

研究发现,ChatGPT 倾向于:,

  • 保持谨慎——人工智能避免风险,即使风险更大的选择可能会产生更好的结果。
  • 高估自己——ChatGPT 假设自己比实际情况更准确。
  • 寻求确认——人工智能倾向于支持现有假设的信息,而不是挑战它们。
  • 避免模糊——人工智能更喜欢信息更确定、模糊性更小的替代方案。

“ 当决策有明确的正确答案时,人工智能可以准确完成——它在找到正确公式方面比大多数人更好,” 皇后大学的安东·奥夫钦尼科夫表示。” 但当涉及判断时,人工智能可能会陷入与人类相同的认知陷阱。”,

我们能信任人工智能做出重大决策吗?

随着世界各国政府正在制定人工智能法规,这项研究提出了一个紧迫的问题:当人工智能可能像人类一样有偏见时,我们是否应该依赖它做出重要决策?

“ 人工智能不是一个中立的裁判,” 新南威尔士大学商学院的塞缪尔·基什纳表示。” 如果不加以控制,它可能无法解决决策问题——实际上可能会使问题变得更糟。”

研究人员表示,这就是为什么企业和政策制定者需要像监控人类决策者一样密切监控人工智能的决策。

“ 人工智能应该被视为做出重要决策的员工——它需要监督和道德准则,” 麦克马斯特大学的米娜·安迪亚潘表示。” 否则,我们可能会自动化有缺陷的思维,而不是改进它。”,

未来展望

该研究的作者建议定期对人工智能驱动的决策进行审计,并改进人工智能系统以减少偏见。随着人工智能的影响力不断扩大,确保它改进决策——而不仅仅是复制人类缺陷——将是关键。

“ 从 GPT-3.5 到 4.0 的演变表明,最新模型在某些领域变得更加人性化,但在其他领域则变得不那么人性化但更准确,” 皇后大学的特蕾西·詹金表示。

“ 管理者必须评估不同模型在其决策用例中的表现,并定期重新评估以避免意外。某些用例将需要显著的模型改进。”

正文完
 0
admin-gah
版权声明:本文于2025-04-03转载自Neurosciencenews.com,共计1727字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码