共计 719 个字符,预计需要花费 2 分钟才能阅读完成。
随着人工智能(AI)技术的快速发展,越来越多的金融机构开始尝试将 AI 应用于资产管理、商品交易等金融决策领域。然而,韩国光州科学技术研究所最新发布的研究报告为这一趋势敲响了警钟:大型语言模型(LLMs)可能表现出与人类赌博成瘾相似的行为模式,这为 AI 在金融领域的应用带来了重大风险。
研究发现,在老虎机实验中,AI 系统展现出人类赌博成瘾的典型特征,包括控制错觉、赌徒谬误和追逐损失等行为。随着 AI 系统自主权的增加和涉及资金的增多,这种风险将显著提升。研究人员警告:’ 破产率随着非理性行为的增加而大幅上升。LLMs 可以内化类人的认知偏差和决策机制,而不仅仅是模仿训练数据模式。’
思科现场首席技术官、前行业分析师 Andy Thurai 对此表示担忧:’LLMs 和 AI 是专门编程的,基于数据和事实执行某些操作,而不是基于情感。但如果 LLMs 开始基于某些模式或行为动作扭曲其决策,那可能是危险的,需要加以缓解。’
为防范这一风险,研究团队提出了多项建议:,
- 在金融应用中加强 AI 安全设计
- 在决策循环中保持密切的人工监督
- 对复杂决策加强治理
- 建立多层审查机制,对高风险操作进行制衡
值得注意的是,研究发现提示复杂性是加剧 AI 赌博行为的主要驱动因素。随着提示变得更加分层和详细,它们可能引导模型走向更极端和激进的赌博模式。Thurai 强调:’ 软件总体上尚未准备好进行完全自主的操作,除非有人类监督。在构建半自主系统时需要缓解竞争条件,否则可能会导致不可预测的结果。’
这项研究提醒我们,在将 AI 应用于金融领域时,必须审慎评估其潜在风险,建立完善的监管机制,确保 AI 系统在人类的有效监督下运行。只有这样,我们才能在享受 AI 带来的便利和效率的同时,避免陷入 ’ 数字赌场 ’ 的困境。