共计 3690 个字符,预计需要花费 10 分钟才能阅读完成。
学者 Gary Marcus 已成为人工智能(AI)缺陷的知名批评者,他在多本书籍和文章中详细记录了这项技术的不完善之处,以及它并不像许多人想象的那样令人印象深刻。
Marcus 与合著者 Ernest Davis 在《重启 AI》中讨论 AI 的技术缺陷时,他的批评不仅限于理论层面,还指出了该技术的潜在危险。
随着 ChatGPT 的全球热潮,Marcus 有了一个现实世界的案例来反思 AI 的实际和当前危险。他的最新作品《驯服硅谷》详细记录了这些影响,这本书应该是任何与 AI 有接触的人的必读之作。
Marcus 以轻松而有力的风格贯穿全书,背后是对科学和技术的深刻理解。他的预测往往直截了当,通过每个引用的例子,Marcus 预测情况将变得更糟。
书的前 50 页讲述了 AI,尤其是生成式 AI 的失误,以及它们可能带来的风险和危害——在某些情况下,这些危害已经发生。对于关注 Marcus 的 Substack 或 X 动态的人来说,这是熟悉的领域,但将这些内容集中在一处是有用的。
这种危险与超级智能 AI 或“人工通用智能”无关。Marcus 长期以来一直对当今的机器学习和深度学习实现超人类能力持怀疑态度。
他嘲笑那种认为这种智能将一举消灭人类的观念。相反,Marcus 关注的是那些不那么聪明的机器通过 ChatGPT 和其他类似程序对社会造成的日常危险。
Marcus 带领读者游览了 AI 的 12 大当前危险。这些危险包括大型语言模型(LLMs)作为大规模生产信息的机器,例如《连线》杂志文章中提到的“充斥亚马逊的诈骗性 AI 生成书籍重写”。
更严重的是,深度伪造声音伪装成被绑架者,这种情况已经发生多次。Marcus 预测,这种敲诈勒索的骗局将会更多。
Marcus 用许多页讨论了知识产权盗窃问题,即 OpenAI 等公司未经同意就使用受版权保护的作品来训练 LLMs。通常情况下,Marcus 对这一问题的重视程度可能超过人们最初的想象。
“整个事件被称为伟大的数据盗窃——一场对知识产权的掠夺,除非政府干预或公民行动阻止,否则将导致财富从几乎所有人转移到少数几家公司,”他写道。
书的中间部分从讨论危害转向对硅谷掠夺性实践的批评,以及大型科技公司如何通过编织关于其发明的神话来欺骗公众和立法者,使其看起来既重要又完全无害。
OpenAI 的破碎承诺受到了 Marcus 应有的批评。其中包括该公司不再是非营利组织,也不再在任何有意义的层面上“开放”,而是隐藏了所有代码,不让公众审查。
但问题不仅仅是单一的不良行为者:硅谷充斥着误导和不诚实。
在多个修辞技巧中,Marcus 强调了微软、OpenAI 和 Alphabet 的谷歌等公司声称他们太忙于思考末日场景,以至于无暇顾及他概述的当前危险。
“大型科技公司希望通过说——没有任何真正的问责——他们在努力确保未来 AI 的安全(提示:他们也没有真正的解决方案),同时对当前的风险做得太少,来分散我们的注意力,”他写道。
大型科技公司采取的这种做法导致了政府的被俘获,政策人士称之为“监管俘获”。
“少数人和公司正在产生巨大且基本上看不见的影响,”Marcus 写道。“最终,尽管我们看到了关于在美国治理 AI 的讨论,但我们大多只有自愿指南,几乎没有实质性的东西,这并非巧合。”
鉴于明显的危险和大型科技公司的自利行为,能做些什么呢?
在最后一部分,Marcus 反思了如何应对当前的危险和科技文化中的误导与自私。尽管他作为专家在美国国会作证,但他对政策世界来说仍是一个局外人。
因此,他没有提供应该发生什么的蓝图,但他确实提出了一些显然有意义的建议——大部分情况下。
例如,版权法应该更新以适应 LLMs 时代。
“现在应该更新这些法律,”他写道,“以防止人们以新的方式被剥削,即通过被称为大型语言模型的慢性(近乎)重复者。我们需要更新我们的法律。”
还需要新的法规来保护隐私,以应对“监控资本主义”,这种资本主义使用传感器吸收所有人的数据。
“截至撰写本文时,没有联邦法律保证亚马逊的 Echo 设备不会在你的卧室里窥探,也没有保证你的汽车制造商不会将你的位置数据出售给任何询问的人,”Marcus 观察到。
监管世界中最大的漏洞是 1996 年美国国会通过的《通信规范法》第 230 条。第 230 条使包括 Meta 的 Facebook 和 X 在内的在线服务免于对内容(包括残酷、贬低、暴力内容)承担任何责任。它还使这些服务的用户能够霸凌他们的同伴用户,同时以这只是个人意见为借口隐藏起来。
“报纸可能会因谎言被起诉;为什么社交媒体应该被豁免?”Marcus 正确地指出。“第 230 条需要被废除(或重写),为广泛传播的任何内容分配责任。”对此表示赞同。
Marcus 还探讨了广泛的预防措施作为首要原则,包括透明度,不仅要求开源代码,而且在许多情况下强制公司披露如何使用 LLMs 等。
“例如,大型语言模型是否被用于做出工作决策,并以偏见的方式这样做?我们只是不知道”,因为缺乏透明度、可追溯性和问责制,Marcus 观察到。
在 Marcus 探讨的所有可能的风险应对方式中,他的书最强烈地主张设立一个 AI 监管机构——无论是国内还是国际——来处理这项任务的复杂性。
立法过程太慢,最终无法解决当前的危害,Marcus 写道。“诉讼可能需要十年或更长时间,”正如他在 2023 年在美国参议院的证词中所观察到的那样。他认为,一个机构也可以比立法者“更灵活”。
尽管对 AI 机构的需求不大,他写道,“但另一种选择更糟:如果没有一个新的 AI 机构(或者更广泛地说,数字技术机构),美国将永远处于追赶状态,试图用早已过时的基础设施来管理 AI 和数字世界。”
在主张设立 AI 机构时,Marcus 面临两个挑战。一是证明实质性危害。仅仅展示风险,如 Marcus 在前 50 页中所做的,是一回事;然而,所有这些风险都必须加起来足以引起公众舆论和立法者的紧迫感。
现代监管历史表明,规则和机构只有在证明巨大危害后才会被创建。1933 年的《证券法》在 1929 年股市崩盘后出台,该崩盘抹去了整个财富并摧毁了全球经济,对上市公司提出了严格要求,以保护投资公众。
国际原子能机构在广岛和长崎的原子弹造成 20 万人死亡后成立,以监管核裂变。在较小规模上,美国食品药品监督管理局在 20 世纪初成立,此前记者和进步活动家揭露了受污染物质的巨大危害。
换句话说,政府很少在证明实质性危害之前采取行动促进监管。
Marcus 的前 50 页是否提出了令人信服的案例?尚不清楚。鉴于许多人使用 ChatGPT 等工具,任何关于危害的概念都必须与这些工具的大众吸引力竞争。
设立 AI 机构的最佳理由可能是社会不太可能就危害达成一致。对于 Marcus 等人来说,任何危害都太大,而其他人则首先希望培育新兴技术,而不施加太多限制。
AI 机构可以通过严格记录和跟进报告的危害,并探索理论上的危害,从而超越猜测,全面了解对社会构成的危险,来弥合这一深层次的分歧。
Marcus 呼吁设立 AI 机构的第二个重大挑战是如何定义它应该监管的内容。大多数机构都有一个基于其职权范围的粗略轮廓的授权。
“人工智能”这个术语的问题在于,它从未成为一个真正的术语。Marcus 和其他学者使用这个术语作为简写。但实际上,AI 没有精确的含义。AI 是一个大杂烩,一个包罗万象的术语,适用于任何被认为是 AI 的计算机科学工作。
已故的 MIT AI 学者 Marvin Minsky 创造了“行李箱词汇”一词,指的是可以代表任何人想要包含的内容的表达。AI 是一个行李箱词汇。它可以包括 LLMs,但随着任何软件作为 AI 的营销增加,各种代码都可以被标记为“AI”,无论它是否与 LLMs 有任何共同之处。
这种情况给监管者提出了一个问题:在哪里划定他们的监管权限。
Marcus 的观点是,专家将解决定义问题:“显然我们需要专家,就像我们需要 FDA 或监管飞机一样。”
Marcus 继续说:“我们设法相对较好地解决了‘食品’‘药品’等定义问题。”确实,除了这些东西是真实的东西,可以最终找到定义;AI 不是。
Marcus 敦促我不要“过度思考”这个问题:“每项法规都将有一个与法规相关的范围,例如,[加州州长 Gavin] Newsom 刚刚签署的关于培训和透明度的法案仅涉及训练模型。”他指出。“关于就业歧视的法规应涉及任何用于做出就业决策的算法,无论是训练的还是硬编码的,等等。”
这种方法适用于个别措施,但它并没有解决 AI 机构的授权问题。任何成立的机构都将像 FDA 一样拥有授权。这将证明在 AI 这个充满炒作的模糊术语中是棘手的。
然而,这种情况不应阻止社会设立 AI 机构的项目。Marcus 的主要论点仍然是最有力的:无论人们如何定义这项技术,立法都无法跟上 AI 的扩散。
一个由该领域专家组成的监督机构,拥有监管权力,需要每天保持警惕。
随着唐纳德·J·特朗普在 1 月成为美国总统,华盛顿特权的即将更迭,我问 Marcus 他对这样一个机构成形的几率有何看法。
他不乐观:
“美国绝对需要一个 AI 机构——既为了鼓励和利用创新,也为了减轻 AI 的风险,如错误信息、歧视、网络犯罪、环境破坏和广泛的知识产权盗窃。我担心特朗普政府会忽视这些风险,让它们升级,让社会承担这些风险。我非常希望我是错的。”