共计 3007 个字符,预计需要花费 8 分钟才能阅读完成。
在纽约举行的 AI Dev 25 峰会上,ZDNET 与谷歌 AI 领域的重要人物 Andrew Ng 进行了深入对话,探讨了开发者的未来、负责任的 AI 实践以及通用人工智能(AGI)的过度炒作现象。

由 DeepLearning.ai 主办的第二届年度 AI Dev 峰会于周五在纽约举行,该峰会涵盖了 AI 和软件领域的各个方面。在多个小组讨论和与 ZDNET 的采访中,Google Brain 的创始人 Andrew Ng 分享了他对该领域未来的建议。
AI 已经迅速成为许多开发者的可靠编码助手,以至于许多人开始质疑整个职业的未来。随着团队将初级任务交给 AI 助手,应届毕业生的入门级编程工作正在减少;与此同时,专家们指出这些工具的实际局限性证明工程师永远不会真正被淘汰。
以下是 Andrew Ng 关于如何应对这一不确定的未来、为什么每个人都应该学习编程以及如何进行治理的看法。
编程仍然重要——某种程度上
“因为 AI 编码大大降低了入门门槛,我希望我们能鼓励每个人都学习编程——不仅仅是软件工程师,”Ng 在他的主题演讲中说道。
AI 将如何影响工作和未来仍在展开。尽管如此,Ng 在采访中告诉 ZDNET,他认为每个人都应该了解如何使用 AI 进行编码的基础知识,相当于了解“一点数学”——仍然是一项硬技能,但更广泛地应用于许多职业中的各种需求。
“未来最重要的技能之一是能够准确地告诉计算机你希望它为你做什么,”他说道,并指出每个人都应该掌握足够的计算机语言知识,而不需要自己编写代码。“语法,我们使用的那些神秘的咒语,已经不那么重要了。”
他补充说,他希望欢迎 vibecoders 作为社区成员,即使他们在技术上并不是开发者。但他也不认为这会很容易。尽管他指出“很明显,代码应该与 AI 助手一起编写”,但 Ng 承认,vibecoding——他更愿意称之为“AI 编码”——让他“精神疲惫”。
成为通才
在主题演讲中,Ng 指出,由于 AI 使软件开发变得如此迅速,产品管理——而不是原型设计——成为了推出新产品的新的瓶颈。为了保持 AI 带来的速度,他建议工程师学习一些产品管理技能,以绕过这一瓶颈。
“学习一些产品工作的工程师实际上可以成为一个人的团队,”他说道。
在整个峰会中,这一主题反复出现:所有专业人士——不仅仅是开发者——都应该成为通才。在关于 AI 时代开发的小组讨论中,编码平台 Lovable 的 CTO Fabian Hedin——a16z 最近名单中的黑马初创公司之一——指出,vibecoding 可以使那些在非软件领域有深厚知识的人“比以前更快地迭代”使用编码技能。Arm 的 AI 总监 Laurence Moroney 表示,这可以最大限度地利用原本孤立的专家,这是职场中专业技能功能的一种转变。
Ng 在小组讨论中表示,开发者面临的新挑战将是提出他们想要的概念。Hedin 同意这一观点,并补充说,如果未来 AI 负责编码,开发者在构建产品或工具时应专注于他们的直觉。
“AI 最不擅长的就是理解人类,”他说道。
为什么计算机科学学位不再适合学生
AI 时代编程的现实已经开始影响到那些难以找到工作的研究生。计算机科学曾经被认为是一个万无一失的专业,能够保证高薪职业,但现在却让学生失望,Ng 告诉 ZDNET。
他提到,科技公司在 COVID-19 疫情期间的过度招聘狂潮——以及随后的逆转——是入门级编程工作难以找到的主要原因。除此之外,这也是一个关于毕业生是否具备正确编码技能的问题。
“AI 已经改变了代码的编写方式,但坦率地说,许多大学在调整课程方面进展缓慢,”他说道。“所以,如果一所大学自 2022 年以来没有显著改变其课程,那么他们就没有为今天的市场工作准备好毕业生。”
Ng 表示,他认为大学在不教学生如何优化与 AI 助手合作的情况下授予计算机科学学位是“失职”。
“我实际上感到难过的是,今天仍然有人在获得计算机科学学士学位时,还没有对任何 AI 模型进行过 API 调用,”他说道。对他而言,围绕这一现实重新定位计算机科学学位将弥补准备不足的毕业生与需要 AI 经验的编码员之间的差距。“对于那些确实掌握这些技能的应届毕业生,我们找不到足够多的人,”Ng 说道,这也是他在今年秋天早些时候的一篇 X 帖子中提到的担忧。
公众对 AI 的恐惧
在主题演讲中,Ng 承认“AI 尚未赢得美国人的心”,他指的是公众对 AI 在最坏情况下可能变成什么的普遍看法。几位小组成员呼吁在场的数百名开发者改变这种看法。

“你们对 AI 不是什么有着独特的洞察力,”Equal AI 的总裁兼首席执行官 Miriam Vogel 说道。她敦促开发者不要忽视人们对这项技术的恐惧,而是要积极参与 AI 普及工作,并补充说,如果这种情绪不改善,“我们将会失败”。
Ng 认为,迄今为止,第三方故意制造了 AI 恐惧。
“我认为很多对 AI 的恐惧是由少数企业推动的,他们几乎是在进行公关活动,让人们害怕 AI,通常是为了游说,”他在采访中告诉 ZDNET。“我认为这对 AI 领域和美国开发者的领导地位造成了很大的损害。”
当被问及开发者如何影响这一点时,他表示希望他们能够就哪些有效、哪些无效进行坦率的对话。“如果公众更好地理解它,那么我们都可以对技术得出更理性的结论,”他说道。
许多恐惧源于 AGI,这是一种某种程度上定义不清的、相当于人类智能的概念,OpenAI 和微软等实验室已经将其作为目标,并加大了力度。Ng 长期以来一直认为这些预测被夸大了。
“如果你看看这些 AI 模型的训练过程,就会发现这根本不可能是 AGI——如果你所说的 AGI 是指人类可以完成的任何智力任务的话,”Ng 告诉 ZDNET。“坦率地说,这些系统中的很多知识仍然是由非常聪明的人,用大量数据精心设计出来的。”
安全与治理
在小组讨论中,Ng 承认公众并不真正了解 AI 实验室在做什么,这可能会引发恐慌,但他敦促人们不要“将红队演习变成媒体轰动事件”。Ng 补充说,他不太支持 Anthropic 的安全和治理方式,他认为这种方式有些限制。他强调,与其加强治理努力,不如采用“保证安全”的沙盒环境,作为在不影响速度的情况下实现负责任 AI 的途径。
Vogel 将治理定义为“将原则分解为可操作的工作流程”,而不是创建官僚机构。她更担心的是那些在制定任何治理结构之前就匆忙前进的小型 AI 公司,而不是像 OpenAI 和 Meta 这样的超大规模公司。
监管 AI
“你无法通过通过法规来领导 AI,”Ng 在小组讨论中谈到欧盟的 AI 立法方法时说道。他赞扬了特朗普政府今年夏天发布的 AI 行动计划,该计划使联邦法规保持宽松。
许多 AI 专家对美国缺乏 AI 监管感到震惊。一些人认为,联邦政府在社交媒体平台泛滥时未能对其进行监管,是如果 AI 继续超越立法可能会发生的情况的一个例子。Ng 告诉 ZDNET,他认为这是一个错误的类比。
“我看到的坏监管提案比好的多得多,”Ng 在采访中说道,并补充说,他认为未经同意的深度伪造禁令和 FTC 对使用 AI 扩大“欺骗或不公平行为”的公司的行动是良好 AI 政策的例子。
当被问及是否还有其他联邦层面的法规时,他表示希望从一开始就对大型 AI 公司提出更多的透明度要求。
“当社交媒体上发生很多坏事时,我们中的任何人都不知道。即使是公司内部的人也不真正了解,”Ng 告诉 ZDNET。“如果我们有法规要求最大的公司——只有大公司,这样我们就不会给小型初创公司带来不合理的合规负担——但如果我们要求拥有大量用户的企业提供一定程度的透明度,这可能会给我们更好的信号来发现实际问题,而不是指望运气好有人举报。”