权威人士联名呼吁:暂停超级人工智能研发的深层思考

1次阅读
没有评论

共计 983 个字符,预计需要花费 3 分钟才能阅读完成。

从科技巨头到政界名人,数百位权威人士近日联名呼吁暂停超级人工智能研发,引发社会广泛关注。

“在开发这些人工智能系统之前,我们是否征求过人类的同意?”这是未来生命研究所(FLI)发布的公开信《关于超级人工智能的声明》中的核心问题。这封公开信汇集了来自科技、宗教、媒体等领域的数百位知名人士的签名,包括苹果联合创始人史蒂夫·沃兹尼亚克、右翼媒体人史蒂夫·班农、苏塞克斯公爵哈里王子夫妇,以及“人工智能教父”Yoshua Bengio 和 Geoffrey Hinton。

权威人士联名呼吁:暂停超级人工智能研发的深层思考

公开信的核心诉求是:在确保安全性和可控性之前,应当暂停超级人工智能的研发。这一立场基于 FLI 近期的一项民意调查,该调查显示,仅有 5% 的美国人支持快速且不受监管地开发先进人工智能工具,而超过 73% 的人支持对人工智能采取“强有力的”监管措施。

蒙特利尔大学教授 Yoshua Bengio 在声明中强调:“前沿人工智能系统可能在短短几年内超越人类在大多数认知任务上的能力。虽然这可能为解决全球重大挑战提供方案,但也伴随着巨大的风险。我们必须确保公众在决定我们集体未来的决策中拥有更强的发言权。”

然而,这封信也引发了一些争议。首先,关于超级人工智能是否真正可实现的质疑。一些专家认为,这一目标仍遥不可及。其次,信中没有提到的是,即使不达到超级智能水平,现有的人工智能技术已经引发了诸多社会问题,如教育体系的颠覆、虚假信息的传播,以及心理健康危机等。

值得注意的是,一些关键人物并未签署这封信,包括 OpenAI 首席执行官萨姆·阿尔特曼、DeepMind 联合创始人穆斯塔法·苏莱曼,以及 xAI 创始人埃隆·马斯克。马斯克曾在 2023 年签署过 FLI 的公开信,呼吁暂停开发比 GPT- 4 更先进的人工智能模型,但 GPT- 5 已在今年夏天发布,显示这类呼吁的实际效果有限。

尽管如此,这封公开信仍然突显了各方在人工智能监管问题上的广泛共识。FLI 联合创始人安东尼·阿吉雷指出:“人工智能公司正在采取的道路——竞相开发旨在取代人类的超人类人工智能——与公众的期望、科学家认为的安全标准以及宗教领袖认为的道德标准严重脱节。开发这些人工智能系统的人从未询问过人类这是否可行。我们询问了——他们认为这是不可接受的。”

这份公开信是否能够推动人工智能领域的实质性变革,仍有待观察。但毫无疑问,它再次提醒我们,在塑造人类技术未来的过程中,公众的声音不应被忽视。

正文完
 0
admin-gah
版权声明:本文于2025-10-23转载自Futurism,共计983字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码