过去几年,主要科技公司一直认为,只要为人工智能投入更多计算能力,就能实现通用人工智能(AGI),即与人类认知相当甚至超越人类认知的系统。但最近对人工智能研究人员的一项调查显示,越来越多的人怀疑,无休止地扩大现有方法是否是正确的前进道路。
Wi~?2-!
hxw6^EA 最近对475名人工智能研究人员进行的一项调查显示,76%的人认为在现有人工智能模型中添加更多计算能力和数据“不太可能”或“非常不可能”实现AGI。
U0N6\+ 5 (q4o` 这项由人工智能促进协会(AAAI)开展的调查显示,人们的怀疑情绪日益高涨。尽管已投入数十亿美元建设大型数据中心和训练越来越大的生成模型,但研究人员认为,这些投资的回报正在减少。
*fLVzYpo
?dk)2 加州大学伯克利分校的计算机科学家、该报告的撰稿人斯图尔特·拉塞尔(Stuart Russell)告诉《新科学家》杂志:“在扩展方面投入了巨额资金,却没有付出任何同等的努力去了解到底发生了什么,在我看来,这似乎是错误的。”
Le,;)Nd wX
<ov0?[ 数字说明了一切。据TechCrunch报道,仅去年一年,生成式人工智能的风险投资就超过560亿美元。这一推动也导致了对人工智能加速器的巨大需求,2月份的一份报告指出,到2024年,半导体行业的规模将达到惊人的6260亿美元。
3 [O+wVv 20:![/7:! 运行这些模型始终需要大量能源,而且随着规模的扩大,需求也只增不减。因此,微软、Google和亚马逊等公司正在争取达成核电协议,为其数据中心提供能源。
sn'E}.uhXH \"Qa)1| 然而,尽管投入了巨额资金,尖端人工智能模型的表现却停滞不前。例如,许多专家认为,OpenAI的最新模型与前代模型相比,只显示出微小的改进。
KcpQ[6\ oTTE<Ct[ 除了怀疑之外,调查还凸显了人工智能研究人员优先事项的转变。虽然77%的人优先考虑设计具有可接受风险收益特征的人工智能系统,但只有23%的人专注于直接追求AGI。此外,82%的受访者认为,如果AGI由私人实体开发,则应由公众拥有,以减轻全球风险和道德问题。然而,70%的人反对在建立完整的安全机制之前停止AGI研究,这表明应采取谨慎但向前迈进的方法。
sy6[%8D$ i\#?M " 正在探索更便宜、更有效的扩展替代方案。OpenAI已经尝试了“测试时间计算”,其中AI模型在生成响应之前花费更多时间“思考”。这种方法无需大规模扩展即可提高性能。不幸的是,普林斯顿大学计算机科学家Arvind Narayanan告诉《新科学家》,这种方法“不太可能成为灵丹妙药”。
}5Km \OI L_M(Lj 另一方面,Google首席执行官桑达尔·皮查伊等科技领袖仍保持乐观,声称该行业可以“继续扩大规模”——尽管他暗示人工智能唾手可得的时代已经结束。
C[><m2T