数据库 频道

AI代理、AGI、ASI 和“推理”等人工智能流行术语真正的含义是什么

  如果您曾参与过 AI 讨论,无论是在研究、行业还是浏览网页,您可能已经遇到过诸如AI 代理、AGI、ASI 和推理等流行术语被广泛使用。但这些术语真的有意义吗?还是它们只是助长了炒作周期和误导性对话?

  简短的回答是:截至目前,其中一些术语具有明确的技术含义,而其他一些则更具推测性或误导性。它们在公共言论中的使用方式很重要——因为当炒作超过现实时,它可能会对现实世界产生影响。

  1.人工智能代理:功能性和有形性

  让我们从一个真正有意义的术语开始。

  AI 代理是一种能够感知环境、做出决策并采取行动以实现特定目标的系统。这一概念是 AI 研究的基础,适用于从简单的基于规则的机器人到复杂的强化学习系统等所有领域。

  例如,谷歌的 DeepMind AlphaZero是一个经过训练的 AI 代理,可以掌握国际象棋、将棋和围棋。它会接收棋盘状态,评估潜在动作,并根据学习到的策略选择最 佳行动。这是该术语的明确、实用的用法——无需大肆宣传。

  2.AGI:不断滑动的移动目标

  通用人工智能 (AGI)是指能够执行人类所能执行的任何智力任务的人工智能。与当今的狭义人工智能(擅长翻译、图像识别等特定任务)不同,通用人工智能将灵活、适应性强,并且能够在多个领域进行自主学习。

  问题是什么?AGI 并不存在。

  并且取决于你问的是谁,它可能是:

  1、我们正在慢慢接近这个目标(根据 OpenAI 和 DeepMind 的说法)。

  2、这是一个遥远的梦想,更多的是关于进步而不是事件(根据Meta 首席人工智能科学家Yann LeCun 的说法)。

  3、这是一个可能永远无法实现的技术幻象(人工智能理论家加里·马库斯)。

  Meta 首席人工智能科学家 Yann LeCun 对 AGI 的到来表示怀疑,称 AGI 的出现不会是突然事件,而是一个渐进的发展过程。他强调,目前的人工智能系统,包括大型语言模型,还远未达到人类水平的智能。

  与此同时,《人工智能:一种现代方法》一书的合著者斯图尔特·拉塞尔警示称,对通用人工智能的热潮可能会导致不可靠的人工智能系统过早部署——这是一种现实世界的风险,我们已经在有偏见的人工智能模型和产生幻觉的聊天机器人中看到了这种风险。

  结论是,AGI 更像是一个不断变化的目标,而不是一个具体的里程碑。

  3.ASI:超级智能的 AI 幻想

  如果说 AGI 只是推测,那么超级人工智能 (ASI)则完全是科幻小说(截至目前)。

  ASI 指的是在所有领域(科学发现、创造力、社交智能、战略规划等)不仅匹敌人类智能,甚至超越人类智能的人工智能系统。从《终结者》到伊隆·马斯克对人工智能末日的存在主义警告,人工智能霸主的场景都应运而生。

  但问题是:没有任何技术证据表明我们正在走向 ASI 的道路。

  如果你问像Murray Shanahan(DeepMind)这样的人工智能研究员,他会说我们对人类智能的了解还远远不够,无法复制它,更不用说创造超越它的东西了。

  围绕 ASI 的炒作不仅具有误导性,而且会分散注意力。它将人们的注意力从真正的、直接的 AI 风险上转移开,例如:

  ·人工智能偏见

  导致歧视性结果。

  ·自动化取代了工人,而没有足够的政策回应。

  ·错误信息通过人工智能生成的内容传播。

  关注假设的超级智能可以减轻公司和政策制定者解决这些紧迫问题的压力。

  4.人工智能“推理”:营销成分大于现实

  目前,人工智能话语中最大的误称之一就是声称 GPT-4 或 Gemini 等模型可以“推理”。

  当今的人工智能从根本上来说属于统计模式匹配,而非真正的推理。当人工智能系统“推理”时,它实际上是:

  ·根据训练数据做出高概率的猜测。

  ·完成文本中的模式而不是得出合乎逻辑的结论。

  ·不理解为什么答案正确或不正确。

  例如,在 2023 年的 AI 基准测试中,大型语言模型在解决人类儿童可以解决的基本逻辑难题时遇到了困难。尽管它们生成的文本听起来像是推理驱动的,但它们却无法实现分布外泛化——这是真正智能的一个基本方面。

  加里·马库斯(Gary Marcus)很好地总结了这一点:

  “这些模型不具备推理能力,它们只是重复而已。”

  所以下次有人告诉你人工智能会“推理”时,你要问:推理是什么样的?如何衡量?

  人工智能炒作对现实世界的影响

  为什么这一切如此重要?因为语言塑造感知,感知推动政策、投资和公众信任。

  1. 错误信息和公众困惑

  当科技公司在营销材料中大肆宣扬 AGI 和 ASI 时,公众对人工智能实际能力的理解就会被扭曲。人们开始认为我们即将拥有自我意识的机器,而实际上,当今的人工智能甚至很难在不产生幻觉的情况下可靠地总结一份文件。

  2. 承诺过多,交付不足

  炒作会导致不切实际的期望——以及失望。投资者向无法立即实现目标的“AGI 初创公司”投入了数十亿美元。政策制定者追逐科幻场景,而不是监管实际危害。

  以IBM Watson为例,它曾被吹捧为将改变医疗保健行业的革命性人工智能。由于未能达到预期,该项目失败了,留下了人们的质疑。

  3. 政策和道德被边缘化

  有关人工智能监管的辩论政府经常陷入对 AGI 和 ASI 的长期担忧,而数据隐私、偏见和算法责任等真正的道德问题仍未解决。

  Stuart Russell警告称,人工智能安全讨论必须关注实际风险,而不是假设风险:

  “超级智能 AI 是一个有趣的思想实验,但真正的挑战是确保当今的 AI 系统与人类价值观相一致。”

  行动呼吁:促进关键参与

  为了了解复杂的人工智能术语及其含义,采取批判性视角至关重要:

  ·明确定义:

  寻求与人工智能相关的术语的精确解释,以了解其具体含义和局限性。

  ·评估能力:

  评估人工智能系统实际上能做什么以及所声称能做什么,区分当前的功能、未来的能力和推测的潜力。

  ·问题动机:

  考虑谁会从某些人工智能能力框架中受益,以及这些描述是否服务于营销、资金或其他利益。

  通过批判性地研究人工智能术语并质疑所呈现的叙述,我们可以促进更明智的公共讨论,指导负责任的政策制定,并确保对人工智能的投资与真正的进步和社会福祉保持一致。

0