当前位置: 华文世界 > 科技

为什么通用人工智能超越了深度学习

2024-02-19科技

AGI可以像人类一样学习和执行智力任务。人工智能的快速发展,特别是在深度学习方面,激起了人们对AGI出现的乐观和担忧。包括 OpenAI 和 Elon Musk 的 xAI 在内的几家公司都致力于开发 AGI。这就提出了一个问题:当前的人工智能发展是否正在走向AGI?

也许不是。

深度学习的局限性

深度学习是一种基于人工神经网络的机器学习 (ML) 方法,用于 ChatGPT 和许多当代人工智能。由于它能够处理不同的数据类型和减少对预处理的需求,以及其他好处,它越来越受欢迎。许多人认为深度学习将继续发展,并在实现AGI方面发挥关键作用。

然而,深度学习有局限性。需要大型数据集和昂贵的计算资源来创建反映训练数据的模型。这些模型推导出反映现实世界现象的统计规则。然后,将这些规则应用于当前真实世界的数据以生成响应。

因此,深度学习方法遵循以预测为重点的逻辑;当观察到新现象时,它们会重新推导出更新的规则。这些规则对自然界不确定性的敏感性使它们不太适合实现AGI。2022 年 6 月,一艘巡航 Robotaxi 坠毁事件可归因于车辆遇到了缺乏训练的新情况,使其无法确定地做出决定。

「假设」难题

人类是AGI的模型,它不会为现实世界的事件创建详尽的规则。人类通常通过实时感知世界来与世界互动,依靠现有的表征来了解情况、背景和任何其他可能影响决策的偶然因素。我们不是为每个新现象构建规则,而是重新利用现有规则,并在必要时对其进行修改,以便进行有效决策。

例如,如果您沿着森林小径徒步旅行,在地面上遇到一个圆柱形物体,并希望使用深度学习来决定下一步,则需要收集有关圆柱形物体不同特征的信息,将其分类为潜在威胁(蛇)或非威胁(绳索),并根据此分类采取行动。

相反,人类可能会开始从远处评估物体,不断更新信息,并选择从在以前的类似情况下被证明有效的行动「分布」中得出的稳健决策。这种方法侧重于根据预期结果来描述替代行动的特征,而不是预测未来——这是一个微妙但独特的区别。

实现AGI可能需要从预测演绎转向在预测不可行时增强归纳的「如果......」能力。

深度不确定性下的决策是一条前进的道路?

深度不确定性 (DMDU) 方法下的决策,如鲁棒决策,可以为实现 AGI 对选择的推理提供概念框架。DMDU方法可以分析各种未来场景中潜在替代决策的脆弱性,而无需对新数据进行不断的重新训练。他们通过查明那些未能达到预定结果标准的行动中常见的关键因素来评估决策。

目标是确定具有稳健性的决策,即在各种未来中表现良好的能力。虽然许多深度学习方法优先考虑在面临不可预见的挑战时可能会失败的优化解决方案(例如在面对 COVID-19 时优化的即时供应系统),但 DMDU 方法更看重强大的替代方案,这些替代方案可能会以最佳性换取在许多环境中实现可接受结果的能力。DMDU方法为开发能够驾驭现实世界不确定性的人工智能提供了一个有价值的概念框架。

开发全自动驾驶汽车(AV)可以展示所提出的方法的应用。挑战在于驾驭各种不可预测的现实世界条件,从而在驾驶时模仿人类的决策技能。尽管汽车公司在利用深度学习实现完全自主方面进行了大量投资,但这些模型在不确定的情况下往往难以实现。由于对每种可能的情况进行建模并考虑故障是不切实际的,因此解决 AV 开发中不可预见的挑战正在进行中。

稳健的决策

一种潜在的解决方案是采用稳健的决策方法。自动驾驶传感器将收集实时数据,以评估特定交通场景中各种决策的适当性,例如加速、变道、制动。

如果关键因素引发了对算法死记硬背反应的怀疑,系统就会评估给定上下文中替代决策的脆弱性。这将减少对大规模数据集进行重新训练的迫切需求,并促进对现实世界不确定性的适应。这种范式转变可以通过将注意力从实现完美预测转移到评估自动驾驶汽车必须做出的有限操作决策来增强自动驾驶汽车的性能。

决策背景将推动AGI

随着人工智能的发展,我们可能需要摆脱深度学习范式,强调决策上下文对迈向AGI的重要性。深度学习在许多应用中取得了成功,但在实现AGI方面存在缺点。

DMDU方法可以提供初始框架,将当代人工智能范式转向强大的、决策驱动的人工智能方法,这些方法可以处理现实世界中的不确定性。