當前位置: 華文世界 > 科技

為什麽通用人工智能超越了深度學習

2024-02-19科技

AGI可以像人類一樣學習和執行智力任務。人工智能的快速發展,特別是在深度學習方面,激起了人們對AGI出現的樂觀和擔憂。包括 OpenAI 和 Elon Musk 的 xAI 在內的幾家公司都致力於開發 AGI。這就提出了一個問題:當前的人工智能發展是否正在走向AGI?

也許不是。

深度學習的局限性

深度學習是一種基於人工神經網絡的機器學習 (ML) 方法,用於 ChatGPT 和許多當代人工智能。由於它能夠處理不同的數據類別和減少對預處理的需求,以及其他好處,它越來越受歡迎。許多人認為深度學習將繼續發展,並在實作AGI方面發揮關鍵作用。

然而,深度學習有局限性。需要大型數據集和昂貴的計算資源來建立反映訓練數據的模型。這些模型推匯出反映現實世界現象的統計規則。然後,將這些規則套用於當前真實世界的數據以生成響應。

因此,深度學習方法遵循以預測為重點的邏輯;當觀察到新現象時,它們會重新推匯出更新的規則。這些規則對自然界不確定性的敏感性使它們不太適合實作AGI。2022 年 6 月,一艘巡航 Robotaxi 墜毀事件可歸因於車輛遇到了缺乏訓練的新情況,使其無法確定地做出決定。

「假設」難題

人類是AGI的模型,它不會為現實世界的事件建立詳盡的規則。人類通常透過即時感知世界來與世界互動,依靠現有的表征來了解情況、背景和任何其他可能影響決策的偶然因素。我們不是為每個新現象構建規則,而是重新利用現有規則,並在必要時對其進行修改,以便進行有效決策。

例如,如果您沿著森林小徑徒步旅行,在地面上遇到一個圓柱形物體,並希望使用深度學習來決定下一步,則需要收集有關圓柱形物體不同特征的資訊,將其分類為潛在威脅(蛇)或非威脅(繩索),並根據此分類采取行動。

相反,人類可能會開始從遠處評估物體,不斷更新資訊,並選擇從在以前的類似情況下被證明有效的行動「分布」中得出的穩健決策。這種方法側重於根據預期結果來描述替代行動的特征,而不是預測未來——這是一個微妙但獨特的區別。

實作AGI可能需要從預測演繹轉向在預測不可行時增強歸納的「如果......」能力。

深度不確定性下的決策是一條前進的道路?

深度不確定性 (DMDU) 方法下的決策,如魯棒決策,可以為實作 AGI 對選擇的推理提供概念框架。DMDU方法可以分析各種未來場景中潛在替代決策的脆弱性,而無需對新數據進行不斷的重新訓練。他們透過查明那些未能達到預定結果標準的行動中常見的關鍵因素來評估決策。

目標是確定具有穩健性的決策,即在各種未來中表現良好的能力。雖然許多深度學習方法優先考慮在面臨不可預見的挑戰時可能會失敗的最佳化解決方案(例如在面對 COVID-19 時最佳化的即時供應系統),但 DMDU 方法更看重強大的替代方案,這些替代方案可能會以最佳性換取在許多環境中實作可接受結果的能力。DMDU方法為開發能夠駕馭現實世界不確定性的人工智能提供了一個有價值的概念框架。

開發全自動駕駛汽車(AV)可以展示所提出的方法的套用。挑戰在於駕馭各種不可預測的現實世界條件,從而在駕駛時模仿人類的決策技能。盡管汽車公司在利用深度學習實作完全自主方面進行了大量投資,但這些模型在不確定的情況下往往難以實作。由於對每種可能的情況進行建模並考慮故障是不切實際的,因此解決 AV 開發中不可預見的挑戰正在進行中。

穩健的決策

一種潛在的解決方案是采用穩健的決策方法。自動駕駛傳感器將收集即時數據,以評估特定交通場景中各種決策的適當性,例如加速、變道、制動。

如果關鍵因素引發了對演算法死記硬背反應的懷疑,系統就會評估給定上下文中替代決策的脆弱性。這將減少對大規模數據集進行重新訓練的迫切需求,並促進對現實世界不確定性的適應。這種範式轉變可以透過將註意力從實作完美預測轉移到評估自動駕駛汽車必須做出的有限操作決策來增強自動駕駛汽車的效能。

決策背景將推動AGI

隨著人工智能的發展,我們可能需要擺脫深度學習範式,強調決策上下文對邁向AGI的重要性。深度學習在許多套用中取得了成功,但在實作AGI方面存在缺點。

DMDU方法可以提供初始框架,將當代人工智能範式轉向強大的、決策驅動的人工智能方法,這些方法可以處理現實世界中的不確定性。