當前位置: 華文世界 > 科技

為什麽比爾·蓋茲認為人工智慧需要一定的自我意識?

2024-07-21科技

來源:36氪

編者按:比爾·蓋茲認為,人工智慧不具備整體性思維,缺乏「元認知」,也就是說無法思考自己的思想。因此在未來,人工智慧需要一定的自我意識才能取得突破性進展。本文來自編譯,希望對您有所啟發。

1. 比爾·蓋茲表示,「元認知」是人工智慧的下一個前沿領域。

關於人工智慧的報道和寫作讓我對人類大腦的驚人之處有了全新的認識。雖然大型語言模型(LLMs)令人印象深刻,但它們缺乏我們人類認為理所當然的整體思維。比爾·蓋茲在Next Big idea Club播客節目中提出了這個觀點。蓋茲在接受主持人魯弗斯·格裏斯科姆(Rufus Griscom)的采訪時,詳細談到了「元認知」,它指的是一種能夠思考自身思維的系統。蓋茲將「元認知」定義為「從廣義上思考問題,然後退一步想,這個問題的答案有多重要?我如何檢驗自己的答案,哪些外部工具可以幫助我做到這一點?」

這位微軟創始人表示,GPT-4 或 Llama 等現有大型語言模型的整體「認知策略」仍然不夠完善。蓋茲說:「它只是透過不斷的計算來生成每個標記和序列,不會像人類一樣後退一步,然後思考:好吧,我要寫這篇論文,這是我想涵蓋的內容;好吧,我會在這裏做一些闡述,這是我想做的總結,等等。」

蓋茲認為,人工智慧研究人員常用的提高大型語言模型效能的方法(擴大訓練數據,提高計算能力)只會帶來幾次大的飛躍。在此之後,人工智慧研究人員將不得不采用「元認知」策略, 教人工智慧模型更聰明地思考,而不是更努力地思考。

蓋茲說,「元認知」研究可能是解決大型語言模型最棘手問題的關鍵:大型語言模型的可靠性和準確性。他說:「這項技術......將達到超人的水平,但需要加上可靠性限制,我們今天還達不到這個水平......許多新研究都增加了「元認知」的水平,如果做得好,就能解決天才的不穩定性問題。」

2. 美國最高法院對雪佛龍裏程碑式的裁決將如何影響科技和人工智慧?

近日,最高法院對雪佛龍(Chevron)一案的裁決的影響變得越來越清晰,包括它對人工智慧的未來意味著什麽。在 Loper Bright 訴 Raimondo 案中,法院推翻了「雪佛龍原則」(Chevron Doctrine),該原則要求法院尊重聯邦機構對不直接解決爭議中心問題的法規的(合理)解釋。從本質上講,最高法院認為司法機構比行政機構更有能力(也許政治動機更少)填補國會透過的法律中的法律模糊之處。這或許有一定道理,但反方的論點是,行政機構擁有多年的主題和行業專業知識,這使他們能夠更有效地解釋國會的意圖並解決爭端。

正如史考特·羅森伯格(Scott Rosenberg)所指出的,取消「雪佛龍原則」可能會使透過有意義的聯邦人工智慧法規變得更加困難。「雪佛龍原則」允許國會將法規定義為一系列一般性指令,然後由機構專家來定義具體規則,並在實施和執行層面逐案解決爭議。現在,國會將負責提前制定法律的細枝末節,盡力預測未來可能出現的爭議。對於人工智慧這樣一個年輕而快速發展的行業來說,這可能尤其困難。在「後雪佛龍」時代,如果國會透過了人工智慧法規,那麽從現在起將由法院來解釋法律,但屆時行業、技術和參與者都可能發生了根本性的變化。

但並不能保證法院會迎接挑戰。只要看看高等法院的決定就知道了,它有效地推翻了德克薩斯州和佛羅裏達州管理社群網路內容稽核的法規的合憲性。莫卡特斯中心人工智慧研究員迪恩·鮑爾指出:「鑒於人工智慧的興起,他們不願意解決社交媒體(一種成熟的技術)上的此類爭議,這可能會帶來更棘手的法律問題。」

3. Figma 的新 AI 功能似乎復制了蘋果的設計。

設計應用程式制造商 Figma 暫時關閉了其新推出的 "Make Design "功能,因為有使用者發現該工具生成的天氣應用程式使用者體驗設計與蘋果公司的天氣應用程式極為相似。生成式人工智慧模型的這種復制通常表明其在某一特定領域的訓練數據不足,導致過於依賴單一的、可辨識的訓練數據,在本例中就是蘋果的設計。

但 Figma 執行長迪倫·菲爾德(Dylan Field)否認自己的產品在訓練過程中接觸過其他套用設計。「正如我們公開解釋的那樣,該功能使用現成的大型語言模型,結合我們委托這些模型使用的設計系統,」 菲爾德表示,「這種方法的問題......是可變性太低。」 轉譯一下,也就是說,承認「Make Design」的系統訓練不足,但這不是Figma的錯。

譯者:Teresa