當前位置: 華文世界 > 科技

AI替代不了科學家,而是其思維的延伸!Wolfram談AI與科研結合

2024-05-06科技

人工智慧能解決科學問題嗎?

隨著近年來 AI 技術的蓬勃發展,AI 在科研領域的套用也越來越廣泛深入,無疑讓許多人們對這一問題持有樂觀的態度,但是,人工智慧最終可以徹底替代人類科學家,幫人類解決所有科學問題嗎?

對此,Wolfram 語言之父、美國電腦科學家 Stephen Wolfram 給出的答案是:NO。

在近期的 Imagination In Action 峰會中,Wolfram 與德國著名電腦科學家與認知科學家 Joscha Bach 對談,發表了他關於這一問題的觀點。

(來源:Imagination In Action)

1. 人工智慧能預測未來嗎?

從歷史上看,一種科學是否成功的決定性特征往往是:它能預測未來會發生什麽嗎?或者說,它能夠找到某個系統執行的基本規則嗎?而目前的人工智慧,似乎並不能完全做到這一點。

Wolfram 認為,其核心就在於,在科學研究中,許多系統執行的規則體現著計算的不可規約性(Computational irreducibility),意即指某些系統或過程無法透過簡化的計算步驟提前得到預測。而目前的人工智慧,就其構造而言,本質上只是在做相當淺層的計算。

如何理解這種計算的不可規約性?

我們的科學理論核心之一在於,可以把一切過程視為計算。系統進行計算,以確定其行為。人類以及我們創造的任何 AI——也必須進行計算,試圖預測或「解決」這種行為。

然而,計算等價原則指出,如果任何兩個問題或函式具有相同的解決方法或計算結果,那麽這些運算在復雜度上是等價的。

這意味著我們無法跳級「速解」系統,要想準確地理解這個系統的行為,總是需要一定的運算輸入。所以,不管人工智慧是否被套用,「科學力」都受限於行為的不可規約的計算本質。

但為何計算不可規約性的存在不妨礙科學取得進展?關鍵就在於,在全域不可規約中普遍存在局部的可規約計算。即系統總有可經有限計算描述的方面,這恰是科學關註點所在。

不過,即使我們將計算局限在可規約的範圍內,自然界出現的現象與問題也總會迫使我們去面對不可規約性計算。

AI 或許能提供途徑,揭示某些可簡化計算,但總有未被計算簡化的未知等待被發現,它始終制約著我們全面「攻克」科學之謎,而 AI 在處理這些計算時就顯得力不從心。

我們可以借助 Wolfram 此前在他所寫的文章中提到的一個例子說明這一點。

假設我們的已有「數據」是這裏的藍色曲線——也許代表的是懸掛在彈簧上的重物的運動,而「物理學」則能讓我們知道延續出來的紅色曲線部份:

(來源:Stephen Wolfram)

現在我們來看一個非常簡單的神經網路:

(來源:Stephen Wolfram)

使用上面的藍色曲線數據對其進行訓練,以得到一個具有特定權重集合的網路:

現在,讓我們套用這個訓練有素的網路來重現原始數據,並對其進行擴充套件:

(來源:Stephen Wolfram)

我們看到,該網路重現出了訓練數據,但卻未能做到「預測未來」。

這是因為我們訓練的時間不夠長嗎?下面是逐步增加訓練回合後的結果:

(來源:Stephen Wolfram)

似乎,這並沒有什麽用。所以問題的原因可能在於,我們的神經網路規模太小了。下面對其進行進一步調整。

(來源:Stephen Wolfram)

更大的神經網路或許會起到一定的作用,但它們並不能解決我們的預測是否成功的問題。神經網路的一個特點就在於其啟用函式:我們如何根據輸入的加權和來確定每個節點的輸出。下面是一些使用各種常用啟用函式的結果:

(來源:Stephen Wolfram)

可以發現,不同的啟用函式導致了不同的預測結果,似乎,其預測的結果只是啟用函式形式的直接反映。

我們當然可以繼續對其加以訓練,不只限於某單一函式,而是訓練整個函式系列——比如三角函式集合,或者 Wolfram Language 中的所有內建數學函式。

這樣,我們當然可以預測出上面的正弦函式,但是,這稱得上是「做科學」嗎?

從本質上說,它只是人類在某一特定領域的典型經驗的自動化的版本。所以,Wolfram 說,人工智慧在「預測」這方面的表現「出乎意料地糟糕」。

他認為,大語言模型等人工智慧等表現出色的地方,從某種意義上說,是那些計算量比我們所知道的要少的方面。

例如,我們能從 ChatGPT 的成功中所了解到的一點,或許就是語言比我們想象的要簡單,語言中的規律性比我們所發現的要多得多。這也是人工智慧能在科學領域的這類問題上取得成功的原因。

但在這些問題中,有一些計算從根本上來說也是不可化歸的。在這一方面,人工智慧的表現並不比我們人類更好,它也無法取得更大的進步。

如果我們要求 LLMs 給出一些沒有那麽精確的回答,例如對某個主題的文獻、對某些事情的看法,那麽它們可以答得很好。

Wolfram 認為,LLMs 擁有一種我們未曾有過的分析文本的能力。

過去,我們可以運用統計學工具得出一大堆數位中的異常值,以及計算平均值或是變異數。

現在,有了 LLMs,我們可以對大量文本進行同樣的處理。我們以前從未有過這種能力,它不能歸為統計,而是一種未被命名的新事物。

人工智慧可以衡量諸如「這些作品的相似程度」「這些神話有多大不同?」等這類人們此前只能透過寫文章來解決的問題,人工智慧有可能可以讓這些問題變得更加明確,而且在某種意義上可以量化。

或許,我們可以期待在人工智慧領域出現一個新詞來命名這種能力。

2. 人工智慧有原創性嗎?

人們可能會比較關心這一問題:人工智慧是否具有原創性與創造力?

實際上,做出原創性的工作是非常簡單的,你只需選擇一堆隨機數。那些隨機數序列非常出人意料、有創意、也很有獨創性,但這對我們來說,並沒有太大意義,我們真正感興趣的是那些有原創性而「有趣」的東西。

舉個例子,假設我們正在進行藝術創作,隨機安排的像素陣列當然是原創的,但它們並沒有太大意義。

如果我們讓 AI 制作一張帶派對帽的貓的圖片,那張圖片的含義會被轉換成一組數位,而這組數位就是生成那張貓的圖片的來源。

(來源:Stephen Wolfram)

如果我們想了解嵌入向量在潛在空間中的不同可能值,嘗試這隨機更改這些數位,這時,在那個可能代表事物含義的數位空間裏會有什麽?我們會看到各種各樣的圖片,但其中大部份是我們無法解讀的。

(來源:Stephen Wolfram)

或許這些圖片大部份看起來有點意思,但我們無法用語言表達其含義(當然,或許某一天會有一種藝術風格就基於這個特定方向和嵌入空間)。

因此,人工智慧有能力發現一些我們意想不到的新奇事物,這其實並不難。不過,我們通常不會這麽做。

一般來說,我們在編寫程式時,都是有明確目標的,我們會按部就班地設計和編寫程式碼,以實作我們想要的功能。

但如果我們不按常規出牌,隨意地編寫程式,那會出現什麽情況呢?結果可能出乎意料:即便是非常簡單的程式,也可能執行一些非常復雜的任務。

當我們觀察到這些程式的效果時,我們可能會驚喜地發現它們非常有用,可以被用來完成某些特定的工作。

這有點像我們在自然界中探索,發現了新的礦物質,意識到這些新材料對我們有實際的用途。在技術領域,尤其是計算世界裏,也同樣如此。

Joscha Bach 總結道,某種意義上,(Wolfram 所說的)科學就是資料壓縮,我們觀察了宇宙的所有動態,然後用幾條定律、幾個微分方程式來表征它們,我們就能理解發生了什麽。

但在這個過程中,還有一個方面超越了資料壓縮,即,當我們在發揮創造力時,我們自身也被改變了。

這一點類似於藝術。藝術的特點在於,你感知某物時,它也改變了你。如果富有創造力,那麽無論我們做什麽,我們都能提出新的想法。重要的是觀察者或創造者本身正在透過這個創造過程發生變化。

但在當前的模型中,似乎還具有一些局限性,它們在創造時(或者說「生成」)時,它們無法根據自身發現的內容進行更新。而這正是人類目前優越於 AI 的地方。

3. 尋找有趣之處

Wolfram 提到,要明確的一點是,關於這個世界的想法是異常豐富的。人類的典型語言中可能有 5 萬個單詞,而這些詞語所表達的,往往都是在我們看來足夠重要的概念,需要用文字來表達,但尚未被言明的還有很多。

關鍵就在於,我們如何去探索,如何去明確我們所感興趣的方向,如何去擴充套件自己,並從中獲得發展。

我們可以借一個例子進行說明。如果我們從數學的公理出發,透過邏輯推理來探索可能的數學定理。這個過程通常涉及兩個步驟。

首先,這裏有許多看起來可能看起來非常「無趣」的定理。

(來源:Stephen Wolfram)

然而,在這些定理中,有時會發現一些特別有趣的定理,它們足夠重要,於是在教科書中被特別命名,例如「冪等律」。

那麽,我們是否有可能預測哪些定理會被特別命名?雖然這可能看起來像是一個歷史問題,但在邏輯學中,似乎有一個系統的模式。

比方說,我們列舉邏輯定理時,從最簡單的定理開始,按詞典順序依次排列。列表中的大多數定理都可以從前面的定理推匯出來,但也有少數定理是不可推導的。

而這些定理基本上就是那些通常得到命名(高亮部份)的定理:

(來源:Stephen Wolfram)

換句話說,至少在基本邏輯這個相當受限的情況下,那些被認為足夠有趣以被命名的定理,是那些給我們帶來新資訊並引起驚喜的定理。

如果我們在更廣泛的「元數學空間」(metamathematical space)中考慮,就可以根據經驗來辨識那些被認為有趣的定理的位置:

(來源:Stephen Wolfram)

人工智慧能預測這一點嗎?

理論上,我們可以使用現有的數學文獻和其中的數百萬條定理來訓練一個神經網路。然後,我們可以將透過系統列舉得到的定理輸入到這個神經網路,讓它評估這些定理作為可能出現在數學文獻中的物件的可信度。

在這一過程中,神經網路甚至可以被用來預測哪些數學探索的「方向」可能是有趣的。

如果任由人工智慧發展,我們可以期待它去探索這個可能的計算世界。

但在尋找「真正的新科學」時,上面的方法可能就有問題了。因為從現有文獻中訓練出來的神經網路基本上會尋找「更多相同的東西」,它所「接受」的是「主流」和「不太令人驚訝 」的東西。

而計算的不可規約性意味著,在探索過程中總會有出人意料的發現,這些發現不容易歸納為已知的模式。它們可能提供新的資訊,甚至可能具有實際套用價值。然而,這些新概念最初可能沒有直觀的解釋,需要人類逐漸理解和接受。

我們選擇內化哪些新事實或新方向,這個過程有一定的主觀性。雖然特定的方向可能引導我們發現新的思想或技術,但在沒有深入探索之前,我們無法確定哪個方向是正確的,這通常是由人類的選擇來決定的。

此外,還存在一個潛在的問題:即使人工智慧對人類心理和社會有足夠的了解,能夠預測我們可能感興趣的內容,但計算的不可規約性仍然意味著我們無法事先完全知道我們最終會喜歡什麽。

因為直到我們真正「到達那裏」,我們才能真正了解我們對某個發現的反應。這意味著,盡管人工智慧可以提供指導和建議,但人類對於決定哪些新概念值得追求仍然扮演著關鍵角色。

在我們的選擇之前,人工智慧或其他任何東西都無法去發現「有趣」的抽象概念。

實際上,尋找「有趣」的方向,也就意味著我們如何探索這種具有計算可能性的空間。

而我們所關心的計算可能性的集合是非常小的,但對於我們文明的未來來說,這才是最重要的。

相比 AI ,人類要做的事情,就是在這個充滿可能性的計算宇宙中,選擇他們認為「有趣」的方向。

科學的作用是什麽?Wolfram 認為其中一點就在於計算宇宙的可能性。我們可以用人類的敘述來解釋某些片段。而很多事情是無法理解的,我們沒有辦法把它簡化成我們可以描述的東西。

4. 讓宇宙透過計算形式化

Wolfram 致力於構建一種計算語言,即 Wolfram Language,這種語言的理念就是讓世界上的事物透過計算形式化。

我們可以認為,這種語言的構建與人類文明行程的演進相呼應,從原始的指物交流到語言的誕生,再到邏輯學與數學的形成,每一步都是對世界的進一步形式化。

Wolfram 的興趣在於,將世界上的各種事物——無論是城市、化學物質、電影、影像還是其他任何東西——用計算的方法表達出來。

他希望打造一種語言模型,能夠以一種簡潔的方式代表世界中的各種事物,為探索未知領域提供工具和符號,從而促進新發現和發明的產生。他的目標是讓這種語言能夠描述盡可能高級的計算過程。

這就有點類似於 500 多年前的數學發展,當時數學符號如加號和等號的發明對代數和微積分的發展起到了關鍵作用,進而推動了現代數學科學和工程學的進步。

Wolfram 談到, ChatGPT 能夠寫出程式碼,實際上代表著很多程式碼都是基於樣版的。

對於他這樣的語言設計者來說,如果 ChatGPT 能夠正確生成樣版程式碼,那麽這些程式碼應該可以簡化為語言模型中的一個函式,而不需要每次都從頭編寫。

而他的目標就是找出人類所關心的、可以打包在一起的計算工作。

LLMs 就可以很好地與 Wolfram Language 結合使用,因為 LLMs 是一種出色的語言互動工具,能夠從我們模糊的思維和對話中捕捉意圖。當然,無論是 LLMs 還是人類,都需要工具來進行實際的計算工作,因為僅憑人類大腦是無法直接進行復雜計算的。

大約一年前,Wolfram 與 OpenAI 合作,在 ChatGPT 中引入了 Wolfram Alpha,它能夠將自然語言及其片段轉換成計算語言並執行計算。

(來源:Stephen Wolfram)

Wolfram Alpha 的一個顯著特點是,當它認為自己正確理解了輸入的自然語言時,它的計算結果就是準確和有意義的。

它會明確表示理解或不理解輸入的內容,當它成功轉換語言並完成計算時,提供的結果正確而有意義。

Bach 指出,這說明,其優點就是不會產生「幻覺」。當我們使用 AI 時,也不會導致我們產生「幻覺」。它能夠幫助我們驗證想法,減少誤解或錯誤的認知。

這一點尤其關鍵,因為 LLMs 是在人類生成的文本上訓練的,並復制與此相似的東西。

很多文字基本上都是對可能存在的現實的幻覺,但你不知道這是否就是你所處的現實,也不知道它在邏輯上是否合理。

那麽,對於那些正在探索如何利用 LLMs 的人來說,是否能夠透過 Wolfram Language 來提升他們的工作效果?如果可能,他們又應該如何著手開始呢?

Wolfram 回應說,我們應該建立一種計算語言,使得人們能夠更自然地進行計算思維。

他指出,大多數軟體工程實際上是一種高級的體力勞動,因為它涉及編寫大量的程式碼。

Wolfram Language 的設計就旨在自動化這些操作,讓人們專註於思考計算本身,而不是編寫程式碼的過程。

Wolfram 強調,這種工作方式與典型的軟體工程有所不同,後者更多關註於程式碼的實際編寫。他認為,學會如何從計算的角度思考問題是人們應該掌握的一項重要技能,盡管這與電腦科學不完全相同。

他還提到,大型語言模型等人工智慧可以作為一個有用的介面,幫助我們更好地理解和表達我們對事物的模糊想法。

例如,當你與 LLMs 進行對話時,它可以嘗試生成 Wolfram Language的程式碼。這些程式碼是人類可讀的計算符號,可以幫助你準確地表達你的計算意圖。

Wolfram 比喻說,如果 LLMs 生成的程式碼符合你的預期,那麽你就能以此為基石,在此基礎上構建整個系統。這並非典型的工作流程,而是一種透過 LLM 來探索如何在計算上表示你所討論內容的方法。

此外,LLMs 還能夠生成程式碼並執行它,然後分析執行時產生的遙測數據。

雖然這些數據對人類來說可能很無聊,但 LLMs 可以利用它們來調整和改進程式碼。

LLMs 就好像一頭「野獸」,問題的關鍵就在於,我們是否能夠正確地引導和利用這些「野獸」以完成有用的任務。

5. 人工智慧會超越人類嗎?

Bach 提出了一個問題,即我們是否能夠將大型語言模型訓練成電腦代數系統,使其能夠進行數學證明?或者,我們是否需要尋找一種全新的方法?

Wolfram 回應說,目前的大多數 LLMs 都是基於前饋網路,它們處理大量文本數據,然後預測序列中的下一個 token。

圖丨多層前饋神經網路(來源:DergiPark)

透過在神經網路中進行叠代,模型能夠給出下一個字元出現的機率,並以此構建出整個文本序列。如果輸入下一個 token 它就會把整個序列如此迴圈往復,其唯一的反饋機制就是這個外迴圈。

繼而 LLMs 能夠呼叫工具並生成某些輸出,而這些輸出實際上就是我們計算語言的輸入。這依舊只是一種弱計算的形式。

LLMs 在執行復雜任務,如數學證明或高級邏輯推理時,通常只能進行基礎的計算操作。

對於數學證明、化學合成或路徑尋找等任務,LLMs 就可能難以提供有效的幫助,因為這些任務需要將多個步驟組合起來以達成特定目標,而 LLMs 在這方面的表現似乎並不算好。

以數學積分為例,LLMs 在處理涉及細微差別和復雜步驟的問題時,可能無法提供充分的幫助。但對於那些需要給出大致方向或概述性資訊的任務,比如預測積分過程中可能涉及的函式型別,LLMs 倒是可以派上用場。

Bach 提出,隨著時間的推移,隨著其所解決的問題越來越復雜,隨著其模仿程度的程度不斷提升,LLMs 在處理數學問題上的表現,或許會越來越優秀。

不過,這些問題通常是基於它們訓練數據中已有的問題,而在人類的邊緣知識中套用時則面臨挑戰。

Wolfram 則表示,如果讓 LLMs 自由發揮去解決數學問題,很可能會出錯。盡管 Bach 認為 LLMs 會隨著時間進步,Wolfram 卻持保留態度。

Bach 指出,像 ChatGPT 這樣的系統能夠透過編寫簡短的 Python 程式來解決掩碼問題,雖然對於需要復雜推理和完整證明的問題,即使是大型的 LLM 也難以處理,但透過分步處理,這些問題仍有可能被解決。OpenAI 目前也非常重視這種長形式推理,並將其作為未來發展的一個重點。

他進一步提問道,Wolfram 傾向於將人工智慧視為人類思維的延伸工具,幫助完成大腦並不擅長的事情。而開放式人工智慧則專註於構建一種可能在所有維度上都超越人類能力的東西,包括進行數理證明。

那麽,在 Wolfram 看來,這種努力是徒勞的嗎?我們是否無法構建出一種取代人類的通用智慧?還是說,我們是否應該專註於建立能夠增強而非取代我們的系統,因為這樣的系統可能對我們更有實際用途?

Wolfram 回應說,盡管電腦可以完成許多計算任務,但關鍵在於如何將這些能力與人類的需求相匹配。

例如,機器學習為何有效?它們為什麽能夠學習和推斷?它們當然能做到超出人類所能掌握的事情,但是問題是,我們如何將其與人類大腦實際想要做的事情聯系起來?(Bach打趣道:「你可以直接提示 LLMs,Stephen Wolfram 會想要什麽?」)

Wolfram 強調,真正的挑戰在於理解人類真正想要從人工智慧中獲得什麽。盡管建立一個輔助的系統聽起來簡單,但實際上要讓它有效並不容易。

歸根結底,LLMs 的終極目標應該是能夠掌握我們所知道的一切,這樣在我們學習新知識時,它們能夠提供即時的幫助,繼而我們可以在已有的知識之上來確定我們需要什麽。

我們是否要制造一種超越人類智慧的事物?

在人工智慧發展的早期,人們曾說,只要你能擁有一台能進行數學計算的電腦,你就有了一台能進行人工智慧的電腦。

現在,我們的確有了,但那還是一種非常非人類的智慧。

參考資料:

[1]. https://www.youtube.com/watch?v=MbyS9H8fLew

[2]. https://writings.stephenwolfram.com/2024/03/can-ai-solve-science/

本文內容不代表平台立場,不構成任何投資意見和建議,以個人官網/官方/公司公告為準。