當前位置: 華文世界 > 科技

美國家工程院院士張宏江:過於聰明的大模型或帶來災難性後果

2024-03-26科技

南都訊 記者胡耕碩 陳秋圓3月24日,中國發展高層論壇2024年年會召開。在當日下午的議程中,北京智源研究院創始理事長、美國國家工程院外籍院士張宏江出席會議並行表主題演講。他表示,在今天的技術世界中,人們見證著AI大模型技術飛速發展,它重塑了我們的工作方式,在人們的生活中扮演著越來越重要的角色。也因此,他認為,必須設定一些基本的紅線,確保技術的發展不會超出控制。其中包括限制AI系統的自主復制和改進能力,以及禁止利用AI研制大規模殺傷性武器等等。

2024年年初,Sora橫空出世,給世人帶來了極大的震撼。張宏江介紹,Sora之所以能夠一鳴驚人,不僅僅是因為它的逼真,更因為它背後的技術實力——無需3D模型支持,僅憑借大數據驅動,就能夠建立出逼真的三維場景。而反之,多模態大模型也能描述視訊內的內容。

而在如今技術的基礎上,多模態大模型未來的發展將如何?張宏江指出,未來多模態大模型可以被用於做「機器的大腦,用於辨識外圍世界、武裝未來的自動駕駛,從而使資訊系統、模型系統套用到未來的行動系統」——在張宏江看來,這是未來自主機器人的雛形,也是多模態大模型在今天令人震撼的原因。

而大模型勢頭迅猛,短短十個月內跨越語言、多模態、視覺等多種模型,背後的原理為何?張宏江認為,其中重要的原因之一是人們不再將人工智慧作為單個演算法,而是整個系統,「今天的模型不光是規模大,而且具備通用性,很重要的一點是它出現了湧現。」這背後的驅動定律是「規模增長定律」——即不斷擴大的模型規模和數據需求,其規模效應能使大模型對各類問題都具備了處理能力。

技術發展同樣會革新作業系統。大模型的互動界面已經是自然語言,和傳統PC端的互動界面、邏輯並不相同,其產業鏈也不同於其他產業,正在快速成長,賦能於各種軟體工具、人們的工作和生活。

然而,大模型的發展並不全然伴隨著好訊息,相較於此前人們已經耳熟能詳的Deep Fake、假訊息等可管理的問題,張宏江認為,在Gemini1.5和GPT-4.0出世時,已經達到了和人類平均智商相近的水平,繼續發展下去,「過於聰明」的大模型可能帶來災難性的風險。

張宏江以深度學習領域權威專家傑佛瑞·辛頓的觀點進一步解釋道,如今,數位計算本身的效率事實上已經超過了生物計算的效率,因為數位系統可以彼此互相學習,能夠將之前積累的資訊傳遞至其他系統。張宏江認為,很快通用人工智慧就會在各個方面超越人類的智慧。

這意味著,AI的學習能力可能會超過人類,導致人類的工作被機器取代,甚至可能出現人類完全失業的情況。更嚴重的是,張宏江認為,如果AI系統能夠自我改善,可能會對人類帶來深層次的風險。

因此,張宏江認為,在AI發展的過程中,有三條不能跨越的紅線,其中包括用AI協助武器(尤其是大規模殺傷性武器或者生化武器)的研制,網路安全和欺騙。

怎麽保證這些紅線不被越過?張宏江認為,這需要全球AI行業、工業和政府的共同協力推動。只有全球各個機構的協同合作,才能夠保證人類能夠不斷地產生新的規範、法律,來保證這些紅線不被跨越。