當前位置: 華文世界 > 科技

人工智慧帶來的恐慌

2024-03-25科技

聯名呼籲暫停AI研究

ChatGPT是由美國人工智慧研究實驗室OpenAI研發的一款聊天機器人程式,於2022年11月30日釋出。這款聊天App上知天文下知地理,不僅能回答你的各種問題,還能根據上下文進行互動,做到幾乎與真人無異的交流。此外,ChatGPT還能幫助你撰寫信件、視訊指令碼、文案、程式碼、論文以及完成轉譯等任務。一項調查顯示,用ChatGPT寫的文科類大學生論文作業的品質,要高於大學生的平均水平。截止2023年1月,美國89%的大學生都在用ChatGPT做作業。在ChatGPT釋出不到3個月,OpenAI又推出了它的升級版GPT-4。GPT-4的功能更強大,學習能力更強。

但是,在GPT-4釋出兩周之後,美國知名科技企業家馬斯克和上千名科技界、商業界人士聯名,發表了一封公開信,呼籲所有人工智慧實驗室立即暫停研制比GPT-4更強大的人工智慧系統至少6個月。

馬斯克等人寫這封信的意圖不是為了阻止人們進一步研究AI——他們知道沒有人能做到這一點,他們擔憂的只是近期AI研究的突然加速,讓人類面臨的許多風險可能一下子都處於失控狀態,需要留給我們時間去權衡利弊和制定必要的規則。換句話說,他們覺得AI這輛「車」跑得太快了,而前方的「霧」太大,為了安全起見,不妨暫停一下,看清楚了「路況」再走。

基於這種認識,該公開信連續丟擲了四個問題:

1、我們是否應該讓機器用宣傳和謊言淹沒我們的資訊渠道?

2、我們是否應該讓所有的工作自動化,包括那些令人滿意的工作?

3、我們是否應該發展最終可能在數量上超過我們、在智慧上超越我們、能夠淘汰並取代我們的非人類思維?

4、我們應該冒著失去對我們文明控制的風險嗎?

這四個問題一個比一個嚴重。概括地說,前兩個問題涉及AI的短期風險,後兩個問題涉及AI的長期風險。

短期風險一:真相被謊言淹沒

讓我們先聊一聊AI制造和傳播謊言這件事兒。

2023年3月18日,美國前總統川普發了一個聲明,聲稱自己「第二天就會被逮捕」。第二天,雖然這事並未發生,但還真有不少人用基於GPT-4的影像編繪技術編造了「川普被捕」的「照片」,這類有圖有文的報道幾乎到了以假亂真的地步。

我們每個人都不是神,對於遠方發生的事情,或者過去年代發生的事情,要想了解只能聽人家報道或轉述,至於真假則由自己去判斷。如果語言或文字還不足以讓我們做出判斷,我們還可以求助於圖片、視訊,但除此之外,就沒更多的招數了。可是現在,圖片、視訊也可以合成了;而且借助於AI,一個有圖有文的假新聞幾秒鐘內就能炮製出來;雖然有時也會被人揭穿,但足以一時混淆人們的視聽。更要命的是,大量這類釋出在網上的假資訊,又會被後人采用(因為時過境遷,後人很難判斷真假),更有甚者,被別的AI采用。於是,你編造的假資訊被我采用,我在此基礎上又編造出假資訊被他人采用……如此雪球般地滾下去,不遠的將來,真相將完全被假象淹沒,公眾喪失驗證資訊真假的手段。

這樣發展下去,造成的一個嚴重後果是社會的撕裂,即對同一件客觀上發生(或沒發生)的事情(比如希特勒屠殺猶太人這件事),立場不同的人們對於真相再也達不成共識,因為誰也說服不了誰:你有文字?我也有文字!你有圖片?我也有圖片!你有視訊?我也有視訊!

這種前景是非常可怕的。歷史上有前車之鑒,那就是在歐洲由於印刷術的普及,導致的數百年宗教戰爭。

中世紀的歐洲,雖然全民信基督教,但是最初由於書籍的昂貴,普通人是接觸不到【聖經】的,所以對【聖經】的最終解釋權,掌握在教皇和高級僧侶手裏。大家聽命於一個權威,倒也相安無事。但是到了中世紀後期,隨著印刷術的普及,書籍制作的成本大大下降,【聖經】開始進入尋常百姓家;這樣一來,每個人都可以按自己的意思去理解「上帝的話語」,教皇的權威就被嚴重削弱了。當人們彼此意見不合,又沒有一個權威可充當裁判的時候,就只好透過武力來解決了。雖然從今天來看,印刷術的普及當然是好事,但在當時造成的破壞性,是不容小覷的。

在互聯網時代,當真相被謊言淹沒,社會也將面臨著同樣的風險。而我們要知道,在核武器的時代,戰爭的殘酷性是不可同日而語的。

短期風險二:大量工作被AI取代

當AI發展起來,大量的人類工作將被AI取代,這也幾乎是毫無懸念的事情。

現在的很多工廠雖然以機器生產為主,但操作還需要人工。可是在未來,AI機器人會取代這一切,無人工廠會成為主流,勞動密集型行業的大量工人將面臨失業。

除了體力勞動會被AI取代之外,很多文職工作也將被AI取代,比如律師這個行業。在現代,律師是一個高學歷的行業,也是從業人員非常龐大的一個群體。可是在未來,AI可以在30秒內做出準確率高達90%的法律顧問工作。人類律師的準確率也不過是70%,而且效率遠遠比不上AI。

除了律師行業,未來的醫生行業也會基本被AI取代。我們現在看病,都需要去醫院讓醫生給診斷,可是未來的AI醫生能快速學習所有的醫學知識和臨床經驗,它在一分鐘內就能處理分析上千萬個數據病例,從而給出一個準確的診斷,這是人類醫生望塵莫及的。而且智慧機器人還可以進行各種高難度手術,其成功率也遠高於人類醫生。可以說在未來醫院只會留有極少數的人類醫生,之所以還需要少數的人類醫生,是因為跟病人情感上的交流還需要人類醫生來完成。

所以,人類的工作被AI取代是全方位的,不僅簡單重復的體力工作會被AI取代,復雜的腦力勞動(如上述的律師、醫生的職業)也會被AI取代。最近,英國牛津大學的一份調查報告顯示,目前美國人的工作,有47%會在未來的10年到20年內被AI所取代,在中國,這一比例更是高達77%。未來50年,AI將徹底改變世界的樣貌。你將會看到更多的無人商店、自動駕駛汽車、AI服務員,甚至AI廚師、AI設計師等。只有少數特別需要創造力或與人溝通能力的工作才會為人類保留。

到那時,我們將何去何從?要知道工作自古以來是人類生存的根本,且不說沒工作就沒收入,就算屆時國家養活我們,但大量的人口無所事事,也會造成嚴重的社會問題,甚至引發劇烈的社會動蕩。

短期風險三:黑客

我們知道,網路世界的最大威脅是黑客。人類的黑客可以透過層出不窮的手段來入侵你的電腦、手機,盜取你的銀行卡密碼、個人資訊。黑客還可以入侵能源、交通等公共管理平台,使其癱瘓、失靈。一些黑客甚至有能力入侵一個國家的武器控制系統。

但比起未來的AI黑客,人類黑客的威脅就小到忽略不計了。因為AI本質上就是一個程式,可一天24小時「暢遊」於網路世界;它又可以不斷前進演化,其資訊收集能力、學習能力都是人類黑客望塵莫及的,入侵系統對它們來說根本不是什麽難事。

這一後果想想都害怕。我們知道,現在的飛機、火車、地鐵都是靠智慧平台排程的,正在蓬勃開發中的無人駕駛汽車,也依賴智慧系統。此外,人類的金融交易也完全依賴智慧系統。如果這些智慧系統被恐怖分子控制的AI黑客攻破了,後果不堪設想。

不過,最可怕的還是控制核彈發射的系統被黑客攻破。據聯合國保守統計,全世界的核彈存量有1萬枚以上。它們中的任何一枚都可以將一座城市夷為平地,讓放射性廢物大面積汙染環境。雖然這些核彈無法瞬間消滅人類,但核彈爆炸產生的遮天蔽日的塵埃,會誘發核冬天,導致全球糧食生產體系崩潰,其後果是大量人口死亡。

長期的風險:失控

至於AI的長期風險,可以用一個詞概括:失控。

「失控」這個概念的本質在於風險資訊與發展速度之間的不對稱。就像一輛迷霧中高速行駛的汽車,司機不是不想規避前方路上的危險,而是那些危險在遠處時你根本看不到,等你看到時,不及你反應,就已經撞上去了。以這個比喻而論,前面提到的幾個短期風險以及公開信中提到的「人類被邊緣化」,其實都還只是我們已經「看到的危險」。而真正致命的風險或許還藏在我們看不到的地方,而當它凸顯時,我們可能已經閃避不及了。

至於這個危險會是什麽樣子,倒是已經有了一些大而泛之的猜想,比如著名的「曲別針制造機」假說。該假說假定一台人工智慧接受指令「制造曲別針」,如果它過於智慧,擺脫了人類的控制,它就會窮盡地球上所有的資源,不知疲倦地去完成「制造曲別針」這個命令,最終因為將可用資源罄盡一空,而導致人類、AI自身、乃至整個世界的滅亡。

類似的情況,雖然在人類歷史上沒有發生過,但在整個生命演化史上還真發生過。比如6億年前的「雪球地球事件」,冰凍封住了整個地球,地球的平均氣溫降低到了零下50℃,所有生命幾乎滅絕。究其原因,是當時大量繁殖的原始藻類因為缺乏天敵的制約,無限度地進行光合作用,榨幹了大氣中的二氧化碳,導致地球存不住熱量。如果不是後來的地殼運動重新讓地球解凍,可能地球生命演化史就這麽早早結束了。

讀到這裏,你或許會說,難道我們就不能教會AI「做事要適度」這個道理嗎?

說實話,這很難。人類的一切行為規則,包括「做事要適度」這個道理,組成了我們所謂的倫理道德。而人類的倫理道德是經過數百萬年的前進演化和實踐,與自然反復賽局之後才確立起來的。比如在古代,為什麽幾乎所有民族都禁止近親結婚,那時候的人們又不懂得什麽遺傳學?因為他們從實踐中知道,近親結婚容易產下低能的後代。

可是,人類的這套行為規則註定是無法用幾行程式碼傳達給AI的。譬如你要教AI「做事要適度」,可是怎樣才算適度呢?你得給「適度」下一個準確的定義,AI才好去執行。但給「適度」下一個準確的定義跟給「禿頭」下個準確的定義一樣困難:頭上一根頭發都沒有固然是禿頭;但有一根頭發,算不算禿頭;有兩根頭發,算不算禿頭……

當然,也不排除這種可能:AI經過長期的前進演化和反復的實踐,或許有一天也能掌握人類的這套行為規則。但我們還是需要擔心,在AI習得這套規則之前,人類會不會被它們折騰沒了。

再退一步講,即便AI最終能夠形成一套自己的行為規則,但這套規則到底如何,對人類是否有利,我們恐怕也無從置喙了。道理很簡單,如果AI最終在智慧上遠超人類,那麽人類必然無權替AI界定它們該怎麽行動。倒是很可能反過來,由AI告訴人類該做什麽,不該做什麽。因為一個在智力上遠弱於對方的物種,是無法替對方制定其行動準則的,就像假如你家的貓會說話,你也不可能讓它告訴你該做什麽、不該做什麽。因為你知道,即便它對你懷著極大的善意,但人類的很多事情,遠遠超過了它的理解能力。

AI的發展如果失控,未來人類和AI的關系很可能就是這樣。它們未必會像科幻作品中描寫的那樣造我們的反,滅絕我們,卻有可能把我們當作寵物來養;人類雖然不至於滅亡,但那個世界已經不屬於我們了。人類現在之所以是地球的主人,不是因為我們是所有物種中最強壯,或跑得最快,或個頭最大的,而是因為我們是最聰明的。如果我們不再是最聰明的,我們還能保證自己繼續是地球的主人嗎?

這就是馬斯克等人提議暫停AI研究的根本原因:趁我們現在還掌握著主動權,抓緊為AI的發展制定規則,確保其研究朝著有利於人類的方向發展,以免有一天失控,我們親手為自己培養出一個掘墓人。

關於AI的一個認識誤區

最後,澄清一個關於AI的認識誤區。

有人說,當前的AI距離擁有人類的意識還有十萬八千裏,我們何必早早就杞人憂天呢?

事實上,大多數人工智慧領域的專家都認為,一個超級智慧的AI即便在未來也不太可能表現出像愛或恨這樣的人類情感,而且沒有理由認為AI會惡意對待我們。但盡管如此,基於它們的能力,它們對人類還是有很大的風險。

舉個例子。如果你在路上開車,你作為一個人,對顏色、聲音等當然有自己的主觀意識。但是自動駕駛汽車有主觀意識嗎?恐怕你會說沒有。不過,如果你被一輛無人駕駛汽車撞倒了,它是否有主觀意識對你來說沒有區別。另一個例子是熱尋飛彈(透過紅外線跟蹤的飛彈),你也不能說它有意識,它只是被武器專家設計成執行「一旦探測到人形的紅外線輪廓,就上去炸死他」的指令,但它顯然對我們具有極大的危險。同樣,對我們構成風險的,也不是AI是否擁有人類的意識,而是它的能力。

這些風險中,一種情況是AI被利用來有目的地做一些破壞性的事情:比如前面提到的AI黑客;再比如殺手機器人,這種機器人利用AI來辨識、選擇和殺死特定的目標人群。

另一種情況是AI的程式原本是讓它去做一些有益的事情,但它發展出一種破壞性的方法來實作其目標。比如,你吩咐一輛自動駕駛汽車盡快把你送到機場,為了執行你的命令,它可能會一路橫沖直撞,不顧出車禍的危險把你送到機場;或者抄一條坑坑窪窪但少有人走的近路把你送到那裏,顛簸得你一路嘔吐。這些結果都不是你想要的。如果一個超級智慧系統被賦予一個雄心勃勃的地球工程計畫,它可能會對生態系造成嚴重的破壞;而當人類試圖阻止的時候,它還會把人類視為一種威脅來清除。

明白了這些道理,你就知道,先發制人地研究AI的風險,確保未來AI的研究朝著有益於人類的方向發展,是非常必要的。

不過,即便現在很多人已經意識到了這一點,但或許也為時已晚,魔鬼一旦放出來,要把它收回瓶子可就難啦。因為哪怕一些科技巨頭企業會積極響應馬斯克們的呼籲,暫停AI的研究,但總有一些自私的團體,抱著「哪怕世界崩潰,也要讓我有酒喝」的宗旨,會繼續偷偷地研究的。最後逼得大家都加入這場玩火自焚的競賽中。

所以馬斯克們最後問的那個問題:「我們應該冒著失去對我們文明控制的風險嗎?」——可能不是我們想不想的問題,而是已經在失控了。