當前位置: 華文世界 > 科技

「AI教父」本吉奧發聲:人類可能無法用10年時間解決AI風險和政策監管問題|鈦媒體AGI

2024-08-24科技

鈦媒體App 8月24日訊息,被譽為「AI教父」的加拿大電腦科學家、深度學習技術先驅、2018年圖靈獎得主約書亞·本吉奧(Yoshua Bengio)公開表示,隨著ChatGPT的推出,AI技術風險的時間被壓縮,不幸的是,我們無法利用十年的時間解決AI風險和政策監管問題,而是更短的時間,因此行業需要馬上行動,加快AI安全政策落地。

「制定政策需要花費大量時間,它需要解決多年分歧,像這樣的立法都需要數年時間才能頒布,需要建立一些流程,需很多年時間才能真正做好這個工作,」本吉奧對彭博社表示,他現在擔心可能沒有太多時間來「做好這件事」。而且更糟糕的是,AI風險這不僅是監管問題,它更是國際條約,大家需要在全球範圍內解決這個問題。

據悉,本吉奧出生於巴黎,成長於加拿大,現居加拿大蒙特利爾,在蒙特利爾大學(University of Montreal)電腦科學與運算系任教授。他於1991年獲得加拿大麥吉爾大學電腦科學博士學位。本吉奧的主要研究領域是深度學習和自然語言處理。

30余年的深度學習研究生涯裏,本吉奧發表了300多篇學術論文,累計被參照次數超13.8萬次。吳恩達曾表示,本吉奧的許多理論研究對他有很大啟發。

2018年,他與「神經網絡之父」Geoffrey Hinton和「摺積網絡之父」Yann LeCun三人因開拓深度學習技術理論而獲得「圖靈獎」,他們三位也被 AI 行業稱為「AI 三巨頭」、「深度學習三巨頭」、「三大AI教父」。

作為「深度學習三巨頭」之一的本吉奧曾指出,AI一詞正在被濫用,有些公司擬人化了AI系統,仿佛AI系統是與人類相當的智慧實體,但其實目前還沒有出現與人類智慧相當的實體。當然,他依然愛 AI 這一技術。

本吉奧表示,在2022年底ChatGPT出現之前,他認為真正的 AI 風險至少還要幾十年才會出現,他曾經有一段時間並不怎麽擔心AI安全問題,並且認為人類距離開發出能夠與人類匹敵的 AI 技術還有「幾十年的時間」,他假設我們可以在面對風險之前「收獲AI的好處」多年。

但現在,ChatGPT的推出完全改變了他的想法。他不再那麽確定了。他對AI發展速度的假設——以及技術對社會構成的潛在威脅——在2022年底OpenAI釋出ChatGPT後被顛覆了,因為人類水平的 AI 技術已經到來。

「自從我們最終擁有了能夠與我們對話的機器(ChatGPT)後,我完全改變了我的想法,」本吉奧表示,「我們現在有了能夠掌握語言的AI機器。我們沒想到會這麽快就做到這一點。我認為沒有人真正預料到這一點,即使是構建這些系統的人。你可以看到,人們認為我們可能還需要幾年、幾十年甚至更長時間才能達到人類水平的智能。人們普遍認為,一旦我們達到人類水平的智能,就很難預測會發生什麽——我們最終會得到非常非常好的東西還是非常非常壞的東西,以及我們該如何應對。有很多不確定性。這正是我目前在科學和政策方面工作的動力。」

在ChatGPT引發全球關於 AI 風險的討論之後,本吉奧開始投入更多的精力倡導AI監管,並且與同為學術界和 AI 先驅的Geoffrey Hinton一起公開支持一項有爭議的加州 AI 安全法案SB1047,該法案將使公司在不采取安全預防措施的情況下,對其AI模型造成的災難性傷害承擔責任。

本吉奧認為,這是「桌上第二重要的提案」,僅次於歐盟的AI法案。

當地時間8月15日,飽受爭議的美國加州【前沿AI模型安全創新法案】(後稱加州AI安全法案SB 1047)在大振幅削弱相關條款之後,最終順利透過加州眾議院撥款委員會的稽核。

SB 1047旨在透過追究開發者的責任來防止大型 AI 系統造成大量人員死亡或造成損失超過 5 億美元的網絡安全事件。順利透過稽核之後,這意味著,該法案朝著成為正式法律法規邁出了重要一步,也是美國在AI監管上邁出的重要一步。

但是,加州AI安全法案飽受爭議。史丹福大學教授李飛飛、Meta首席科學家楊立昆等人認為,該法案最終將會損害加州乃至美國在AI領域的領先地位,100多位學界人士也發文反對,風投機構a16z專門建立網站細數法案六宗罪。

甚至前美國眾議院議長南茜·佩洛西(Nancy Pelosi)也發聲明反對此法案,認為加州AI安全法案意圖良好但缺乏充分了解,許多重要的加州科技公司學者和負責人都表示反對該法案,認為它弊大於利。

最新一個反對加州 AI 法案的是OpenAI。OpenAI本周發文稱,該立法將損害AI創新,並可能對美國在 AI 和國家安全方面的競爭力產生「廣泛而重大」的影響。

然而,本吉奧卻表示,加州AI安全法案避免了過於規定性,而是使用責任來確保AI公司不會忽視「合理專家會做的」安全預防措施。「它將為公司創造一個激勵,使他們不會成為班上最差的學生。」

本吉奧指出,圍繞 AI 監管的討論可能會受到風險投資家和希望從該技術中獲利的公司的影響。「你可以將其與氣候變遷、化石燃料公司等進行類比,」他說。

「事實並非如此,事實恰恰相反。它沒有那麽大的約束力。它並沒有施加多大影響。它只是說:如果你造成了數十億美元的損失,你就要負責。幾十年來,整個計算領域在某種程度上一直不受任何形式的監管。我認為(反對派)更多的是意識形態。我真的很擔心遊說團體的力量以及 Ai 帶來的數萬億甚至數千萬億的利潤(加州大學柏克萊分校教授、人工智能系統中心創始人Stuart Russell表示)會激勵企業反對任何監管。」本吉奧表示。

談到風險管控,本吉奧指出,「我認為自己對風險持懷疑態度。我聽到過很多很好的論據,認為比我們更聰明的人工智能可能非常危險。甚至在它們比我們更聰明之前,它們就可能被人類以對民主極其危險的方式使用。任何說他們知道的人都過於自信,因為事實上,科學並沒有答案。沒有辦法以可驗證的方式回答。我們可以看到這樣或那樣的論點,它們都是合理的。但是如果你是不可知論者,並且正在考慮政策,你需要保護公眾免受真正糟糕的事情的傷害。這就是政府在許多其他領域一直在做的事情。沒有理由說他們不能在計算和 AI 領域做到這一點。」

本吉奧反復強調,他沒想到人類會這麽快掌握對話式AI語音技術,而且目前至少達到足夠人性化的水平。

「我認為,對危險事物進行快速創新的渴望是不明智的。在生物學領域,當研究人員發現透過所謂的功能獲得研究可以制造出危險的病毒時,他們一起決定,好吧,我們不這麽做了。讓我們要求政府制定規則,這樣如果你這樣做,至少在不受控制的情況下,你就會進監獄。」本吉奧表示,「我相信你知道合成兒童色情制品,也許情感上不那麽具有挑戰性,但更重要的是,同樣的深度偽造可能會扭曲社會。那些深度偽造只會越來越好。聲音會越來越好。影片會越來越好。還有一件事人們談論得不夠:當前甚至未來的系統說服人們改變想法的能力。就在幾個月前,瑞士進行了一項最新研究,他們將 GPT-4 與人類進行了比較,看看誰能說服那些顯然不知道自己是在和人交談還是在和機器交談的人改變對某事的看法。猜猜誰贏了。」

本吉奧指出,「我們應該在AI方面采取類似的預防原則行為。」

展望未來,本吉奧強調,所有AI技術套用依然會以健康方式改變人類的生活方式。比如在生物學方面,AI會了解身體如何運作、每個細胞如何運作,這可能會徹底改變醫學和藥物研發等領域;氣候方面它可以幫助制造更好的電池、更好的碳捕獲、更好的能量儲存。

「雖然還沒有發生,但我認為這些都是我們可以用 AI 做出的很好的技術產品。順便說一句,這些套用——它們大部份都不是危險的。因此,我們應該在這些顯然可以幫助社會應對挑戰的事情上投入更多。」本吉奧在對話結尾表示。

(本文正選於鈦媒體App,作者|林誌佳,編輯|胡潤峰)