「現在,當我們談論使用人工智能帶來的風險時,我們應該區分哪些風險是人類帶來的,哪些風險是技術造成。」10月26日,在2024世界頂尖科學家智能科學大會「為人類永續發展制定AI治理框架」主題論壇結束後,Verimag實驗室創始人、2007年圖靈獎得主約瑟夫·希發基思在接受澎湃科技(www.thepaper.cn)采訪時表示。
圖靈獎得主約瑟夫·希發基思在2024世界頂尖科學家智能科學大會上發表演講。
約瑟夫·希發基思於1946年出生於希臘,在法國完成碩士、博士學位,並成為法國格勒諾布爾大學(Université Grenoble Alpes)VERIMAG實驗室創始人和科研主任,2007年希發基思因在模型檢查理論和套用方面的貢獻獲得了圖靈獎,這是電腦科學領域的最高榮譽之一。
在此次「為人類永續發展制定AI治理框架」主題論壇上,談論起當前AI發展帶來的風險問題,約瑟夫·希發基思表示,現在,當我們談論使用人工智能帶來的風險時,我們應該區分哪些風險是人類帶來的,哪些風險是技術造成。對於人工智能來說,非常有可能區分出哪些風險是人類使用技術造成的,哪些是技術本身造成的。
約瑟夫·希發基思指出,前者包括演算法需求的不完整性、演算法設計的缺陷,以及演算法部署時可能面臨的外部環境威脅。後者分為兩種,比如當客戶或投資方對AI系統提出的需求可能不合法或不道德,使用者也可能將系統用於風險中。對此,約瑟夫·希發基思認為,應針對演算法設計者和使用者的人為風險以及演算法設計部署階段的技術風險,分別制定相應對策。
「為了避免這一風險,法規非常重要,當前所有出現的問題,都是因為利益相關者沒有給出明確的定義要求。技術可以適當地提高標準。」約瑟夫·希發基思稱。
約瑟夫·希發基思在會後接受澎湃科技(www.thepaper.cn)采訪時指出,當前,太多人談論AI(人工智能),但什麽是智能,如何真正地實作套用,這些人無法精確地回答。他認為,盡管人類在人工智能研究中取得了長足的進步,並迎來了生成式AI,但目前套用只是弱智能(weak AI),集中在問答套用上,並沒有能夠同步人工智能能力的技術和法則。
澎湃科技註意到,2024頂科協獎「智能科學獎」得主、康奈爾大學電腦科學和資訊科學講席教授喬恩·基利因伯格在此次論壇上也指出,當前人工智能發展,人類自身的排外偏見會導致演算法與生俱來的偏見,進而引發人類社會的一系列混亂。受到經濟激勵的影響,人們在設計演算法時容易陷入「單作」的狀態。此外,人類在面對超越人類的AI系統時,認知上的落後會帶來麻煩。在和此類AI系統開展合作時,控制權往往不在人類自己手裏。但假如人工智能突然把控制權交了出來,那麽人類就可能犯下嚴重錯誤,因為AI知道該怎麽做,人類未必。
所以基利因伯格認為,「在做人類判斷和演算法知識判斷的時候,都要考慮風險偏見問題。」在設計時既要追求演算法的強大,也要註意,事態不能發展到失控的地步。
澎湃新聞記者 喻琰
(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)