當前位置: 華文世界 > 科技

專訪|聯合國專家談負責任使用AI:能搜尋到資訊就別用聊天機器人了

2024-07-12科技
「作為電腦科學教授,1984年我就做了一個關於人工智慧的計畫,可想而知AI的發展經歷了多麽漫長的討論。」 英國南安普敦大學教授溫迪·霍爾(Wendy Hall)近日在第十二屆世界和平論壇上說到這裏時,台上同席而坐的幾位專家笑稱那時候他們還是孩子。
霍爾上大學的時候還幾乎接觸不到電腦,在數學專業讀到博士畢業後,她對新出現的微型電腦頗感興趣,於是轉而攻讀電腦科學碩士,並在畢業時寫了一個智慧教學程式。她7月7日在北京接受澎湃新聞(www.thepaper.cn)專訪時說,「那時我只是想眺望一下未來,看看我們可以怎樣依靠電腦來使用人工智慧。」彼時,全球範圍內的人工智慧正在從理論研究走向實際套用。
英國南安普敦大學教授溫迪·霍爾(Wendy Hall)接受澎湃新聞專訪。
自那一眺望之後,霍爾帶領的團隊在1988年開發出微觀世界超媒體系統(Microcosm Hypermedia System),將文件之間的連結儲存在單獨的資料庫中,來構建一個更加互聯的網路,那時候全球資訊網還未出現。
「此後,我的職業生涯一直在使用人工智慧。」霍爾說道。
上世紀80年代末,霍爾在南安普頓大學電腦科學專業教了3年書之後,意識到一個奇怪的現象,這個專業的學生當中沒有女性,英國其他高校也基本如此。她回憶,那個時候電腦被包裝為男孩的玩具進行銷售,似乎與女性沒什麽關系。「我們就這樣讓一代女性對電腦失去了興趣,之後此學科的性別比例也沒有完全恢復平衡,所以相應的做人工智慧的女性就更少了。」
不過,令她感到欣喜的是,聯合國層面的AI咨詢系統註意到了多樣性問題。2023年霍爾入選聯合國人工智慧高級別咨詢機構(High-level Advisory Body on Artificial Intelligence),39名專家中包含20名女性和19名男性,代表33個國家。她強調,如果開發人工智慧的團隊不具有多樣性,很有可能存在偏見和不公,因為只是用單一方式思考。
霍爾曾在2017年受英國政府之邀為國家撰寫AI產業發展路線圖,兩周前還與時任英國首相蘇納克一起討論人工智慧安全問題。近一年,她和聯合國人工智慧咨詢機構的團隊成員一起撰寫【以人為本的人工智慧治理】報告,報告最終版將於今夏釋出。對於人工智慧的治理與監管,這位教授從英國和聯合國機構的視角闡述了見解。
人工智慧領域的女性角色
澎湃新聞:您從1984年就涉足人工智慧領域,至今已經有40年,這期間人工智慧的技術和商業套用已經發生了翻天覆地的變化,您一直堅守在這個學科進行研究工作的動力是什麽?
溫迪·霍爾:我曾是一名數學家,博士畢業正值微型電腦開始出現,當時我想要在研究型大學工作,但因為太年輕了找不到合適的崗位,也發現自己的能力無法與微型電腦的記憶力與算力匹敵。當我了解到除了透過程式程式碼之外,還可以與電腦進行互動,在電腦上放置圖形和多媒體時,我對如何將其套用於教育很感興趣,之後對超媒體(hypermedia)也變得非常感興趣,便開始了研究的道路。
二三十年前,人們覺得電腦科學家傑佛瑞·辛頓(Jeffery Hinton)瘋了,因為他不斷提出新點子,但這通常就是研究的方式,也是我為什麽喜歡做研究的原因。我樂於被告知自己所做的研究永遠不會實作,然後時隔多年我可以對人們說,「看,我30年前所做的研究現在已經實作。」我對此感到非常自豪。比如在1990年代我就談論過可穿戴電腦裝置,並有視訊記錄,當時人們問我為什麽需要可穿戴電腦,而現在智慧穿戴已經普及。
我不想為科技巨頭工作,因為產業界是利益驅動的,必須專註於讓股價上漲和銷售產品。我在上世紀90年代確實創辦了一些初創公司,它們取得了不同程度的成功,但並沒讓我變得富有。我在大學可以自由地思考,可以做感興趣的研究,是很棒的體驗。
澎湃新聞:在人工智慧領域,像您這樣的女性研究者並不多見,如何提高女性的參與度?
溫迪·霍爾:我認為人工智慧不應該被視為電腦科學的一個子集,它比電腦科學要大得多。當我們討論它時,不僅僅是在談論編程,還在談論它的倫理、治理、政策,我們需要立法者、人文學科研究者、商業人士、哲學家和心理學家。所以,性別、年齡、種族方面的多樣性非常重要,因為人工智慧是為全世界打造的。
我非常擔心人工智慧透過電腦科學來篩選人才,而研究電腦科學的女性非常少。所以相應的,做人工智慧的女性就更少了。從進入人工智慧領域至今40年,我仍然是該領域中少數女性之一。
澎湃新聞:人工智慧領域中女性研究者較少是否會導致多樣性的缺失,進而引發其他問題?
溫迪·霍爾:我非常強烈地主張多樣性,如果只是單一文化,那麽生產的任何東西,無論是研究還是產品,都更有可能存在偏見和不公,因為只是以一種方式思考。如果開發人工智慧的團隊不具有多樣性,那從道德的層面來看是有問題的。
當然,聯合國人工智慧高級別咨詢機構的團隊是極具多樣性的,不僅男女比例對半分,在年齡、種族、商業背景方面也非常多樣化。所以這是一個很棒的團隊,是多樣性的一個典範。
AI規則制定應由誰主導
澎湃新聞:人工智慧高級別咨詢機構的39名專家分布在33個不同國家,每個大洲都有代表。當不同國家、學科和背景的專家一起制定報告時會有怎樣的分歧?
溫迪·霍爾:因為小組具有多樣性,各個地區的專家都非常深入地參與其中,所有專家都敢於說出自己的想法,因此我們不是在每件事上都意見一致。但之所以機構執行成功,很大程度上歸功於聯合國的領導,尤其是聯合國秘書長技術特使阿曼迪普吉爾,他是一個非常有影響力的人物,但他並不顯得高高在上,通常能讓每個人以自己的方式行事,他鼓勵人們發言,讓人們真正參與到討論中。通常來說每個人都會發聲,這就是全面的多樣性,這讓我深有感觸。
我特別喜歡聽團隊中的法律從業者以不同的方式去思考世界,非常合乎邏輯。我們彼此了解,已經進行了多次線上和線下會議,包括一些深入的探討,包括開源、人工智慧的和平,以及兒童和性別等各種議題。
澎湃新聞:聯合國人工智慧高級別咨詢機構去年12月釋出了【以人為本的人工智慧治理】中期報告,呼籲將國際規範與人工智慧的開發和推廣方式更緊密地結合起來。最終報告尚未釋出,現在的工作進展如何?
溫迪·霍爾:最終報告已經基本完成了並送出給了聯合國秘書長,還會有一些反饋意見,可能後期會更新和叠代,最重要的是聯合國領導層是否樂於接受我們所提出的內容,我們必須要以他們能接受的方式堅定地說出想說的話。這份報告將作為今年9月未來峰會(Summit of the Future)上將討論的全球數位契約的一部份。我們非常希望報告中的大部份內容被納入契約。
對於報告的細節,我們為聯合國和人工智慧機構留有探討的空間和其他可能性,我們存取了世界衛生組織、智慧財產權組織、人權組織、國際電信聯盟(ITU),他們都在推進有關人工智慧的工作,但往往只能看到自己關註的那一部份,我們正試圖跨越這個障礙,構建一個網路是一種解決方案。
澎湃新聞:小到科研機構、科技公司,大到國家政府和聯合國,都在不同層面討論和制定人工智慧相關的規則來盡可能地確保安全,那麽究竟哪一方享有規則制定的主導權?
溫迪·霍爾:國家政府在規則制定方面有很大的影響力,比如英國去年成立了人工智慧安全研究所,旨在提高對人工智慧安全的認識。但我並不是很贊同這種做法,因為它過多地帶有政府部門的色彩,缺乏學術界的參與。而聯合國是世界上唯一真正具有普遍性的全球組織,可以處理各種問題,盡管它可能是不完美的,但是我們可以利用這樣一個平台來構建一個AI治理的網路。
澎湃新聞:英國去年主辦了一次國際人工智慧安全峰會,時任首相蘇納克說:「目前唯一測試人工智慧模型安全性的是開發它的公司。」他認為這是遠遠不夠的。那麽如何讓更多人參與到人工智慧安全性的檢測和提升當中?
當地時間2023年11月2日,英國倫敦,人工智慧安全峰會期間,英國時任首相蘇納克與特斯拉CEO馬斯克出席一場對話活動。視覺中國 圖
溫迪·霍爾:談到去年在英國舉辦的人工智慧峰會,非常坦率地講,讓我惱火的是有很多國家沒有被邀請,受邀的標準並不清楚,而且很多學者完全被排除在外。
關於人工智慧的安全性,在很多行業,一般是行業開發測試工具對產品進行檢測,然後送出報告給政府接受監管,這也是目前人工智慧遵循的一套規則。在英國,人工智慧安全研究所都不一定能夠存取那些科技公司的數據,更不用說其他機構和個人。我認為公司管理安全性和政府監管的平衡需要更進一步最佳化。
兩周前,我見了蘇納克首相,當時和他談論了人工智慧,我問他試圖透過AI安全研究所達成什麽目標。他充滿熱情,希望英國能成為人工智慧安全領域的領導者,但實際上這是一個全球性問題。而且我認為很多研究應該在大學裏進行,由商業公司來支付費用,然後由政府來監管技術的開發,而且政府需要派人到人工智慧的最前沿,以便了解正在發生什麽並進行監管。
別讓ChatGPT做簡單數學題
澎湃新聞:您既參與了2017年英國人工智慧獨立報告的制定,也參與了聯合國人工智慧高級別咨詢機構的AI治理工作,如何看待歐盟最新釋出的人工智慧法案?一些科技公司指責這樣的法案會打擊創新,您怎麽看?
溫迪·霍爾:我們必須在創新和監管之間找到正確的平衡。我認為英國的手段太軟了,當然也對創新比較友好。實際上不管是歐盟還是英國制定的監管方案,確保安全的目標是一致的,只是實作的手段不同。
我們必須要有強力的法規,如果只是科技公司自我監管是不夠的。就像煙草行業,人們都知道吸煙的害處,但如果不制定相關法規,煙草公司為了盈利會以自己的方式制造和銷售香煙。不同國家的法律會有所不同,但我們需要在聯合國層面上形成一定的原則,各國可以在這樣的原則基礎上制定自己的法規。
澎湃新聞:您在社交平台上分享了一份有關深度偽造(Deepfake)的聯名書,呼籲制定新的法律法規,保護人們免受深度造假的危害。現在深度偽造帶來的哪些危害值得重點關註?應該從哪些方面努力去應對這種危害?
溫迪·霍爾:可以看到今年有很多國家舉行選舉,我們很擔心深度偽造會改變人們在選舉中的投票,現在透過任何法律或技術都很難解決這個問題。比如有專家提到可以運用浮水印來防止偽造,實際上浮水印也很容易破解。
我認為每個人都應該意識到人工智慧能做什麽以及它如何被濫用來制造虛假資訊和深度偽造。我們不能期望政府做所有事情,而且也不希望政府和科技公司成為審查者。真正困難的是,誰來判定某件事或某個資訊的真實性,而且這也涉及到言論自由和私密的問題。因此還是要回歸到人們的意識問題,需要每個人都認識到人工智慧應該如何被正當使用。
澎湃新聞:您在演講中提到生成式人工智慧工具ChatGPT改變了很多,在開發和使用生成式人工智慧的行程中有哪些需要關註的風險或盲區?
溫迪·霍爾:我想強調人工智慧的耗能問題,它的龐大電力需求是一個值得關註的問題。人們很多時候不正當地使用生成式人工智慧,對ChatGPT提出極其簡單的請求,比如輸入簡單的算術題,這太瘋狂了。我們需要負責任地使用人工智慧,一些在搜尋引擎中可以尋找的資訊不需要用資源密集型的生成式人工智慧來完成。當公司銷售產品時,不應該說現在可以用這個來做所有事情,而應該思考如何確保以一種負責任的方式使用它。
當然,對於人工智慧的發展我還是比較樂觀的,重要的是要看怎麽樣和人工智慧進行合作,比如AI在糧食安全、氣候變遷、能源、醫療衛生方面已經有很多突破,這是很棒的進展。我們要支持人工智慧向好的方向發展,要建立一個機制去確保安全,這是一個漫長的旅程,我們不應該反對人工智慧,而是要和人工智慧進行協作,因為人工智慧可以幫助人類有一個更好的未來。
澎湃新聞記者 陳沁涵 實習生 張楚晗
(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)