當前位置: 華文世界 > 科技

輕松盜走 2500 萬美元,我們該如何防範人工智慧造假危機?

2024-02-12科技

近幾個月來,人工智慧接連浮現,我們頻繁在新聞標題中看到如下字眼:AI 泄露了公司程式碼,還根本就刪不掉;AI 軟體侵犯了使用者的人臉資訊私密;某大模型產品被曝泄露私密對話……等等。

然而,更為深刻的問題或許早在大型模型熱潮爆發之前就已經悄然存在:名為 Deepfake 的深度造假技術嶄露頭角,透過深度學習將世界上的任何人無縫拼接到他們從未真正參與過的視訊或照片中,導致了"AI 換臉"這個詞匯在 2018 年的火爆。

直至 2024 年的今天,Deepfake 的潛在威脅仍未得到有效遏制。

原文地址:https://medium.com/predict/the-ai-that-stole-25-000-000-5f10986927cd

人工智慧詐騙已成現實,引人憂慮。

1995 年上映的動畫電影【攻殼機動隊】描繪過這麽一段劇情:名為「傀儡師」的人工智慧懂得冒充其他身份,迷惑和控制人類的思想和行為,這種能力使得它在網路和虛擬空間中變得無跡可尋。雖然這種情節只出現在電影中,但倘若你長久以來深受埃隆·馬斯克(Elon Musk)或山姆·奧爾特曼(Sam Altman)等人的警告影響,難免會設想一旦人工智慧放任自流,便能演變成對人類的「天網」式威脅。

【攻殼機動隊】傀儡師

慶幸的是,這一擔憂並未得到廣大人工智慧開發者們的普遍認同。許多學術界的人工智慧巨頭,如圖靈獎得主 Joseph Sifakis 就曾在采訪中透露自己對這種想法的嗤之以鼻。目前,我們尚不具備能在馬路上安全行駛的人工智慧,更不必說與人類智慧相匹敵了。

但這絕不意味人工智慧無害。

AI 完全有可能成為迄今為止人類所創造出的最具破壞力的工具之一。關於這一點,近期一名不幸遭遇人工智慧詐騙的財務高管深有體會,其損失高達 2500 萬美元,案發地不是在大洋彼岸,而是在離我們很近的香港特別行政區。面對此類人工智慧犯罪,我們是否有應對之策呢?

偷天換日

2 月 5 日訊息,據港媒香港電台報道,某匿名財務總監接收到一封自稱源自其英國同僚的信件,提出一項隱秘交易。這位財務總監並非輕信之人,初見即疑其為網路釣魚行為。

然而,發件人堅持安排一場 Zoom 視訊會議,當這位香港財務總監接入會議時,他看到並聽到了幾位熟識同事的面容與聲音。疑慮消除後,他們開始籌備交易,並按英國同僚指示,最終分 15 次匯款 2 億港幣( 當前約 1.84 億元人民幣 ),轉賬至 5 個本地戶口。

圖源:AI 繪圖

直至另一位員工與總部核即時才發現異常,原來英國辦公室未曾發起過此項交易,亦未收到任何款項。試想該財務總監得知被騙後的極度懊悔與愧疚之情。調查後發現,該次視訊會議中唯一真實的參與者正是那位香港財務總監,其余人員皆是由 Deepfake 人工智慧技術模擬的英國財務總監及其他同事形象。

僅憑公開可獲取的少量數據、一套基礎的人工智慧程式以及狡猾的騙術 ,這群騙子就成功騙取了足以購置一艘豪華超級遊艇的巨額現金。

此刻或許有人會對這個故事嗤之以鼻,斷言這位財務總監過於馬虎,畢竟我們平時在抖音、b 站上看到的 Deepfake 「整活視訊」都易辨真假,很難做到以假亂真。

然而,實際情況可能並不如此簡單,最新研究表明,人們實際上無法可靠地辨識 Deepfake,這意味著大多數人在很多場合僅憑直覺判斷自己看到和聽到的東西。更令人不安的是,研究還揭示了人們更容易誤將 Deepfake 視訊當作真實情況而非虛假。換言之,如今的 Deepfake 技術已十分高明,足以輕易欺騙觀眾。

Deep-learning + Fake

Deepfake 這個詞是「深度學習」(Deep-learning)和「假冒」(Fake)兩個詞的組合。

因此,Deepfake 技術的核心要素是機器學習,這使得以更低的成本快速制作出深度偽造內容成為可能。若要制作某人的 Deepfake 視訊,創作者首先會利用大量該人的真實視訊片段對神經網路進行訓練,使其獲得對該人從多個角度和不同光照條件下外觀的逼真「理解」。隨後,創作者將訓練好的網路與電腦圖形技術相結合,將此人的復制品疊加到另一人身上。

許多人認為,一類稱為生成對抗網路(GANs)的深度學習演算法將在未來成為 Deepfake 技術發展的主要推動力。GAN 生成的面部影像幾乎無法與真人面孔區分開來。首次針對 Deepfake 領域的調查報告專門用一個章節討論了 GANs,預示著它們將使任何人都能制作出精巧的 Deepfake 內容。

圖源:AI 繪圖

2017 年底,名為「deepfakes」的 Reddit 使用者將許多知名影星甚至政要的面孔用於色情視訊轉換生成,並將其釋出到網路上。這類造假視訊瞬間傳遍社群網路,此後大量新的 Deepfake 視訊開始出現,相應的檢測技術卻直到幾年後才逐漸出現。

不過,也有正面例子。Deepfake 第一次在銀幕上被觀眾所熟知是因為已故演員保羅·沃克在【速度與激情 7】中的「復活」。2023 年的賀歲電影【流浪地球 2】也用 CG 技術復現了廣受大眾喜愛的「達叔」吳孟達。但在以前,需要一整個工作室的專家們耗費一年的時間才能創造出這些效果。

如今,這個過程比以前更快, 哪怕是對技術一竅不通的普通人,也可以在幾分鐘之內創造一個「AI 換臉」的視訊。

對 Deepfake 的擔憂導致了對策的激增。早在 2020 年,包括 Meta 和 X 在內的社交媒體平台禁止在其網路中使用類似的 Deepfake 產品。各大電腦視覺和圖形會議上也邀請著專家上台演講防禦方法。

既然 Deepfake 犯罪分子已經開始大規模地蒙蔽世人,我們又該如何反擊呢?

多重手段,防禦 Deepfake 風險

首要策略是對人工智慧進行「投毒」。要制造出逼真的 Deepfake,攻擊者需要海量數據,包括目標人物眾多的照片、展示其面部表情變化的大量視訊片段及清晰的語音樣本。大部份 Deepfake 技術利用個人或企業在社交媒體上公開分享的資料作為素材。

不過,現在已有諸如 Nightshade 和 PhotoGuard 之類的程式,能夠在不影響人類感知的情況下修改這些檔,從而讓 Deepfake 失效。比如,Nightshade 透過誤導性處理,使得人工智慧誤判照片中的面部區域,這種錯誤辨識恰恰能擾亂構建 Deepfake 背後的人工智慧學習機制。

其次,對自身或所在企業在網上釋出的所有照片和視訊進行此類防護處理,可有效阻止 Deepfake 複制。然而,這種方法並非萬無一失,它更像是場持久戰。隨著人工智慧逐漸提高對篡改檔的辨識能力,反 Deepfake 程式也需要不斷研發新的方法以保持其有效性。

想建立起更為堅固的防線,我們就需要不再單一依賴易於被攻破的身份驗證方式。 在本文的案例中,涉事的財務總監將視訊通話視為確認身份的絕對依據,卻未能采取如撥打總部或英國分支機構其他人員電話進行二次身份驗證等額外措施。實際上,已有部份程式利用私鑰加密技術來確保線上身份驗證的可靠性。采用多重身份驗證步驟,大大降低此類欺詐的可能性,是所有企業應當立即著手實施的措施。

因此,當下次你身處視訊會議之中,或是接到同事、親友的來電時,請務必謹記,螢幕對面可能並非真人。特別是在對方要求你將 2500 萬美元秘密轉賬至一組聞所未聞的陌生銀行帳戶時,我們至少可以先給上司打個電話。