當前位置: 華文世界 > 科技

當「深度偽造」再前進演化,光靠意識防範已經不夠了

2024-05-10科技

2024年是「超級大選年」,來自全球70多個國家和地區,都將在今年進行大選,參與選舉的公民覆蓋超過全球半數人口。

在AI技術爆發的當口,今年的選舉競爭不僅比過去更加激烈,同時正面臨著一個最主要的威脅——深度偽造(deepfakes)的擾亂。

據美國【華盛頓郵報】不久前報道,印度大選剛剛拉開帷幕之際,一位擅長運用AI拍攝寶萊塢電影和電視廣告的從業者被數百名政客找上門,其中多半是讓他幫忙偽造競爭對手出醜的音訊或圖片。

在各國日益激烈的政治競爭中,AI這把雙刃劍成了不少政客手中的選舉武器,一面靠它拉攏選民,一面用他刺倒對手。而自生成式AI技術井噴以來,深度偽造資訊開始充斥著互聯網的每一個角落,深受其害的並非只有政客,還有越來越多的普通人。

就在大約兩年前,深度偽造這項技術尚只有熟練的黑客和專業人士才能使用。但現在,只需要一部手機或電腦,人人都能揮舞起這把利器。

#01

當「深度偽造」再前進演化

「深度偽造(Deepfake)」一詞由深度學習(Deep Learning)和偽造(fake)組合而來,是一種能夠將人的面部表情和聲音與另一個人的影像和聲音結合起來,從而創造出虛假的影片或音訊的人工智能技術。

2014年,由蒙特利爾大學提出的生成對抗網絡(GAN)不僅提高了數據生成的逼真程度,也大大降低了深度合成的門檻。近十年,深偽技術日趨成熟,生成式AI橫空出世後,擴散模型(Diffusion Model)訓練路線的Deepfake數量不斷增加,並逐漸從單一模態向跨模態或多模態演變。

對於深度偽造而言,處理錄制的聲音和影像從來不是什麽新鮮事,但擴散模型的出現卻使這項技術超越了將一張人臉貼到另一個身體上的範疇,而是允許它從頭開始建立一個深度偽造品,無需編輯原始內容。

真正引發擔憂的是,如今這項技術的門檻與成本已降低到任何一個會上網的普通人都可使用。英國政府網站稱,近年來,「深度偽造」變得越來越普遍,全世界每個月的這類影像瀏覽量達數百萬次。

深度偽造再前進演化的背後是虛假內容泛濫成災,它被用於篡改選舉、身份欺詐、詐騙、傳播假新聞和誣陷造謠。

今年1月,美國流行樂歌星泰勒·斯威夫特的「AI偽造照片」在社交媒體上瘋傳,「驚動」美國白宮。除了名人之外,普通女性也成為了深度偽造色情圖片的主要侵害群體。

據媒體報道,2023年9月,西班牙發生一起利用AI的深度偽造技術制作少女裸照的事件,至少有28名11歲至17歲的少女成為受害者,疑犯不僅將裸照在校園內及網絡上傳播,甚至還利用裸照進行勒索。

到目前為止,如果說深度偽造圖片和影片,還能靠社交媒體力量和千萬網友的甄別找出肉眼可見的紕漏,那麽由AI驅動的顆粒狀剪輯而出的音訊則是深度偽造內容中最潛在的威脅。

上個月,美國馬里蘭州一所高中,該校一名校長因偽造的錄音而被誣陷為種族主義者。法庭記錄顯示,這段錄音經過外部專家進行分析,其中一人表示,錄音中「包含事後經過人工編輯的人工智能生成內容的痕跡」。

人的視覺與聽覺之間的脫節,往往會造成聽到的比看到的更容易被蒙騙。深度偽造音訊的欺騙力,相信不少網友在近兩年比較火的「AI孫燕姿」音訊內容上已有體會。

深偽技術不斷前進演化的當下,每個人都有可能成為受害者,任何人也都可以成為攻擊者。

#02

以AI對抗AI

當深度偽造隨AI技術的更叠實作再前進演化,人們光靠意識、道德防範已經不夠了。

今年年初,香港一家跨國公司經歷了一場損失慘重的「變臉」詐騙,損失高達2億港元。據相關報道稱,詐騙者透過公司的YouTube影片和從其他公開渠道獲取的媒體資料,利用深度偽造技術偽造了英國公司高層管理人員的形象和聲音,並制作出多人參與影片會議的偽冒影片,實則會議內只有參加的職員一人為「真人」。

過去兩年裏,被深偽技術加持的影片、電話詐騙案例不斷上演,如何防禦深度偽造內容的攻擊,已成為全球網絡安全專家和互聯網科技企業亟待攻克的重要課題。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,隨著深度學習演算法不斷最佳化和創新,Deepfake帶來的安全風險和私密侵犯問題愈加嚴峻,且生成的內容越來越難以區分真偽,業界和學術界需要多管齊下,不斷提高「以AI對抗AI」的能力。

偽造影片的檢測過程涉及多個關鍵技術環節。如深度偽造影片在細節處理上往往難以達到完美,例如光照、陰影或面部動作的連貫性等方面可能存在不一致性。因此,異常檢測演算法就在此發揮了重要作用。

早在2021年,中國信通院就倡議發起了立「可信人臉辨識守護計劃」,旨在透過標準制定、測試評估、行業自律等手段,防範人臉辨識技術帶來的風險。近年來,百度、阿裏、騰訊、字節跳動以及科大訊飛等AI頭部企業,也在透過開發先進的AI演算法和工具,積極提升對深度偽造內容的辨識能力。

如螞蟻數科上個月剛釋出了Deepfake身份防禦產品「ZOLOZ Deeper」,主要透過全鏈路安全技術,幫助使用者規避在刷臉認證場景中的「AI 換臉」風險。

螞蟻集團在金融業務場景無疑有著深厚的使用者基數和實戰攻防經驗積累,據 ZOLOZ產品總監陶冶介紹,團隊在2017年開始拓展海外業務,短短兩年服務了十多個國家。

她表示,2023年AIGC爆發,深度偽造技術迎來全方位升級,不只是在人臉進行偽造,就連偽造生成的證件也越發逼真。譬如一張照片把它透過另外一個人的影片,變成可以微笑,可以進行眨眼的模式叫做活化,還可以編輯它的表情,把人變老、化妝、換發型等,顯然能夠給身份認證過程中增加一定的難度。

想要知道如何防守,先要了解對方如何攻擊。在螞蟻天璣實驗室,會有大量模擬人以及機械的方式去做自動化攻擊測評。透過GAN模型生成超測試樣本,交給ZOLOZ Deeper進行判別訓練,每個月進行超過20000次的攻防測評,模擬上百種偽造攻擊情況。

「Deepfake攻和防是一個相對且不斷精進的過程,你在進步,Deepfake也在進步,我們要做的就是跑在它的前面。」 陶冶說道。

#03

一場持久戰

在AIGC時代,與深度偽造技術的攻防已經演變成一場需要各方參與的持久戰,想要保證比黑產、黑客早半步,並不是一件易事。

石霖用「發現的都沒發生,發生的都沒發現」這句話來概括這場攻防戰的走向。在他看來,攻防是一個很大的命題,安全防護等級提高的同時,黑產也在嘗試升級各種攻擊方式,「一些成功的攻擊手段可能大家都沒檢測出來,沒有成功的可能都被防住了。」

企業近年來透過建立獎金池和生態響應中心,以吸引更頂尖的白帽黑客幫助發現平台漏洞,進而強化自身防護能力。如ZOLO此次設立了超百萬的獎金池,支持安全極客來挖掘 ZOLOZ Deeper的漏洞。

從國家和政府層面而言,相關法律法規的出台與有效監管,也是防範AI濫用的關鍵。

2022年12月,【互聯網資訊服務深度合成管理規定】釋出,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。去年,國家網信辦、國家發展改革委、教育部等七部門聯合釋出【生成式人工智能服務管理暫行辦法】,進一步明確了生成式人工智能的行業發展規範。

從技術發展潮流的角度出發,人工智能行業不可能完全摒棄深度偽造這項技術,但作為公眾可以采取一些措施來避免或減少被攻擊的可能。

深度偽造技術雖已發展至真假難辨,但如果沒有數據投餵訓練,是不可能憑空制作出一張真人的人臉或是聲音的。因此,在提高防詐騙意識之前,我們可以先提高防止個人私密泄露的意識,如將社交資料設為私密,減少或者杜絕在社交媒體上分享賬戶、家庭家人、交通出行、工作崗位等敏感資訊等。

其次,不管是個人使用者還是涉及到收集大量使用者私密資訊的企業,都應嚴守科技與道德倫理底線。

歐盟主要透過個人資訊保護和虛假資訊治理等法律法規來從法律層面限制人工智能造假技術的套用。如谷歌、Meta等在歐盟擁有巨量使用者的大型科技公司,采取措施來打擊其平台上的深度偽造和虛假賬戶,否則將面臨高達其全球營業額6%的罰款。

國內像短影片社交巨頭抖音去年釋出了【關於人工智能生成內容的平台規範暨行業倡議】,明確平台不鼓勵利用AI生成虛擬人物進行低質創作,將嚴格處罰違規使用AI生成虛擬人物釋出違背科學常識、弄虛作假、造謠傳謠的內容。今年3月以來,打擊違規內容的力度進一步加大。

眼下,無論是對於AIGC的運用,還是與深度偽造技術的攻防,人類都還有很長的路要走。

End