當前位置: 華文世界 > 科技

微軟、谷歌、亞馬遜和科技同行簽署協定 打擊與選舉有關錯誤資訊

2024-02-18科技

由20家領先科技公司組成的團體周五宣布,將共同致力於打擊人工智能在今年選舉中的錯誤資訊。

該行業特別針對深度造假,它們可以使用欺騙性的音訊、影片和影像來模仿民主選舉中的關鍵利益相關者,或提供虛假的投票資訊。

微軟(Microsoft)、Meta、谷歌(Google)、亞馬遜(Amazon)、IBM、Adobe和芯片設計公司Arm都簽署了該協定。人工智能初創公司OpenAI、Anthropic和Stability AI也加入了該團體,此外還有Snap、TikTok和X等社交媒體公司。

科技平台正在為世界各地的重大選舉做準備,這些選舉影響到40多個國家的40多億人。根據機器學習公司Clarity的數據,人工智能生成內容的興起引發了與選舉相關的嚴重錯誤資訊擔憂,深度偽造的數量同比增長900%。

選舉中的虛假資訊一直是一個主要問題,可以追溯到2016年的總統競選,當時演員找到了廉價而簡單的方法,在社交平台上傳播不準確的內容。如今,立法者對人工智能的迅速崛起更加關註。

「我們有理由嚴重擔心人工智能可能被用來在競選中誤導選民。」美國加利福尼亞州民主黨參議員喬希·碧加(Josh Becker)在接受采訪時表示,「看到一些公司來到談判桌前是令人鼓舞的,但目前我還沒有看到足夠的細節,所以我們可能需要立法來制定明確的標準。」

與此同時,用於辨識深度偽造的檢測和浮水印技術還沒有發展得足夠快。目前,兩家公司只是就一套技術標準和檢測機制達成了一致。

他們還有很長的路要走,以有效地解決這個問題,這是一個多層次的問題。例如,聲稱可以辨識人工智能生成的文本(如論文)的服務已被證明對非英語母語人士存在偏見。對於影像和影片來說,這並不容易。

即使人工智能生成的影像和影片背後的平台同意嵌入不可見的浮水印和某些類別的後設資料,也有辦法繞過這些保護措施。截圖有時甚至可以欺騙檢測器。

此外,一些公司在人工智能生成的影像中包含的隱形訊號還沒有套用到許多音訊和影片生成器中。

該協定的訊息釋出前一天,ChatGPT的創造者OpenAI宣布了其用於人工智能生成影片的新模型Sora。Sora的工作原理類似於OpenAI的影像生成人工智能工具DALL-E。使用者輸入想要的場景,Sora就會給出一個高畫質影片剪輯。Sora還可以生成受靜態影像啟發的影片剪輯,並擴充套件現有影片或填充缺失的幀。

參與該協定的公司同意了8項高級別承諾,包括評估模型風險、「尋求發現」並解決此類內容在其平台上的傳播,以及向公眾提供這些過程的透明度。與科技行業及其他行業的大多數自願承諾一樣,新聞稿明確指出,這些承諾僅適用於「與每家公司提供的服務相關的領域」。

「民主有賴於安全可靠的選舉。」谷歌全球事務總裁肯特·沃克(Kent Walker)在一份新聞稿中說。他說,該協定反映了該行業為應對「人工智能產生的侵蝕信任的選舉錯誤資訊」所做的努力。

IBM首席私密和信任官姬絲蒂娜·蒙哥馬利(Christina Montgomery)在新聞稿中表示,在這個關鍵的選舉年,「需要采取具體的合作措施,保護人民和社會免受人工智能產生的欺騙性內容的放大風險。」