當前位置: 華文世界 > 科技

微軟首份AI 透明度報告:構建負責任的生成式AI,有七大關鍵

2024-05-09科技

智東西
編譯 | 一支筆
編輯 | 雲鵬

智東西5月8日報道,近日,微軟釋出了首個年度【負責任的人工智能透明度報告】。報告概述了微軟2023年制定並部署的各種措施,以及其在安全部署AI產品方面取得的成就,如建立了30個負責任的人工智能(RAI)工具,擴大了RAI團隊等。另外,微軟在Azure AI中推出了新工具,以提高其AI輸出的質素,同時預防系統被惡意使用。

去年,生成式AI取得了巨大進步,人們可以利用文字和微軟的輔助工具生成逼真的視覺效果,這些工具可以用於多種用途,如總結會議內容、幫助撰寫商業提案,甚至根據冰箱裏的食材建議晚餐選單。盡管微軟一直在努力確立構建AI應用程式的原則和流程,為使用者提供其所需的體驗,但大規模部署生成式AI產品也帶來了新的挑戰和機遇。

在微軟,首席負責任AI官Natasha Crampton負責定義和管理公司的RAI方法,而微軟負責AI責任的首席產品官Sarah Bird負責推動整個產品組合的RAI實施,以下是兩位分享的,關於如何負責任地大規模構建生成式AI的7個主要觀點。

一、讓RAI成為基礎而非事後的想法

Crampton認為,RAI絕不是單個團隊或某位專家的責任,而是微軟全體員工的責任。例如,每位從事開發生成式AI應用程式的員工都必須遵循公司的RAI標準。這些標準包括評估新AI應用程式的潛在影響,制定管理未知故障的計劃,以及辨識限制或變化,以便客戶、合作夥伴和使用AI應用程式的人員能夠做出明智的決策。

「在RAI工作中,絕不能在交付產品之前隨意添加事後想到的事項或要求,這些事項應該在開發過程中就要考慮和納入到檢查清單之中。」Crampton說,「公司的每個員工都應該在最初開發產品時就思考,如何讓AI套用更加負責任。」

二、與客戶持續互動

在Bird看來,AI產品開發是一個動態的過程。要實作生成式AI的規模化,需要迅速整合數十個試點專案的客戶反饋,並與客戶持續互動。同時,了解人們最初使用新技術時可能出現的問題,並思考怎樣做才能使使用者的體驗感更好。

因此,微軟決定在其Bing搜尋引擎上的Copilot功能中提供不同的對話風格選項,包括更有創意、更平衡或更精確的模式,以滿足不同使用者的需求。

Bird稱:「我們應該與客戶合作,開展試驗,讓客戶在實驗階段內嘗試一些新的產品,在此過程中,我們可以吸取教訓,並相應地調整我們的產品。」

三、構建更加集中化的系統

Bird認為,隨著微軟推出Copilot並將AI功能整合到其產品之中,微軟需要構建一套更加集中化的系統,以確保其釋出的所有內容都符合約一標準。因此,微軟在Azure AI中開發了RAI技術棧,以便團隊可以套用相同的工具和流程。

Bird談到,「技術的發展非常迅速,微軟必須一次做好,並將經驗最大化地套用到未來的工作中。」

對此,微軟AI專家開發了一種新方法,用於集中評估和批準產品的釋出。他們采用共識驅動的框架,審查了產品團隊在技術棧的各個層面,以及產品釋出前、期間和之後所采取的步驟,以便繪制、衡量和管理生成AI潛在風險。此外,他們還考慮了從測試、威脅建模(Threat Modeling)和紅隊(Red Teaming)中收集的數據。紅隊是一種測試方法,透過嘗試撤銷或操縱安全功能,對新的生成式AI技術進行壓力測試,以確保其安全性和可靠性。

透過集中審查流程,可以更容易地發現和解決產品組合中的潛在問題,包括漏洞和安全隱患。同時,確保及時與公司及微軟以外的客戶、開發人員共享資訊。

四、告知使用者AI生成資訊的來源

由於AI系統能夠生成難以與真實事物區分的人工影片、音訊和影像,因此,使用者能夠辨識AI生成資訊的出處或來源變得越來越重要。

今年2月,微軟與其他19家公司一起達成了一系列承諾,以打擊2024年選舉中AI欺騙性使用和「深度造假」的潛在濫用。這些承諾包括阻止使用者建立虛假影像誤導公眾,嵌入後設資料(Metadata)辨識影像的來源,以及為政治候選人提供聲明自己被深度偽造影片的機制。

此外,微軟還開發和部署了內容憑證功能(Content Credentials),使使用者能夠驗證影像或影片是否由AI生成。微軟的AI for Good Lab也在致力於應對深度偽造帶來的挑戰,他們的重點是透過技術手段辨識深度偽造內容,追蹤制造和傳播不良內容的行為者,並分析他們的策略。

「這些問題不僅是科技公司面臨的挑戰,也是整個社會挑戰,」Crampton說。

五、將RAI工具交給客戶

據報道,為提升AI模型輸出的品質並避免其被濫用,微軟不僅致力於提供工具和保護措施給客戶,同時鼓勵他們在使用AI過程中承擔責任。這些工具和措施包括開源和商業產品,以及用於建立、評估、部署和管理生成式AI系統的指南。

Bird指出:「我們的重點是,讓安全性成為使用者的預設選擇。」

2023年,微軟釋出了Azure AI內容安全工具,以協助客戶辨識和過濾AI模型中的仇恨、暴力等不良內容。近日,微軟在Azure AI Studio中新增了一系列新工具,幫助開發人員和客戶提升其生成式 AI 系統的安全性和可靠性。

六、探測漏洞阻止惡意「越獄」

隨著人們體驗到更復雜的AI技術,有些人或會嘗試以各種方式挑戰系統。這就引發了一種被稱為「越獄」的現象,在科技領域,「越獄」指的是試圖繞過AI系統內建安全工具的做法。

「我們設計產品時並沒有考慮到這些不正當的用途,但是在不斷推動技術進步的過程中,人們可能會利用技術的邊緣功能來實作一些意外或不合法的目的,」Crampton解釋說。

因此,微軟不僅在釋出新款AI產品之前,對該產品可能存在的漏洞進行檢測,而且他們還與客戶合作,確保這些客戶也能夠獲得最新的工具,保護他們在Azure上構建的自訂AI應用程式。

七、告知使用者AI的局限性

雖然AI在許多方面能讓生活變得更輕松,但它仍然存在問題。對於使用者來說,驗證其所接收到的資訊是一種很好的做法。因此,當使用者與微軟的AI系統進行聊天互動時,微軟系統生成的訊息末尾都提供了參照來源的連結。

自2019年以來,微軟一直在釋出名為「透明度說明」的檔,該檔為微軟平台服務的客戶提供了關於產品功能、限制、預期用途,以及負責任地使用AI的詳細資訊。微軟還在面向消費者的產品中,如Copilot,加入了使用者友好的通知功能(User-Friendly Notifications)。這些通知涵蓋了風險辨識、錯誤內容生成等主題,同時,提醒人們他們正在與AI互動。

「我們不知道使用者將如何使用這項新技術,因此,我們需要聽取使用者的意見。」Bird認為,隨著生成式AI技術及其套用範圍不斷擴大,為建立能夠提供使用者期望體驗的AI系統,微軟必須持續加強系統、適應新的監管要求,並不斷更新流程。

結語:實作真正的RAI,需要更多的社會參與及監督

隨著AI技術的不斷進步,AI在為人們帶來便利的同時,也帶來了新的挑戰和責任,風險辨識、深度偽造等新問題,不僅是科技公司面臨的問題,也是整個社會需要共同應對的挑戰。

在此背景下,微軟釋出了首個年度【負責任的人工智能透明度報告】報告概述了他們在AI產品部署方面的成就和挑戰,強調了風險辨識、安全性等問題的重要性,同時呼籲行業和社會共同努力,確保AI的健康發展。

未來,隨著AI技術的不斷成熟和套用場景的擴充套件,如何為使用者提供更安全、更可靠的AI體驗,並確保其套用符合道德和法律的要求,或成為社會面臨的一項重要挑戰。微軟的努力值得肯定,但仍需要更多的社會參與及監督。

來源:微軟官方網站