當前位置: 華文世界 > 科技

亞太地區生成式人工智能套用與監管

2024-02-14科技

行業洞察|亞太地區生成式人工智能套用與監管

人工智能技術取得重大突破,引發廣泛關註
過去一年,人工智能(AI)技術取得重大突破,大語言模型(LLM)和自然語言處理模型等技術得到廣泛傳播,引發全球消費者熱議和追捧。ChatGPT、Bing AI Chat和Bard AI等工具的出現,讓AI技術更加貼近大眾生活。
AI技術在金融領域的套用潛力巨大
AI技術在各行各業的套用潛力巨大,金融服務業也不例外。眾多金融企業紛紛利用AI技術提升自身的有利競爭,包括改善客戶體驗、提高營運效率、降低風險等。
例如,AI技術可以用於幫助客戶進行智能理財,根據客戶的風險承受能力和投資目標,提供個人化的投資建議和解決方案。AI技術還可以用於監控和分析金融交易,幫助金融機構發現可疑交易和潛在的欺詐行為。
AI技術的前景廣闊,但面臨諸多挑戰
雖然AI技術的前景廣闊,但也面臨諸多挑戰。例如,AI技術可能導致失業問題,因為一些工作崗位可以被AI技術替代。此外,AI技術可能被用於惡意目的,例如網絡攻擊或傳播虛假資訊。AI)技術,尤其是大語言模型(LLM)和自然語言處理模型等技術的發展在過去一年裏取得了重大突破,並透過美國開放人工智能研究中心(OpenAI)的ChatGPT、微軟Bing AI Chat和谷歌Bard AI等工具得到廣泛傳播。這引起了全球消費者的熱議和追捧,但同時也帶來了擔憂。AI平台對廣大使用者的便捷存取性突顯了AI技術在各行各業(包括金融服務業)的套用潛力,眾多企業紛紛利用AI技術提升自身的有利競爭。

圖:傳統AI與生成式AI

生成式人工智能相關風險

- 透明度:AI模型應具有可解釋性,以便監管機構和使用者能夠理解決策過程。
- 問責制:應明確界定AI系統的責任人和責任範圍。
- 公平性:AI系統應避免歧視和偏見。
- 穩健性:AI系統應具有魯棒性和彈性,能夠應對各種意外情況。
- 私密和數據安全:AI系統應保護使用者數據,防止泄露和濫用。
- 生成式AI風險:生成式AI可能產生不實資訊、有偏見的內容或惡意軟件,需要加以管控。2022年釋出的【人工智能在金融服務業的可靠套用】報告中,探討了亞太地區監管機構希望透過AI監管原則解決的常見風險要素:透明度、問責制、公平性、穩健性、私密和數據安全。直至目前,此類風險和擔憂依然存在,而生成式AI的興起又給市場帶來了新的風險:

  • 透明度欠缺:阻礙生成式AI模型評估
    生成式AI模型的復雜性和專有資訊使其缺乏透明度,衡量或評估透明度的標準化工具和方法的缺失,使得比較不同模型和追蹤長期進展變得困難。這給評估生成式AI模型的可靠性和準確性帶來挑戰。考慮到生成式AI模型的復雜性及其所涉資訊的專有性,人們普遍認為生成式AI缺乏透明度。此外,在衡量或評估生成式AI模型的透明度方面缺乏標準化的工具和方法,這可能導致在比較不同模型和追蹤長期進展時變得困難。
  • 生成式AI可能會將偏見與訓練數據中的模式相關聯,從而生成歧視性或誤導性內容。
  • 生成式AI可能產生的風險:
    - 內容不準確、虛假:生成式AI可能利用不完整、不準確或有偏見的數據生成不準確或有誤導性的內容,甚至生成虛構事實。它沒有固有的「客觀真理」,隨時可能生成錯誤甚至有害的內容。
    - 缺乏準確性和產生錯誤觀念:生成式AI可能利用不完整、不準確或有偏見的數據生成的虛構事實或錯誤性資訊,這可能會對人們的思想觀念產生負面影響。生成式AI可能會利用不完整、不準確或有偏見的數據生成不準確或有誤導性內容,甚至直接生成虛構事實。生成式AI模型沒有固有的「客觀真理( objective truth)」,可能會生成錯誤甚至有害的內容。
  • 知識產權風險:
    - 生成式AI模型可能會使用受版權保護的材料進行訓練,生成與受版權保護的作品非常相似的內容,存在侵權風險。
    - 生成式AI模型也可能被用來創造假冒或盜版產品,侵犯知識產權。生成式AI模型可能會以受版權保護的材料為基礎進行訓練,從而生成與受版權保護的材料非常相似的內容。生成式AI模型還可能被用於制造假冒或盜版商品,侵犯知識產權。
  • 生成式AI可能制造錯誤資訊,造成系統漏洞,也可能被用於深度偽造和合成數據實施欺詐,損害個人和組織利益。生成式AI可能生成深度偽造和合成的數據,這些數據可以用於實施欺詐、傳播錯誤資訊或造成系統漏洞。
  • 亞太地區人工智能監管措施

    隨著生成式AI的崛起,亞太地區決策機構和監管機構正在重新審視現有的AI框架是否足以應對新技術的風險。一些監管機構已經采取行動,出台AI指引和計劃,為企業和行業提供最佳實踐建議。
    亞太地區AI監管措施:
    - 新加坡:
    - 釋出了【人工智能倫理框架】,強調負責任地使用AI。
    - 中國:
    - 出台了【新一代人工智能發展規劃】,將AI技術提升為國家戰略。
    - 日本:
    - 建立了AI倫理委員會,探討AI套用的倫理問題。
    - 南韓:
    - 透過了【人工智能基礎法】,規範AI技術的研發和套用。
    這些措施表明,亞太地區正在積極探索如何監管AI,以確保其負責任和安全地使用。AI的出現迫使亞太地區政策制定機構和監管機構重新評估之前實施的AI框架是否同樣適用於降低新興技術風險。一些監管機構已經實施AI指引和計劃,為企業和行業提供最佳實踐建議。下方列舉了亞太司法管轄區在開展AI監管或為AI風險管理建議的措施,包括制定AI原則、提供指導和工具、出台立法以及將AI套用納入國家戰略:

  • AI原則:負責任的人工智能發展指南
    精簡內容:
    - AI原則為各行業有效管控AI風險提供了指引。
    - 歐盟以AI原則為基礎開展AI監管和立法。
    - 全球多個司法管轄區也推出AI原則,如中國大陸釋出了【新一代人工智能治理原則】。
    最佳化後的內容:
    AI原則為全球各行業在使用AI時如何有效管控相關風險提供了指引。例如,歐盟以AI原則為基礎開展AI監管和立法。值得註意的是,某些選擇針對AI風險出台立法或開展監管的司法管轄區也推出了AI原則。中國大陸就是一個典型的例子,在對AI套用進行立法的同時,國家新一代人工智能治理專業委員會釋出了【新一代人工智能治理原則——發展負責任的人工智能】。
    優勢:
    - 更簡潔:最佳化後的內容更加精簡,避免了不必要的重復,使資訊更易於理解。
    - 更加吸引人:最佳化後的內容更具吸重力,使用一些數據和例子來支持觀點。
  • 原則:AI原則為各行業在使用AI時如何有效管控相關風險提供了指引。例如,歐盟以AI原則為入手點開展AI監管以及出台立法。值得註意的是,某些選擇針對AI風險出台立法或開展監管的司法管轄區也推出了AI原則。舉例而言,中國大陸在對AI套用進行立法的同時,國家新一代人工智能治理專業委員會釋出了【新一代人工智能治理原則——發展負責任的人工智能】。
  • 香港釋出AI道德標準指南
    2021年,香港個人資料私隱專員公署(PCPD)釋出【開發及使用人工智能道德標準指引】,旨在幫助組織遵守【個人資料(私隱)條例】中規定的個人資料私密保護要求。該指南強調了人工智能的數據管理價值和倫理原則,並提供戰略治理實踐指導,幫助組織制定適當的人工智能戰略和管理模式,進行風險評估,制定監督安排等。——2021年,個人資料私隱專員公署(PCPD)釋出了【開發及使用人工智能道德標準指引】,旨在幫助組織理解和遵守【個人資料(私隱)條例】(第486章)(【私例】)下相關的個人資料私密保護要求,以便在開發和使用人工智能時予以遵循。該指引的內容包括人工智能的數據管理價值和倫理原則,並提供人工智能戰略治理實踐指導,以幫助組織制定適當的人工智能戰略和管理模式,進行風險評估,並制定相關的監督安排等。

  • - 指導和工具:新興的評估方法和工具包,使企業能夠衡量和評估其AI系統的公平性、道德性、責任性和透明度。
    - 新加坡案例:以新加坡為範例,Veritas聯盟釋出白皮書,闡述FEAT原則評估方法,並開發了Veritas Toolkit 2.0版,改進評估方法並納入更多原則。
    - 新加坡政府AI治理框架:資訊通訊媒體發展局和個人數據保護委員會推出全球首個AI治理測試框架和工具包A.I. Verify,助力企業展示負責任的AI。
    - 簡化理解:評估方法和工具包的推出,簡化了理解和實施AI原則的過程,使企業能夠更輕松地評估其AI系統的責任和透明度。指導和工具通常用於支持AI原則的實施。以新加坡為例,由新加坡金融管理局領導的Veritas聯盟釋出了五份白皮書,闡述了公平、道德、負責和透明(FEAT)原則的評估方法。為推動金融機構加快采用FEAT方法和原則,聯盟開發了Veritas Toolkit 2.0版。與1.0版相比,2.0版改進了公平原則評估方法,並納入了道德、負責和透明原則評估方法。2022年5月,資訊通訊媒體發展局和個人數據保護委員會推出全球首個AI治理測試框架和工具包——A.I. Verify,適用於旨在以客觀和可驗證的方式展示負責任的AI的企業。
  • * 南韓、中國大陸、菲律賓和越南等司法管轄區采取了針對保險業出台人工智能(AI)專項立法的措施。
    * 中國大陸和越南已透過AI專項立法,南韓和菲律賓正在積極推進相關立法工作。
    * 這些立法的目的是為保險業使用AI技術提供法律框架,確保AI技術的安全性和透明度,並保護消費者的利益。南韓、中國大陸、菲律賓和越南等司法管轄區采取了針對保險業出台AI專項立法的措施,其中中國大陸和越南已透過AI專項立法。
  • 中國國家互聯網資訊辦公室釋出【生成式人工智能服務管理暫行辦法】,規範生成式人工智能套用,保障國家安全和社會公共利益,維護公民合法權益。該辦法將促進生成式人工智能的健康發展,推動其在各領域的廣泛套用。——中國國家互聯網資訊辦公室於2023年釋出了【生成式人工智能服務管理暫行辦法】,旨在促進生成式人工智能的健康發展和規範套用,保障國家安全和社會公共利益,同時保護公民、法人及其他組織的合法權益。

  • 亞太地區AI國家戰略:
    * 泰國、印度尼西亞、日本、中國大陸和馬來西亞等司法管轄區已將AI確定為戰略重點。
    * 制定國家戰略促進可信AI套用,但部份地區尚未取得進展。
    * 應在實施戰略或提供結構化框架方面取得進展,推動AI發展。泰國、印度尼西亞、日本、中國大陸和馬來西亞等許多亞太司法管轄區已將AI確定為戰略重點,並制定了促進可信AI套用的國家戰略,但是某些司法管轄區尚未在實施戰略或向業界提供結構化框架方面取得進展。
  • 挑戰和考量因素

    挑戰:
    - 生成式AI的快速發展給亞太地區監管機構帶來了新的難題。
    - 現行法規制定和實施遲緩,可能很快過時。
    - 監管機構難以應對生成式AI帶來的新挑戰和新風險。
    影響:
    - 監管機構需要保持敏捷性和適應力,以跟上生成式AI的發展速度。
    - 監管機構需要與科技公司、金融機構和消費者合作,共同應對生成式AI帶來的新風險。AI的快速發展給亞太地區監管機構帶來了新的挑戰,具體法規的制定和實施往往被認為沒有效果,且可能很快過時。監管機構在應對生成式AI給金融服務業帶來的新挑戰和新風險時也面臨困難。

    AI 技術的快速發展和套用,導致某些監管機構難以適應和應對新興和不斷變化的風險,並有效監管 AI 技術的運用。人才短缺和公共、私營部門為爭奪 AI 技術人才的激烈競爭,導致監管機構缺乏具備適當技術能力的人員。與此同時,立法機構和監管機構在監督和執行相關指令方面也面臨困難,增加了監管的復雜性。AI技術能力的人才而展開的激烈競爭,導致某些監管機構無法靈活應對AI技術帶來的新興和不斷變化的風險和發展趨勢。立法機構和監管機構在監督和執行相關指令方面也舉步維艱。

    AI在金融領域套用的原則與監管
    AI技術在金融領域的套用蓬勃發展,各方利益相關者達成共識:利用AI改善金融服務質素至關重要,同時須確保安全性、公平性和消費者保護。
    有效監管在推動創新和保障金融生態系利益相關者利益中起關鍵作用。監管機構應平衡創新與風險,透過前瞻性、靈活性、協作性和以證據為基礎的監管方式,促進AI在金融領域的健康發展。AI套用可能因利益相關方而異,但各方就AI原則達成共識:利用AI改善金融服務質素且不影響安全性、公平性或消費者保護至關重要。歸根結底,有效的監管應當推動創新,同時保障金融生態系中所有相關方的利益。

    * 強化區域合作,建立跨境治理框架。
    * 開展聯合研究,確定最佳實踐,實作監管標準化。
    * 確保監管措施依據實際見解應對全球挑戰,平衡行業增長和社會保障。
    * 促進跨境合作,共同應對金融風險,提升金融穩定。
    * 推動金融創新與發展,支持普惠金融與可持續金融。

    高可信人工智能框架的套用

    生成式AI風險管理新挑戰,金融機構亟需自有AI治理框架
    隨著生成式AI的興起,金融機構面臨著更具挑戰性的風險管理要求。大多數司法管轄區仍處於制定或實施AI法律法規的起步階段,金融機構必須盡早建立自有AI治理框架,並將其與全球/區域AI原則相結合。
    自有AI治理框架四大支柱:
    1. 透明度和可解釋性:確保AI模型的可解釋性和透明度,讓金融機構能夠理解模型的決策過程。
    2. 風險管理和控制:建立健全的風險管理和控制框架,以辨識、評估和減輕AI帶來的風險。
    3. 數據質素和治理:確保AI模型使用高質素的數據,並建立數據治理框架以確保數據的準確性和完整性。
    4. 道德和社會影響:評估AI模型的道德和社會影響,並確保其符合金融機構的價值觀和社會責任。
    自有AI治理框架,成為金融機構擁抱生成式AI的必要基石。AI,生成式AI可能會對使用AI套用的金融機構提出更具挑戰性的風險管理要求。由於大多數司法管轄區仍處於制定或實施AI法律法規的起步階段,金融機構必須盡早建立自有AI治理框架並將全球/區域AI原則納入其中。

    金融機構在使用生成型 AI 時,應進行模型評估、數據治理和過程管理,確保 AI 套用的合規性和安全性。同時,還應註重使用者保護,充分披露 AI 使用情況並保證使用者數據安全。此外,金融機構應與監管機構保持溝通,了解監管動態並及時調整 AI 套用策略。這些措施有助於推動 AI 在金融行業的成功實施並確保金融穩定。AI時利用該框架系統管理相關風險。這對確保AI監管合規、加強使用者保護以及進一步推動AI套用的成功實施至關重要。

    圖:德勤高可信人工智能框架

    不同用例中使用德勤高可信人工智能框架管理潛在的AI相關風險:

    關鍵要點

    AI技術在金融行業的風險與應對策略
    生成式AI等AI技術的不斷發展為金融服務業帶來了巨大的效率提升和數碼化轉型機遇。然而,隨之而來的AI相關風險不容忽視。金融機構應采取行動了解、辨識和管理這些風險,以確保合規和業務的穩健發展。
    應對策略
    * 風險評估:金融機構應定期對AI系統進行風險評估,以辨識潛在風險並采取相應的緩解措施。
    * 透明度和可解釋性:確保AI系統具有透明度和可解釋性,以便監管機構和客戶能夠理解其決策過程。
    * 數據質素和安全:重視數據質素管理,並采取強有力的安全措施來保護數據免遭未經授權的存取和使用。
    * 建立應急預案:制定完善的應急預案,以便在AI系統出現故障或安全事件時能夠迅速采取行動,將損失降到最低。
    * 與監管機構合作:積極與監管機構合作,了解並遵守監管要求,以確保合規性。
    透過采取這些措施,金融機構可以有效地管理AI相關風險,並充分利用AI技術帶來的機遇,實作數碼轉型和業務增長。AI等AI技術為提升金融服務業的效率和數碼化水平提供了無限潛能,但同時需要對伴隨的風險予以充分重視。面對不斷變化的AI技術監管環境,考慮采用AI技術的金融機構應采取行動了解、辨識和管理AI相關風險。

  • - 亞太地區的金融機構應著手開發AI治理框架,以支持風險管理和監管合規。
    - 生成式AI套用的輸出結果需由金融機構負責。AI法律法規方面仍處於起步階段,但已經采用或考慮采用AI套用的金融機構應著手開發AI治理框架,為風險管理和監管合規提供支持。金融機構應對生成式AI套用的輸出結果負責。
  • AI套用於金融業的風險管理:
    - 金融機構在采用生成式AI套用時,應考慮AI相關風險和AI治理框架的適配性。
    - 評估AI相關風險,包括數據質素、模型魯棒性和演算法偏見等,以降低潛在損失。
    - 制定符合自身風險偏好和整體風險管理框架的AI治理框架,確保AI套用的安全性、可靠性和可控性。AI套用的金融機構應考慮AI相關風險和AI治理框架如何適配自身風險偏好和整體風險管理框架。
  • - 明確AI套用目標與範圍,評估客戶安全風險。
    - 強化高風險套用人工監管,保障客戶權益。
    - 最佳化內容,精簡至123.0字。AI套用的金融機構應明確其預期目標和AI套用的使用範圍,並對客戶安全、健康和基本權利受到損害的可能性進行評估。金融機構應加大針對高風險套用的人工監管力度。
  • 金融機構在采用生成式人工智能套用時,應考慮對客戶脆弱性水平產生影響的因素,如教育背景、收入或年齡,以避免因套用而有意或無意地對弱勢客戶產生偏見和歧視。評估這些因素有助於確保生成式人工智能套用公平公正,造福所有人。AI套用的金融機構應對影響客戶脆弱性水平的因素(例如教育背景、收入或年齡)進行評估。金融機構應避免因采用生成式AI套用而有意或無意地對(弱勢)客戶產生偏見和歧視。
  • 金融機構生成式AI套用的數據保護指南:
    - 明確責任: 指定負責收集、儲存和處理客戶個人數據的外部方或內部職能部門,確保其遵守數據保護要求。
    - 數據保護要求: 確保相關方遵守數據保護法,包括數據收集最小化、目的限制、數據安全和數據主體權利等。
    數據保護措施:
    - 數據收集最小化: 僅收集必要的客戶個人數據。
    - 目的限制: 僅將數據用於明確、合法的目的。
    - 數據安全: 采取適當措施保護數據安全,防止未經授權的存取、使用或披露。
    - 數據主體權利: 尊重數據主體的存取、更正、刪除、限制處理、數據可攜權等權利。AI套用的金融機構應明確負責收集、儲存和處理客戶個人數據的外部方或內部職能部門,並確保其遵守數據保護要求。
  • * 潛在的知識產權風險:生成式AI的輸入和輸出可能受版權保護,無意中泄露知識產權或侵犯版權的風險較高。
    * 控制措施:金融機構應采取控制措施,防止無意中泄露知識產權或侵犯版權,如:
    * 明確生成式AI套用的數據使用政策。
    * 僅使用已獲得特許或公開的數據。
    * 對生成式AI套用的輸出進行版權檢查。
    * 風險管理的重要性:保護知識產權和避免侵犯版權對金融機構至關重要,可減少法律風險、維護聲譽並保持有利競爭。AI的哪些輸入或輸出是受版權保護的,采用生成式AI套用的金融機構應假設輸入的數據或查詢都可能公開,因此其應采取控制措施,防止無意中泄露知識產權或侵犯版權。
  • 最佳化後的文字:
    金融機構應積極招募和培養AI人才,並加強對董事會和高管層關於AI技術的普及和教育,幫助他們理解AI的基本概念、部署方式、主要風險以及相應的責任,以加強組織在AI套用方面的風險防控。AI套用的金融機構應開展人才招募工作,並幫助現有員工(包括董事會和高管層)了解AI技術的基本概念、部署方式、主要風險以及其在降低相關風險方面應承擔的責任。
  • 私營部門應積極參與人工智能規則制定,分享行業知識與經驗,推動多方共識。私營部門與監管機構、立法機構展開積極對話,將行業知識轉化為有效政策,確保人工智能的負責任發展。協作助力規則制定,推動人工智能的未來走向。
  • -對此,您有什麽看法見解?-

    -歡迎在評論區留言探討和分享。-