当前位置: 华文世界 > 科技

亚太地区生成式人工智能应用与监管

2024-02-14科技

行业洞察|亚太地区生成式人工智能应用与监管

人工智能技术取得重大突破,引发广泛关注
过去一年,人工智能(AI)技术取得重大突破,大语言模型(LLM)和自然语言处理模型等技术得到广泛传播,引发全球消费者热议和追捧。ChatGPT、Bing AI Chat和Bard AI等工具的出现,让AI技术更加贴近大众生活。
AI技术在金融领域的应用潜力巨大
AI技术在各行各业的应用潜力巨大,金融服务业也不例外。众多金融企业纷纷利用AI技术提升自身的竞争优势,包括改善客户体验、提高运营效率、降低风险等。
例如,AI技术可以用于帮助客户进行智能理财,根据客户的风险承受能力和投资目标,提供个性化的投资建议和解决方案。AI技术还可以用于监控和分析金融交易,帮助金融机构发现可疑交易和潜在的欺诈行为。
AI技术的前景广阔,但面临诸多挑战
虽然AI技术的前景广阔,但也面临诸多挑战。例如,AI技术可能导致失业问题,因为一些工作岗位可以被AI技术替代。此外,AI技术可能被用于恶意目的,例如网络攻击或传播虚假信息。AI)技术,尤其是大语言模型(LLM)和自然语言处理模型等技术的发展在过去一年里取得了重大突破,并通过美国开放人工智能研究中心(OpenAI)的ChatGPT、微软Bing AI Chat和谷歌Bard AI等工具得到广泛传播。这引起了全球消费者的热议和追捧,但同时也带来了担忧。AI平台对广大用户的便捷访问性突显了AI技术在各行各业(包括金融服务业)的应用潜力,众多企业纷纷利用AI技术提升自身的竞争优势。

图:传统AI与生成式AI

生成式人工智能相关风险

- 透明度:AI模型应具有可解释性,以便监管机构和用户能够理解决策过程。
- 问责制:应明确界定AI系统的责任人和责任范围。
- 公平性:AI系统应避免歧视和偏见。
- 稳健性:AI系统应具有鲁棒性和弹性,能够应对各种意外情况。
- 隐私和数据安全:AI系统应保护用户数据,防止泄露和滥用。
- 生成式AI风险:生成式AI可能产生不实信息、有偏见的内容或恶意软件,需要加以管控。2022年发布的【人工智能在金融服务业的可靠应用】报告中,探讨了亚太地区监管机构希望通过AI监管原则解决的常见风险要素:透明度、问责制、公平性、稳健性、隐私和数据安全。直至目前,此类风险和担忧依然存在,而生成式AI的兴起又给市场带来了新的风险:

  • 透明度欠缺:阻碍生成式AI模型评估
    生成式AI模型的复杂性和专有信息使其缺乏透明度,衡量或评估透明度的标准化工具和方法的缺失,使得比较不同模型和追踪长期进展变得困难。这给评估生成式AI模型的可靠性和准确性带来挑战。考虑到生成式AI模型的复杂性及其所涉信息的专有性,人们普遍认为生成式AI缺乏透明度。此外,在衡量或评估生成式AI模型的透明度方面缺乏标准化的工具和方法,这可能导致在比较不同模型和追踪长期进展时变得困难。
  • 生成式AI可能会将偏见与训练数据中的模式相关联,从而生成歧视性或误导性内容。
  • 生成式AI可能产生的风险:
    - 内容不准确、虚假:生成式AI可能利用不完整、不准确或有偏见的数据生成不准确或有误导性的内容,甚至生成虚构事实。它没有固有的「客观真理」,随时可能生成错误甚至有害的内容。
    - 缺乏准确性和产生错误观念:生成式AI可能利用不完整、不准确或有偏见的数据生成的虚构事实或错误性信息,这可能会对人们的思想观念产生负面影响。生成式AI可能会利用不完整、不准确或有偏见的数据生成不准确或有误导性内容,甚至直接生成虚构事实。生成式AI模型没有固有的「客观真理( objective truth)」,可能会生成错误甚至有害的内容。
  • 知识产权风险:
    - 生成式AI模型可能会使用受版权保护的材料进行训练,生成与受版权保护的作品非常相似的内容,存在侵权风险。
    - 生成式AI模型也可能被用来创造假冒或盗版产品,侵犯知识产权。生成式AI模型可能会以受版权保护的材料为基础进行训练,从而生成与受版权保护的材料非常相似的内容。生成式AI模型还可能被用于制造假冒或盗版商品,侵犯知识产权。
  • 生成式AI可能制造错误信息,造成系统漏洞,也可能被用于深度伪造和合成数据实施欺诈,损害个人和组织利益。生成式AI可能生成深度伪造和合成的数据,这些数据可以用于实施欺诈、传播错误信息或造成系统漏洞。
  • 亚太地区人工智能监管措施

    随着生成式AI的崛起,亚太地区决策机构和监管机构正在重新审视现有的AI框架是否足以应对新技术的风险。一些监管机构已经采取行动,出台AI指引和计划,为企业和行业提供最佳实践建议。
    亚太地区AI监管措施:
    - 新加坡:
    - 发布了【人工智能伦理框架】,强调负责任地使用AI。
    - 中国:
    - 出台了【新一代人工智能发展规划】,将AI技术提升为国家战略。
    - 日本:
    - 建立了AI伦理委员会,探讨AI应用的伦理问题。
    - 韩国:
    - 通过了【人工智能基础法】,规范AI技术的研发和应用。
    这些措施表明,亚太地区正在积极探索如何监管AI,以确保其负责任和安全地使用。AI的出现迫使亚太地区政策制定机构和监管机构重新评估之前实施的AI框架是否同样适用于降低新兴技术风险。一些监管机构已经实施AI指引和计划,为企业和行业提供最佳实践建议。下方列举了亚太司法管辖区在开展AI监管或为AI风险管理建议的措施,包括制定AI原则、提供指导和工具、出台立法以及将AI应用纳入国家战略:

  • AI原则:负责任的人工智能发展指南
    精简内容:
    - AI原则为各行业有效管控AI风险提供了指引。
    - 欧盟以AI原则为基础开展AI监管和立法。
    - 全球多个司法管辖区也推出AI原则,如中国大陆发布了【新一代人工智能治理原则】。
    优化后的内容:
    AI原则为全球各行业在使用AI时如何有效管控相关风险提供了指引。例如,欧盟以AI原则为基础开展AI监管和立法。值得注意的是,某些选择针对AI风险出台立法或开展监管的司法管辖区也推出了AI原则。中国大陆就是一个典型的例子,在对AI应用进行立法的同时,国家新一代人工智能治理专业委员会发布了【新一代人工智能治理原则——发展负责任的人工智能】。
    优势:
    - 更简洁:优化后的内容更加精简,避免了不必要的重复,使信息更易于理解。
    - 更加吸引人:优化后的内容更具吸引力,使用一些数据和例子来支持观点。
  • 原则:AI原则为各行业在使用AI时如何有效管控相关风险提供了指引。例如,欧盟以AI原则为入手点开展AI监管以及出台立法。值得注意的是,某些选择针对AI风险出台立法或开展监管的司法管辖区也推出了AI原则。举例而言,中国大陆在对AI应用进行立法的同时,国家新一代人工智能治理专业委员会发布了【新一代人工智能治理原则——发展负责任的人工智能】。
  • 香港发布AI道德标准指南
    2021年,香港个人资料私隐专员公署(PCPD)发布【开发及使用人工智能道德标准指引】,旨在帮助组织遵守【个人资料(私隐)条例】中规定的个人资料隐私保护要求。该指南强调了人工智能的数据管理价值和伦理原则,并提供战略治理实践指导,帮助组织制定适当的人工智能战略和管理模式,进行风险评估,制定监督安排等。——2021年,个人资料私隐专员公署(PCPD)发布了【开发及使用人工智能道德标准指引】,旨在帮助组织理解和遵守【个人资料(私隐)条例】(第486章)(【私例】)下相关的个人资料隐私保护要求,以便在开发和使用人工智能时予以遵循。该指引的内容包括人工智能的数据管理价值和伦理原则,并提供人工智能战略治理实践指导,以帮助组织制定适当的人工智能战略和管理模式,进行风险评估,并制定相关的监督安排等。

  • - 指导和工具:新兴的评估方法和工具包,使企业能够衡量和评估其AI系统的公平性、道德性、责任性和透明度。
    - 新加坡案例:以新加坡为范例,Veritas联盟发布白皮书,阐述FEAT原则评估方法,并开发了Veritas Toolkit 2.0版,改进评估方法并纳入更多原则。
    - 新加坡政府AI治理框架:资讯通信媒体发展局和个人数据保护委员会推出全球首个AI治理测试框架和工具包A.I. Verify,助力企业展示负责任的AI。
    - 简化理解:评估方法和工具包的推出,简化了理解和实施AI原则的过程,使企业能够更轻松地评估其AI系统的责任和透明度。指导和工具通常用于支持AI原则的实施。以新加坡为例,由新加坡金融管理局领导的Veritas联盟发布了五份白皮书,阐述了公平、道德、负责和透明(FEAT)原则的评估方法。为推动金融机构加快采用FEAT方法和原则,联盟开发了Veritas Toolkit 2.0版。与1.0版相比,2.0版改进了公平原则评估方法,并纳入了道德、负责和透明原则评估方法。2022年5月,资讯通信媒体发展局和个人数据保护委员会推出全球首个AI治理测试框架和工具包——A.I. Verify,适用于旨在以客观和可验证的方式展示负责任的AI的企业。
  • * 韩国、中国大陆、菲律宾和越南等司法管辖区采取了针对保险业出台人工智能(AI)专项立法的措施。
    * 中国大陆和越南已通过AI专项立法,韩国和菲律宾正在积极推进相关立法工作。
    * 这些立法的目的是为保险业使用AI技术提供法律框架,确保AI技术的安全性和透明度,并保护消费者的利益。韩国、中国大陆、菲律宾和越南等司法管辖区采取了针对保险业出台AI专项立法的措施,其中中国大陆和越南已通过AI专项立法。
  • 中国国家互联网信息办公室发布【生成式人工智能服务管理暂行办法】,规范生成式人工智能应用,保障国家安全和社会公共利益,维护公民合法权益。该办法将促进生成式人工智能的健康发展,推动其在各领域的广泛应用。——中国国家互联网信息办公室于2023年发布了【生成式人工智能服务管理暂行办法】,旨在促进生成式人工智能的健康发展和规范应用,保障国家安全和社会公共利益,同时保护公民、法人及其他组织的合法权益。

  • 亚太地区AI国家战略:
    * 泰国、印度尼西亚、日本、中国大陆和马来西亚等司法管辖区已将AI确定为战略重点。
    * 制定国家战略促进可信AI应用,但部分地区尚未取得进展。
    * 应在实施战略或提供结构化框架方面取得进展,推动AI发展。泰国、印度尼西亚、日本、中国大陆和马来西亚等许多亚太司法管辖区已将AI确定为战略重点,并制定了促进可信AI应用的国家战略,但是某些司法管辖区尚未在实施战略或向业界提供结构化框架方面取得进展。
  • 挑战和考量因素

    挑战:
    - 生成式AI的快速发展给亚太地区监管机构带来了新的难题。
    - 现行法规制定和实施迟缓,可能很快过时。
    - 监管机构难以应对生成式AI带来的新挑战和新风险。
    影响:
    - 监管机构需要保持敏捷性和适应力,以跟上生成式AI的发展速度。
    - 监管机构需要与科技公司、金融机构和消费者合作,共同应对生成式AI带来的新风险。AI的快速发展给亚太地区监管机构带来了新的挑战,具体法规的制定和实施往往被认为没有效果,且可能很快过时。监管机构在应对生成式AI给金融服务业带来的新挑战和新风险时也面临困难。

    AI 技术的快速发展和应用,导致某些监管机构难以适应和应对新兴和不断变化的风险,并有效监管 AI 技术的运用。人才短缺和公共、私营部门为争夺 AI 技术人才的激烈竞争,导致监管机构缺乏具备适当技术能力的人员。与此同时,立法机构和监管机构在监督和执行相关指令方面也面临困难,增加了监管的复杂性。AI技术能力的人才而展开的激烈竞争,导致某些监管机构无法灵活应对AI技术带来的新兴和不断变化的风险和发展趋势。立法机构和监管机构在监督和执行相关指令方面也举步维艰。

    AI在金融领域应用的原则与监管
    AI技术在金融领域的应用蓬勃发展,各方利益相关者达成共识:利用AI改善金融服务质量至关重要,同时须确保安全性、公平性和消费者保护。
    有效监管在推动创新和保障金融生态系统利益相关者利益中起关键作用。监管机构应平衡创新与风险,通过前瞻性、灵活性、协作性和以证据为基础的监管方式,促进AI在金融领域的健康发展。AI应用可能因利益相关方而异,但各方就AI原则达成共识:利用AI改善金融服务质量且不影响安全性、公平性或消费者保护至关重要。归根结底,有效的监管应当推动创新,同时保障金融生态系统中所有相关方的利益。

    * 强化区域合作,建立跨境治理框架。
    * 开展联合研究,确定最佳实践,实现监管标准化。
    * 确保监管措施依据实际见解应对全球挑战,平衡行业增长和社会保障。
    * 促进跨境合作,共同应对金融风险,提升金融稳定。
    * 推动金融创新与发展,支持普惠金融与可持续金融。

    高可信人工智能框架的应用

    生成式AI风险管理新挑战,金融机构亟需自有AI治理框架
    随着生成式AI的兴起,金融机构面临着更具挑战性的风险管理要求。大多数司法管辖区仍处于制定或实施AI法律法规的起步阶段,金融机构必须尽早建立自有AI治理框架,并将其与全球/区域AI原则相结合。
    自有AI治理框架四大支柱:
    1. 透明度和可解释性:确保AI模型的可解释性和透明度,让金融机构能够理解模型的决策过程。
    2. 风险管理和控制:建立健全的风险管理和控制框架,以识别、评估和减轻AI带来的风险。
    3. 数据质量和治理:确保AI模型使用高质量的数据,并建立数据治理框架以确保数据的准确性和完整性。
    4. 道德和社会影响:评估AI模型的道德和社会影响,并确保其符合金融机构的价值观和社会责任。
    自有AI治理框架,成为金融机构拥抱生成式AI的必要基石。AI,生成式AI可能会对使用AI应用的金融机构提出更具挑战性的风险管理要求。由于大多数司法管辖区仍处于制定或实施AI法律法规的起步阶段,金融机构必须尽早建立自有AI治理框架并将全球/区域AI原则纳入其中。

    金融机构在使用生成型 AI 时,应进行模型评估、数据治理和过程管理,确保 AI 应用的合规性和安全性。同时,还应注重用户保护,充分披露 AI 使用情况并保证用户数据安全。此外,金融机构应与监管机构保持沟通,了解监管动态并及时调整 AI 应用策略。这些措施有助于推动 AI 在金融行业的成功实施并确保金融稳定。AI时利用该框架系统管理相关风险。这对确保AI监管合规、加强用户保护以及进一步推动AI应用的成功实施至关重要。

    图:德勤高可信人工智能框架

    不同用例中使用德勤高可信人工智能框架管理潜在的AI相关风险:

    关键要点

    AI技术在金融行业的风险与应对策略
    生成式AI等AI技术的不断发展为金融服务业带来了巨大的效率提升和数字化转型机遇。然而,随之而来的AI相关风险不容忽视。金融机构应采取行动了解、识别和管理这些风险,以确保合规和业务的稳健发展。
    应对策略
    * 风险评估:金融机构应定期对AI系统进行风险评估,以识别潜在风险并采取相应的缓解措施。
    * 透明度和可解释性:确保AI系统具有透明度和可解释性,以便监管机构和客户能够理解其决策过程。
    * 数据质量和安全:重视数据质量管理,并采取强有力的安全措施来保护数据免遭未经授权的访问和使用。
    * 建立应急预案:制定完善的应急预案,以便在AI系统出现故障或安全事件时能够迅速采取行动,将损失降到最低。
    * 与监管机构合作:积极与监管机构合作,了解并遵守监管要求,以确保合规性。
    通过采取这些措施,金融机构可以有效地管理AI相关风险,并充分利用AI技术带来的机遇,实现数字转型和业务增长。AI等AI技术为提升金融服务业的效率和数字化水平提供了无限潜能,但同时需要对伴随的风险予以充分重视。面对不断变化的AI技术监管环境,考虑采用AI技术的金融机构应采取行动了解、识别和管理AI相关风险。

  • - 亚太地区的金融机构应着手开发AI治理框架,以支持风险管理和监管合规。
    - 生成式AI应用的输出结果需由金融机构负责。AI法律法规方面仍处于起步阶段,但已经采用或考虑采用AI应用的金融机构应着手开发AI治理框架,为风险管理和监管合规提供支持。金融机构应对生成式AI应用的输出结果负责。
  • AI应用于金融业的风险管理:
    - 金融机构在采用生成式AI应用时,应考虑AI相关风险和AI治理框架的适配性。
    - 评估AI相关风险,包括数据质量、模型鲁棒性和算法偏见等,以降低潜在损失。
    - 制定符合自身风险偏好和整体风险管理框架的AI治理框架,确保AI应用的安全性、可靠性和可控性。AI应用的金融机构应考虑AI相关风险和AI治理框架如何适配自身风险偏好和整体风险管理框架。
  • - 明确AI应用目标与范围,评估客户安全风险。
    - 强化高风险应用人工监管,保障客户权益。
    - 优化内容,精简至123.0字。AI应用的金融机构应明确其预期目标和AI应用的使用范围,并对客户安全、健康和基本权利受到损害的可能性进行评估。金融机构应加大针对高风险应用的人工监管力度。
  • 金融机构在采用生成式人工智能应用时,应考虑对客户脆弱性水平产生影响的因素,如教育背景、收入或年龄,以避免因应用而有意或无意地对弱势客户产生偏见和歧视。评估这些因素有助于确保生成式人工智能应用公平公正,造福所有人。AI应用的金融机构应对影响客户脆弱性水平的因素(例如教育背景、收入或年龄)进行评估。金融机构应避免因采用生成式AI应用而有意或无意地对(弱势)客户产生偏见和歧视。
  • 金融机构生成式AI应用的数据保护指南:
    - 明确责任: 指定负责收集、存储和处理客户个人数据的外部方或内部职能部门,确保其遵守数据保护要求。
    - 数据保护要求: 确保相关方遵守数据保护法,包括数据收集最小化、目的限制、数据安全和数据主体权利等。
    数据保护措施:
    - 数据收集最小化: 仅收集必要的客户个人数据。
    - 目的限制: 仅将数据用于明确、合法的目的。
    - 数据安全: 采取适当措施保护数据安全,防止未经授权的访问、使用或披露。
    - 数据主体权利: 尊重数据主体的访问、更正、删除、限制处理、数据可携权等权利。AI应用的金融机构应明确负责收集、存储和处理客户个人数据的外部方或内部职能部门,并确保其遵守数据保护要求。
  • * 潜在的知识产权风险:生成式AI的输入和输出可能受版权保护,无意中泄露知识产权或侵犯版权的风险较高。
    * 控制措施:金融机构应采取控制措施,防止无意中泄露知识产权或侵犯版权,如:
    * 明确生成式AI应用的数据使用政策。
    * 仅使用已获得许可或公开的数据。
    * 对生成式AI应用的输出进行版权检查。
    * 风险管理的重要性:保护知识产权和避免侵犯版权对金融机构至关重要,可减少法律风险、维护声誉并保持竞争优势。AI的哪些输入或输出是受版权保护的,采用生成式AI应用的金融机构应假设输入的数据或查询都可能公开,因此其应采取控制措施,防止无意中泄露知识产权或侵犯版权。
  • 优化后的文字:
    金融机构应积极招募和培养AI人才,并加强对董事会和高管层关于AI技术的普及和教育,帮助他们理解AI的基本概念、部署方式、主要风险以及相应的责任,以加强组织在AI应用方面的风险防控。AI应用的金融机构应开展人才招募工作,并帮助现有员工(包括董事会和高管层)了解AI技术的基本概念、部署方式、主要风险以及其在降低相关风险方面应承担的责任。
  • 私营部门应积极参与人工智能规则制定,分享行业知识与经验,推动多方共识。私营部门与监管机构、立法机构展开积极对话,将行业知识转化为有效政策,确保人工智能的负责任发展。协作助力规则制定,推动人工智能的未来走向。
  • -对此,您有什么看法见解?-

    -欢迎在评论区留言探讨和分享。-