当前位置: 华文世界 > 科技

圆桌|人工智能与社会科学如何双向赋能

2024-07-12科技
编者按当前人工智能技术的快速发展和广泛应用,对经济发展、社会进步和人类生活产生极其深刻的影响,加快构建人工智能发展和治理的国际合作体系已成为全人类共同诉求。2024年世界人工智能大会的主题为「以共商促共享 以善治促善智」,正突出反映了社会各界对人工智能发展中的社会规范与科技伦理议题重要意义的高度关注。
人类社会每一次重大跃进,人类文明每一次重大发展,都离不开哲学社会科学的知识变革和思想先导。在今年的世界人工智能大会期间,由上海市社会科学界联合会主办的「人工智能新进展与社会科学的未来」论坛成功举行。论坛旨在探索人工智能与社会科学的双向赋能路径,推进人工智能与社会科学的融合发展,为人工智能的健康良性发展提供有力的社科支撑,同时赋予人文社会科学更具前沿性和时代性的研究视野。今编发部分专家观点,以飨读者。
视觉中国
当今全球的科技竞争,是数字文明和创新制度生态的比拼
江必新(中国法学会副会长):
人工智能是当今世界解放人、塑造人、使人真正成其为人的最前沿的、最重要的工具之一。它也是当今世界竞争最为激烈的场域之一。人工智能在带给世界诸多确定性好处的同时,又带给世界诸多的不确定。法治是最稳定、最可预见、最具有治理效力的治理工具,我们需要法治来对人工智能这一「双刃剑」进行规制和治理,为世界注入稳定性和可预见性。促进科技向善,不仅要靠伦理引导,而且要靠法治保障。当今全球的科技竞争,不仅是新型智能基础设施的角逐,更是数字文明和创新制度生态或者说法治生态的比拼。
那么,如何搭建这样一个法治框架?在治理理念上,我比较关注的是「六个统一」:坚持以人为本与尊重客观规律的统一;坚持防风险与谋发展、保创新的统一;坚持做到防止垄断和数字鸿沟与促进公平竞争的统一;坚持维护个人权利与促进数据流通和应用的统一;坚持确保国家安全与促进国际交流与合作的统一;坚持维护数字产权与谋求社会共生、互信普惠的统一。
在治理内容上,要做到四个「既要又要」:第一,在法治体系方面,既要构建完备的有关人工智能的法律规范体系,又要完善好法治实施体系。第二,在规范主体方面,既要规范设计者、制造者,又要规范平台的建造者和传播者、使用者,做到全链条的规范。第三,既要对数据进行规制,确保数据的客观、全面、完整、丰富,又要对算法和算力进行规制。关于算法,既要为算法设定实体正义规则,又要为算法确定可解释、可回溯、可问责的形式规范。第四,在规范构成方面,既要为不同的主体配置不同的权利;同时也要为所有相关者设定义务和明确责任。
在规则的策略上,我把它归纳到若干个结合。一是立规与立德相结合。二是赋权与问责相结合。三要设置底线和包容监管、包容审慎监管相结合。不能侵犯他人权利、不能损害社会公共利益、不能损害国家利益、不能危害国家安全,这些基本底线,肯定要坚守。四是统治和类治相结合。规范人工智能,法治要统一,但是一定要分类。不同的风险,用不同的规则、办法,这才科学。五是他治和自治相结合。六是政府和社会组织相结合。七是硬治和软治相结合。涉及底线问题,一定要刚性。但是看不清楚的时候,更多地采取引导性的柔性治理的方式。八是法治、规治和技治相结合。九是事后的救济与事前的预防相结合。十是敏捷治理和全周期治理相结合。出了问题,敏捷治理,对症下药。有实践有经验之后再实施全周期治理。十一是系统治理和重点治理相结合。十二是批发与零售相结合。「零售」是什么?即通过司法案例,通过典型案例,通过法律的判决,来树立标杆。然后一个一个案例处理,集腋成裘,最后系统化,上升为系统的司法解释,上升为法律。
总之,人工智能治理是个系统工程,也是一个复杂的、长期的过程,需要我们逐步地总结经验,最后形成体系化的法律治理体系,不要指望一步到位。
推动AI治理体系成为国际公共产品,而不是小圈子俱乐部
薛澜(国家文科一级教授、清华大学苏世民书院院长):
从人工智能全球治理角度来看,问题和挑战主要集中于地缘政治、技术路径、治理与技术步调协调、机制建构以及监督执行等方面。人工智能的技术发展特别快,但我们相应治理的法律法规和制度变革是比较缓慢的,这其中的步调是不一致的。人工智能治理需要什么样的机制体制?这里有个很大的问题,就是我们所谓的机制复合体(regime complex)。在比较复杂的全球性问题上,会有不同的治理机制都对这个问题有发言权,但又没有完全的发言权,并且机制之间没有上下级关系,可能有些是互相协调的,也有一些是完全矛盾的。比如我曾经研究过一个基因数据的治理,会涉及专业组织、国际组织、基金会、政府部门、立法机构等等。这就可能带来一个比较混乱的局面,使得当事者感到无所适从。
如何应对AI全球治理面临的挑战?我想首先需要考虑的是,对全球人工智能治理问题进行分层次分类别处理。我们现在总想着一下子以系统的办法来解决问题,会遇到许多困难。那么能否先分门别类地梳理一下,大家分分工。不要总想着完全以统一全面、自上而下的方式来解决问题,而是分门别类、自下而上地去解决。第二,要推动AI治理体系成为国际公共产品,而不是小圈子俱乐部。第三,要推动中美在科技领域有选择地合作,如气候变化、人工智能安全等。第四,要拓展多层次多渠道双边交流对话,包括技术社群、社会科学专家、政策领域等等。第五,推动国际AI大科技领域合作,现在大家都很担心人工智能是否会出现自主性,那么就需要各个国家科学家一起合作进行研究,从技术层面来提出应对危机的预案。
AI的发展对社会科学的未来既是挑战也是机遇。以公共政策领域为例,我们面临两类大问题:一类是为了人工智能发展的公共政策(Public Policy for AI),我们需要去研究公共政策如何推动人工智能的发展,并解决人工智能应用带来的风险和负面影响。另一类是用于公共政策的人工智能(AI for Pub lic Policy),人工智能在公共政策分析和公共政策过程中都有着广泛的应用。
面对AI带来的令人不安的新问题,乐观主义是最好的一个办法
王战(上海市社会科学界联合会主席):
科技发展的规律性是什么?工业革命、信息技术革命以及将要到来的人工智能革命,其实是有规律性的,这个规律性和人的认识有关系。工业革命实际上是人的肢体功能的延伸,信息技术革命是人的神经系统的延伸,而新一轮科技革命是以人工智能为先导的类脑智能革命。科技的进步性取决于科技伦理。要为人工智能设置一个科技伦理的负面清单,告诉它哪些领域可以碰,哪些领域不能碰。这是我们搞社会科学的人要好好研究的问题。
王国豫(复旦大学哲学学院教授):
自然科学、技术科学和人文科学,它们的属性是不一样的。一个是往前看,它总是想突破规范;而人文社会科学,它总是往后看,希望从历史当中汲取教训。但问题是,物理学家和搞人工智能的,为什么要向后看,听人文科学的指导?中国科协名誉主席韩启德曾说,科技伦理本身应该成为未来科技的方向盘和刹车。但他紧接着还有一句话,方向盘和刹车得装在机器上、技术上。如果方向盘和刹车离开了火车,人文科学站在旁边对于物理学和人工智能说,你不应该这么做。谁听你的?你也刹不了车。这是很大的问题。
我最近看嫦娥六号,突然想到航天飞行器里的变轨器可以作为另一个比喻。航天飞行器要脱离地球进入月球轨道,就一定要摆脱引力、要变轨。变轨器本身必须要装在飞行器上,它要保证飞行器在预定的轨道上,到了一定时候燃烧产生助推力,推动轨道来变轨。人文社会科学应该成为人工智能发展的「变轨器」:一方面它必须能够紧跟人工智能技术发展的步伐;另一方面,它还可以在必要的时候及时矫正人工智能发展的轨迹,使其不至于偏离人类所期待和预设的价值轨道。
AI对许多学科可能造成一种危机感,但就哲学来讲,我觉得它比任何时候都变得更加需要,因为AI提出了非常多的哲学问题。比如,AI不仅仅是一个工具,随着AI越来越多地进入我们的生活世界,我们的自主性一点一点被吞噬,像GPS导航系统,它实际在很大程度上控制着我们人,控制着我们的行动轨迹,离开了这些工具我们几乎不能够生存,这其实已经威胁到我们的自主性问题。如果我们的很多决策都让给了AI,那么人类在何种意义上还是人本身?AI的发展从认识论上提出了许多新问题。
傅徐军(阿里巴巴集团研究员、钉钉首席运营官):
我对AI的发展还是比较乐观的。任何一项新技术都是一把双刃剑。在解决一些问题的时候创造了一些问题。这些问题往往是新的,有不确定性的,令人不安的。面对这些,乐观主义是最好的一个办法。
我们不应该说,对技术有些限制。我们应该说,我们应该去找到那些更好的技术,去解决原来新技术产生的那些问题,这是最好的方式。用汽车来打比方。如果让汽车前进,我们应该踩油门。在转弯或者是要降速的时候,要踩刹车。它们其实不是完全冲突,是应该相辅相成。我们真正要搞清楚的是什么时候踩油门什么时候踩刹车。我们大部分时候要前进,更多的时候是需要踩油门。但要在适当的时候,用适当的方法踩刹车。这个刹车可能是,比如说法律上的保障,或者是科技伦理上的引导和约束,也有可能是用别的技术做很多的约束和支撑,让AI新技术发展更好。
劳拉·赞诺蒂(弗吉尼亚理工大学政治学系教授、量子社会科学研究代表人物):
AI已经成为我们生活不可或缺的一部分。一个有意思的问题在于,如何让我们的量子社会科学能作为一种批判式思维,帮助我们去分析和评估?AI是一种工具。因此,它就像药一样,可以治病,但如果不谨慎、不适当地使用也可以害人。AI就像是一种知识、权力、金钱的集合。我们不能用线性方式去控制AI发展,将它完全认为是负面的或者是正面的。AI就像一个浪潮,会卷过很多媒介,但关键要看它碰到了其他的浪之后是什么样的反应?它可能会受到限制,可能会被放大。因此,社会科学应该变得越来越交叉学科化。我们不能够远离技术,不能只考虑外部的监管。我们必须使用AI的语言,去深入了解AI,只有这样才能够了解AI这个浪潮是如何席卷我们社会生活的方方面面。我们可以提出一些问题:这个工具能够做什么?谁控制着它?它替代了谁?是谁控制了数据?是谁支付?谁有权使用?还有AI对于环境的影响是什么?对于我们能源需求有多大?作为社会科学学者,你可以提出很多问题,但如果我们不了解AI的内在机理,我们没办法提出这样的问题。
人机共生的复合智能是未来不可逆的一个发展方向
托比·沃尔什(澳大利亚科学院院士、新南威尔士大学计算机教授):
像ChatGPT这样的大语言模型,激发了大家的想象力。OpenAI技术也让人非常关注。AI的发展对于人类来说,会带来怎样的机会呢?哪些是机器人擅长的,哪些是人不擅长的?那些创造未来的人,他们的工作是不能够被取代的。机器是没有情感的。像医生、心理学家、销售、政治家这些岗位是非常重要的,因为他们有着情绪价值。还有一部分就是创意。比如艺术。道德感、情感的唤起,这些都是艺术的强项,这些是机器做不到。当然,现在AI的创意、创造力,也是越来越增强了。但我相信人类的创意,还是不能够被AI所替代。
郑磊(复旦大学国际关系与公共事务学院教授、数字与移动治理实验室主任):
这一年多来,我们在实验和训练如何在社会科学领域中使用这些AI工具。刚开始我们确实比较震惊,AI能够导出这么多的结果。用到现在,我们的感受是,首先要提出好问题。一个博士生提出问题去问AI:论文选题是什么?从哪些角度去切入?这已经受过训练,一个小学生问不出这样的问题。AI导出结果,确实给了很多灵感,但是比较碎片化。它的维度和分类,还需要人的加工整合和分类,包括人的深度对话,其实是人机共生的复合智能。下一步培养研究生,人工智能时代的教育和学习方式会变成什么样子?还有教材吗?还需要老师吗?还有学校吗?学习效果会更好吗?还需要学习吗?有太多的未知需要我们好好讨论一下。
罗伯特·布朗(维也纳高等研究院资深研究员、技术本体论研究学者):
人工智能被指定为一项单一的、去政治化的科学技术对象,是科学进步的缩影。在一系列被归类于「美好人类世」的技术中,人工智能是最新近出现的。尽管人类已经「将它触及的每件事物揍得面目全非」,但在「未来世界」这个为了当前世界所设的视域中,总还是有人对我们承诺说,人工智能这一新技术将为解决我们的诸多危机做出贡献。不过,「人类世」其实是西方人文中的政治本体论。它是西方科学实在论对阿那克西曼德式/笛卡尔式/牛顿式的「单一的世界」(译按:One-World-World,即某种「‘只有一个世界’的世界观」)的演绎。所谓「智能人造」的去政治化实在论,充斥于许多人工智能的论述中,而这无非是霸权化和普遍化的「单一的世界」,它被西方常识实在论制定出来并受到反复的再创制。人工智能不是真正的「人工的智能」,而是一个由人工智能构成和建立的世界,一个由无数个体凝聚出来并居住其中的世界,一个被人造之物塑造得可被智性理解的世界。
熊易寒(复旦大学国际关系与公共事务学院教授):
见仁见智,实际上有很强的学科色彩和学科差异。我们的科学家和科技工作者,更多的是乐观派;我们的人文工作者、哲学家,更多的是带点悲观的色彩。我们的社科学者,尤其是公共管理学研究者,可能是谨慎的乐观派。今天大家都在强调领导力、创造力、想象力的重要性,也就是那些让我们区别于AI的更深层次的人性那部分的东西将变得更加重要。我们越来越需要提出原创性的问题。未来可能会出现分化,就是超越人类和亚人。今后人工智能的发展方向越来越呈现为一种隐秘的状态,人工智能越成功,人工智能和人类智能会变得越来越不可分。我觉得这种不可分的状态是未来不可逆的一个发展方向。
作者:
图:视觉中国编辑:陈瑜责任编辑:杨逸淇
转载此文请注明出处。