加强人工智能伦理治理需“软硬兼施”

发布时间:2024-11-11 22:26:09 来源: sp20241111

在全国科技大会、国家科学技术奖励大会、两院院士大会上,习近平总书记对我国要建成的科技强国作出深入阐释,提出必须具备五方面基本要素。

其中,“拥有强大的科技治理体系和治理能力,形成世界一流的创新生态和科研环境”是五方面基本要素之一。习近平总书记的重要讲话深刻阐明了新时代加强科技治理体系和治理能力建设的重要性,进一步明确了科技治理体系和治理能力建设要实现的战略目标。科技伦理治理体系是科技治理体系的重要组成部分,也是确保人工智能向善发展,为中国式现代化建设提供持续、健康、强劲动能的重要保障。

治理面临新形势新任务

近年来,我国高度重视、积极推动人工智能伦理治理,并取得显著成效。一系列举措包括成立国家科技伦理委员会及人工智能伦理分委员会、发布新一代人工智能治理原则、推进人工智能伦理治理相关法律法规建设、创新人工智能伦理治理政策工具、参与全球人工智能伦理治理对话合作等。还要看到的是,对标“拥有强大的科技治理体系和治理能力”的目标,对照人工智能迅猛发展和广泛应用的现实,当前我国人工智能伦理治理体系和治理能力建设面临新形势,亟待完成新任务。

一是要更全面、准确识别人工智能的影响及其伦理意涵。识别和评估影响,是人工智能伦理治理的前提。人工智能的广泛应用会产生什么影响,在哪些方面产生影响,不同影响如何生成和传导,以及各种影响会带来哪些伦理挑战,这些问题都未明晰。同时,在很多人工智能技术的应用场景中,我国实际上已扮演先行先试者的角色,没有太多可借鉴的现成经验。因此,新时期必须加强人工智能影响评估的理论和方法研究,持续丰富治理实践,努力形成人工智能伦理治理的中国经验和中国方案。

二是要更重视人工智能治理实践中的伦理问题。治理方式和治理工具符合伦理规范,是强大的科技伦理治理体系和治理能力的题中应有之义。随着人工智能治理规则、工具和实践增多,这些活动本身的伦理问题愈加凸显。这些问题的实质,是人工智能治理实践是否符合伦理规范,即是否以符合伦理的方式开展人工智能治理。新时期加强人工智能伦理治理体系和治理能力建设,必须高度重视对人工智能治理实践的伦理审查和伦理反思。

三是要提高人工智能伦理治理体系的有效性。近年来,我国积极推动人工智能伦理治理法律法规建设,涉及人工智能伦理治理的“硬法”和“软法”逐渐增多,并衍生出多样化治理机制和政策工具。但是,逐渐复杂的规则、多元主体的参与、日益丰富的政策工具,也增加了治理体系的复杂性,提高了出现合成谬误、治理体系整体效能下降的风险。因此,需进一步优化治理体系,明确各参与主体的责任与义务,加强跨部门、跨领域的协调合作,提升政策工具的有效性和针对性,确保人工智能伦理治理体系高效运行。

四是要增强人工智能伦理治理的国际影响力和引领力。国际影响力和引领力是强大的人工智能伦理治理能力的重要内容。近年来,我国通过积极参与人工智能伦理治理双多边对话合作、发布《全球人工智能治理倡议》、倡导加强人工智能能力建设国际合作等举措,与各国携手推进全球人工智能伦理治理体系和治理能力建设,在持续为全球人工智能伦理治理贡献中国力量和中国智慧的同时,也有效提升了我国在全球人工智能伦理治理领域的影响力。但是,全球人工智能伦理治理领域既存在广泛合作,也存在博弈和竞争,我国在全球人工智能伦理治理中的影响力和引领力,仍然与我国在全球人工智能技术发展和应用中的地位不够相称,需要进一步加强。

多措并举提升可操作性

新时期,如何加强我国人工智能伦理治理体系和治理能力建设?一方面,要全面认识人工智能伦理问题的内涵以及影响伦理治理实践的关键因素,确保治理体系和治理能力建设符合规律要求、符合实际情况;另一方面,要突出问题导向,抓住治理体系和治理能力建设中的关键点、改革工作的突破点,着力提升工作的针对性和可操作性。具体而言,可从以下六方面发力。

一是健全人工智能伦理治理法律法规体系。一方面,以法律法规的形式明确人工智能伦理问题的边界、不同主体在人工智能研发和应用过程中的权责划分,并根据实际情况适时对其进行动态调整;另一方面,用法律法规约束人工智能伦理治理实践,确保伦理治理实践符合法律规定和伦理规范。

二是健全人工智能伦理审查机制。加快健全人工智能伦理审查机构体系和伦理审查规范体系;通过业务培训等多种方式,加强伦理审查专业人才队伍建设;通过规范审查机构人员构成和审查流程等关键环节,加强伦理审查机构的能力建设,提高伦理审查质量;优化人工智能伦理风险分级分类标准,并建立与之相匹配的伦理审查和监管工作机制;进一步增加伦理审查工作的透明度,更好发挥伦理审查的导向作用。

三是建立人工智能伦理问题多元监督机制。进一步优化政府监管、行业自律、公众监督等多种监督方式的分工协作机制,增强监督工作的及时性和有效性、提高监督效率;支持人工智能企业和研发机构联合制定、共同遵守行业伦理准则,发挥自我约束机制的作用;提高公众对人工智能伦理问题的关注度和理解力,增强公众有序参与人工智能伦理监督和治理的能力。

四是加强人工智能伦理教育。支持从事人工智能技术研发的机构面向研发人员开展伦理培训,鼓励人工智能产品和服务提供机构与用户就特定应用场景中的伦理规范加强沟通;在中小学科技类课程中,适当增加人工智能伦理议题相关内容,将人工智能伦理课程作为相关专业本科生和研究生的必修课以及面向全体大学生的选修课;加强面向全社会的人工智能伦理规范和知识普及教育。

五是加强人工智能伦理问题及治理效果研究。前瞻性开展人工智能社会实验,支持政产学研在人工智能经济社会影响识别、政策干预效果评估等方面共同开展系统性研究;支持在各个应用场景中开展差异化的伦理治理机制探索和工具创新,增强伦理治理体系的敏捷性和韧性。

六是积极参与全球人工智能伦理治理。推动以联合国为中心的全球人工智能伦理治理对话与合作;围绕人工智能伦理治理问题,积极开展双多边交流合作,共享最佳实践、共同支持相关研究、协同制定治理规则,与各国携手推动全球人工智能伦理治理体系和治理能力建设。

(作者系中国科学技术发展战略研究院研究员)

(责编:王震、陈键)
选择用户
全部人员 全选 撤消
谢志刚
李岩
李海涛
谢志强
李亚琴
潘潇潇
杨亚男
高荣新
郑文静
金琳
张银波
张欣
陈曦
刘涛
王长青
高广柱
孙圆
行政专员
付雪枫
张雪莲
张璐
刘相群
张明璇
李静
孙静
王晨
赵夏
马洪亮
张兰
黄莉
李潍伊
常恩宁
侯昭宇
韩岩峰
冯亚红
林洋
陈静
刘婧
魏保国
唐彦秀
张楠
刘瑞萍
付严明
荣伶
马建国
邓爱青
系统管理员