点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:闫坤如(华南师范大学哲学与社会发展学院院长、教授)
人工智能作为引领新一轮科技革命和产业变革的颠覆性技术,正以前所未有的广度和深度重塑生产方式、生活模式与治理范式。从医疗诊断精准赋能到智能制造的提质增效,从智慧城市的高效运转到民生服务的普惠升级,从自动驾驶的解放双手到金融监管的精准风控等,人工智能技术应用已经释放出巨大发展动能。与此同时,人工智能技术发展也带来一系列新挑战,如生成式人工智能的内容伪造、脑机接口的隐私侵犯、算法偏见的伦理限制等问题层出不穷,成为制约人工智能健康发展的堵点和痛点。如何发展负责任的人工智能,正成为各国共同面临的核心议题。
2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,“发展负责任的人工智能”成为这份文件的主题,首次提出人工智能发展需要“共担责任”原则,明确了研发者、使用者和受用者等各方责任。2021年9月,国家新一代人工智能治理专业委员会进一步发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制。构建负责任的人工智能治理体系,既是顺应全球科技治理趋势的必然选择,更是我国实现人工智能高质量发展、建设科技强国的内在要求。负责任的人工智能不仅是技术挑战,也是对社会治理、伦理共识和全球协作的考验,更是对思维范式的转换。
第一个范式转换是人工智能的责任主体超出人类主体范畴。人工智能中的责任主体与传统的责任主体有所不同,传统的责任概念主要关涉人与人、人与社会之间的责任分配,主体是人类;而人工智能具有自我推理和自我决策能力,可能具有潜在的责任主体地位,人工智能的研发和应用拓展主体范畴,从人类到人类与智能机器共担责任。责任主体的范畴拓展需要归责范式的转换。当人工智能自主决策导致损害时,传统“工具论”难以认定责任。例如,自动驾驶汽车事故中,若AI系统自主决策,谁应该为事故负责难以界定。人工智能的责任主体突破人类范畴,从“工具”走向“主体”,需建构新的归责规则,明确人工智能与人类的责任边界。既要关注人工智能技术人员的职业道德和职业责任等“以人为中心的”的主体责任,也需要关注人工智能体或者道德机器的类主体责任。在研发阶段,通过“道德物化”将人类道德理念“嵌入”人工智能体,使人工智能体的行为符合人类价值观。通过人类“自律”和人工智能体的“物律”以及制度的“他律”等手段,把负责任人工智能的外在的“监督”责任与内在的“介入”责任相结合,让人工智能符合人类目标。
第二个范式转换是前瞻性责任取代后果性责任。德国马克斯·韦伯和汉斯·乔纳斯分别基于政治行为和科技伦理提出“责任伦理”。他们认为,行动者的责任是寻求达成既定目的的最为有效的手段或工具,并对其行为后果负责。责任伦理为现代技术、政治和伦理领域提供了重要的价值导向,强调人类行为需以责任为约束。这种责任是后果性责任,有其理论局限性。例如,自动驾驶汽车事故中,若AI系统自主决策导致损害,如何界定责任归属成为难题。这需要在人工智能技术发展过程中提倡前瞻性责任。所谓前瞻性责任,指在技术发展初期,通过法律、伦理或技术手段提前预判并约束人工智能可能带来的风险,确保其发展符合人类利益。例如,国务院《新一代人工智能发展规划》要求“加强前瞻预防与约束引导”。与传统的对已经发生事件的追溯性道德责任相比,考虑到人工智能潜在的巨大影响,人工智能责任主体应该积极承担起前瞻性道德责任,对人工智能研究的目的、方向以及可能产生的社会影响有比较清醒和全面的认知,并在研究过程中采取必要的防范措施。通过积极主动的前瞻性研究,提前分析人机之间不同的主体性责任,为负责任人工智能的发展提供新思路、新方法。
第三个范式转换是全球视角和价值共识重构取代单边治理。深度伪造、金融安全、数据泄露、系统性故障等风险是全球共同面临的问题,若各自为政,则易形成治理洼地,导致单边管控无效。与此相较,多边协商可形成价值共识与互认机制。2023年,中国国家互联网信息办公室提出《全球人工智能治理倡议》,强调和重申人工智能领域的国际合作。2025年8月,国务院发布《关于深入实施“人工智能+”行动的意见》。其中,第二部分提出“人工智能+”全球合作,强调推动人工智能普惠共享,把人工智能作为造福人类的国际公共产品,推动人工智能技术领域国际合作,帮助全球南方国家加强人工智能能力建设,助力各国平等参与智能化发展进程,弥合全球智能鸿沟,共建人工智能全球治理体系,探索形成各国广泛参与的治理框架,共同应对全球性挑战,共同研判、积极应对人工智能应用风险,确保人工智能发展安全、可靠、可控。
人工智能治理之所以必须依靠国际合作,在于人工智能具有跨国性、系统性与公共产品属性,单一国家无法闭环应对风险、统一标准与均衡发展,唯有多边协同,才能守住安全底线、避免治理洼地与技术割裂,让人工智能技术红利普惠全球。人工智能的有序发展需要达成“普惠共享” 的价值分配共识,避免人工智能技术红利被少数国家或者企业垄断,建立公平的价值分配机制,关注人工智能应用社会影响,通过跨国或者跨地区协作探索“人机协作”新模式,避免技术进步带来贫富差距与数字鸿沟等问题。西方治理途径主张通过立法和市场机制防止技术被滥用,中国主张“以人为本”,注重“经世致用”,技术须服务生产生活与社会需求。发展负责任的人工智能,需要广泛开展国际合作,建立国际共同遵守的最低共识,守住人类共同的伦理底线,推行伦理标准互认、建立多边治理平台,对人工智能进行全周期监管。发展负责任的人工智能的本质是以人类福祉为核心、以伦理规范为边界、以制度约束为保障,其核心要义在于让人工智能始终服务于人的全面发展。
(本文系国家社科基金重大项目“负责任的人工智能及其实践的哲学研究”(21&ZD063)阶段性成果)
