点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:袁梅花(广西壮族自治区社会科学界联合会秘书长)
作为引领新一轮科技革命和产业变革的战略性技术,人工智能带来前所未有发展机遇,同时也带来前所未遇风险挑战。习近平总书记在《全球人工智能治理倡议》中基于人类命运共同体理念提出了“以人为本、智能向善”倡议,为世界人工智能治理提供了新视角和清晰温暖的中国思路。以人为本是指人工智能的发展必须始终把人放在核心的位置,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,使人工智能始终朝着人类文明进步的方向发展。实现以人为本,需引导智能向善。应完善人工智能的内部算法逻辑并规范其外部应用场景,使人工智能真正成为社会进步的推动者。
“智能向善”要求人工智能发展合乎法律与伦理
人工智能技术若不加以规范和约束,可能成为潘多拉魔盒,释放并扩大人性中的恶。“智能向善”强调人工智能的设计与使用都应遵循法律规范并符合伦理规范,始终朝着对人有益的方向发展。
在个体使用场景中,人工智能应尊重人类个性,通过技术适配个体需求、维护权益而非压制个性或侵权。例如在教育领域,人工智能应摒弃分数导向的过度约束,依托数据分析捕捉学生差异化特征,推送个性化学习路径与资源以实现因材施教。在医疗领域,人工智能可作为医生的助手,整合患者基因组、病历、实时监测等数据,构建个人健康画像,生成多维病情分析报告,结合全球先进医学知识和案例,辅助医生制定精准的“一对一”治疗方案。同时,采用隐私计算技术体系,使得隐私数据可用不可见,并实现分类分级管理,确保患者信息安全和隐私。
在生产生活场景方面,人工智能可成为推动产业高质量发展和实现人民对美好生活向往的新动能;在民生服务场景方面,人工智能需成为提高公共服务质量和宣扬正能量的助推器,成为民众获取服务更便捷高效的手段;在社会安防系统构建中,应明确技术应用的边界,通过个人权益保护法律和隐私计算技术,实现公共安全与个人权利的平衡;在应急场景,可运用人工智能提升极端天气和突发事件预测效率,有效减少灾害影响。国家可以逐步强化大模型在中央和地方网信办备案审核中对算法、参数和应用的要求,推进社会“善治”的实现。
正如我国所倡导的,在世界范围内,人工智能必须符合全人类共同价值。应警惕算法偏见和技术武器化带来的技术霸权;推动人工智能资源普惠共享,通过南北合作、南南合作和三方合作等形式,弥合数字鸿沟;在全球性议题中,必须坚持人类对人工智能的最终决策权,让人工智能服务于人类整体的可持续发展。
“智能向善”需克服的三重难题
技术的“黑箱”难题。人工智能大模型的决策过程往往缺乏透明性与可解释性,其内部运作机制如同难以窥探的“黑箱”。一方面,其不可知性源于技术的约束,这使得算法中潜藏的偏见与歧视难以被察觉,导致在涉及伦理判断场景中陷入困境。另一方面,这种不可知性还源于道德观念的高度情境敏感性和文化多样性难以被编码为确定的计算规则。技术局限性与道德观念的复杂性使得人工智能在复杂伦理抉择中难以确保与人类价值预期一致。
企业利益与公众价值的冲突难题。在商业利益驱动下,人工智能往往优先服务于企业的降本增效,这可能与公众对公平、安全、隐私保护等价值诉求产生矛盾。例如,追求用户黏性的推荐系统可能加剧信息茧房效应,而数据驱动的商业模式容易侵犯个人隐私权与自主选择权。若缺乏有效的制度约束与外部监督,技术演进路径便会倾向于资本逻辑而非公共利益,最终导致技术创新与社会福祉之间的失衡。
全球伦理共识缺失与治理细化的挑战。不同国家和地区在文化传统、政治制度与发展阶段上的差异,导致国际社会对人工智能关于伦理原则的理解与践行存在显著分歧。现有伦理规范多停留在宏观层面,缺乏可操作的实施标准与违规惩戒机制。没有具体清晰与可操作的惩戒,伦理规范只能成为一种“软约束”,其权威性被严重削弱,难以对潜在的违规者形成有效威慑。
以“善治”为核心系统推进“智能向善”
“智能向善”的理想能否照进现实,关键在于积极拥抱人工智能发展的同时,能否构建一套行之有效的治理体系,采取科学监管,将理念转化为行动。针对技术“黑箱”、利益冲突与全球共识缺失这三重现实难题,我们必须以“善治”为核心框架,从治理机制、技术本身、社会生态三个层面系统施策,形成破解难题的合力。
构建以“善治”为目标的人工智能治理机制。核心在于运用技术与制度双轮驱动,确保技术发展服务于公共利益。其一,以技术赋能权力监督。可建立人工智能驱动的权力运行大数据监督平台,实现对行政审批、执法等流程的全覆盖动态监管。推动“一网通办”“一网统管”,提升政府透明度,并利用数据模型科学划分权责边界,自动预警越权行为,从技术上防止权力越界。其二,以刚性立法划定红线。需前瞻立法,明确技术应用的伦理与法律底线,并建立包含算法审计、违规重罚的刚性监管体系,以此约束资本无序扩张,平衡企业利益与公众价值。其三,以人工智能优化公共决策。利用社会治理数据平台对政策进行模拟推演与风险评估,提升公共服务的精准性与前瞻性,最终在高效治理中实现权力与权利的动态平衡,夯实“善治”根基。
推动人工智能技术向可信可控方向演进。从根本上破解“黑箱”困境需要推动人工智能技术向透明化、可控化方向发展。治理的有效性离不开技术底座的可信赖性,应在技术研发端大力发展可解释人工智能,使算法决策逻辑变得可追溯、可理解。同时,配套建立完善的算法透明度标准、评估体系及独立的第三方审计机制,对人工智能系统进行全生命周期监测与风险评估。借助技术与制度的双轮驱动,从底层确保人工智能系统不再是不可知的“黑箱”,而是透明、可控、可审计的治理工具,为“善治”提供可靠的技术支撑。
培育全社会协同的“智能向善”生态。“智能向善”社会生态的形成是弥合伦理共识分歧、实现可持续治理的长远之策。面对全球伦理共识缺失的挑战,短期需依靠制度约束,长期则依赖于生态培育。这就要求强化技术研发人员的科技伦理教育,将“智能向善”内化为职业操守;面向公众广泛开展数字素养与伦理意识教育,提升其理性认知和风险防范能力;积极营造开放包容的跨领域对话氛围,促进科技与人文社科的深度交流,逐步凝聚社会价值共识,为形成具有广泛包容性的科技伦理文化和全球治理框架奠定坚实的社会基础。