点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:刘科(河南师范大学科技与社会研究所教授);贾豫政(河南师范大学科技与社会研究所助理研究员)
近期,人们对DeepSeek(深度求索)的热议揭示了人机关系的复杂性,也凸显了在AI领域嵌入科技伦理的必要性。科技伦理是开展科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。我们要从科技伦理的视野来辩证地思考人机关系、人机宿命,有效防范化解人工智能带来的风险。
DeepSeek的内在潜质
DeepSeek是由我国一家科技创新公司独立构建的AI系统,具有强大的模型推理能力。它革新了当前AI领域的开发路径,采取了软硬件一体的优化和创新,可多层面实现加速计算、提高硬件利用效率,有效节省了计算资源。它扩大了AI的普及面,进一步提高了民众的使用率。它可直接面向用户或开发者提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景,支持联网搜索与深度思考两种模式。它帮助用户将AI技术融入日常工作,提升工作效率,培养用户的整合力和判断力,具有明显的“机智过人”潜质。
DeepSeek的误用和滥用
AI的快速发展与强大功能提升了人类认识世界和改造世界的能力,也助长了人们的“机巧之心”,出现了技术被误用和滥用的情况,涉及隐私侵犯、算法歧视、科研不端、虚假信息传播等问题。根据DeepSeek当前具有的功能,科研不端问题将是其引发的重要伦理挑战之一。
一是滋生学术造假。DeepSeek能够实时从网络数据库筛选并整合可供参考的资料。然而,这一手段的应用潜藏着一定的学术风险。首先,网络数据库的文献质量参差不齐,难以完全保证其准确性。但DeepSeek仍会基于算法持续输出其认定的“客观材料”,自动生成一篇论文。即使缺乏学术训练和理论知识的人也能借助它撰写“学术论文”。在DeepSeek生成论文的过程中,操作者仅需提供主题与目的,其余环节由系统自主完成。这不仅剥夺了研究者的自主性和批判性,还会危及科学研究的底层逻辑,即通过人类持续的智力劳动去推动知识创新。其次,DeepSeek在处理文献时可能存在断章取义或片面解读的情况。若生成的文本被广泛传播,将为后续学术研究埋下隐患。最后,部分研究者可能会过度依赖AI手段,甚至将其用于对已有研究的复制加工或篡改研究数据,而非真正意义的学术创新。这不仅会弱化学术研究的原创性,还会进一步加剧学术不端行为,严重影响学术诚信。
二是引发学术不公。在AI环境下,如何评定论文作者的真实水平成为亟待解决的难题。如果科研人员利用DeepSeek生成论文,提供的是AI产物,就增加了科研成果创新审查的难度。这种现象将破坏公平的学术生态,有可能会使那些埋头苦干、孜孜以求的科研人员受到不公正对待,影响学术界的良性竞争。由DeepSeek生成的“论文”往往缺乏真正的创新性,其科学价值令人生疑。假如出现一批过度依赖AI进行赋能的人员,则“机写论文”会大量涌现。如果不对DeepSeek等AI技术的使用进行严格规范,“AI赋能式科研”不仅会侵蚀学术研究的核心价值,破坏学术生态,也会对科技伦理造成深远的负面影响。
三是署名权的困惑。署名权是学术共同体出于学术成果保护而形成的共识,往往会根据研究人员的贡献度进行划分。DeepSeek等AI的本质是工具而非科研主体,其生成的论文面临着划分困境。我国《著作权法》明确规定,著作权人需为“自然人、法人或者非法人组织”,且需对作品的独创性负责。AI既无法主张权利,也不能承担剽窃、数据侵权等责任,导致其生成文本的权责归属陷入真空。目前,学术界大致有两种主张:一是主张将署名权归属人工智能开发公司,因为生成论文的算法逻辑与训练数据均由大语言模型所控制;二是主张坚持传统署名规则,强调人的主体地位,必须对成果的学术价值与伦理合规性负责。因此,由AI生成的内容缺乏追责对象,应视为“无主作品”或标注为某种技术产物。
DeepSeek的规约之路
习近平总书记指出,“科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架”,“不断提升人工智能技术的安全性、可靠性、可控性、公平性”,进而“坚持以人为本、智能向善”。为规避AI可能引发的学术风险,建议采取以下措施。
强化政府监管责任。我国已经开始注重对AI科技伦理风险的治理,可依据《关于加强科技伦理治理的意见》,明确科技伦理原则、健全科技伦理治理体制、加强科技伦理治理制度保障、强化科技伦理审查和监管、深入开展科技伦理教育和宣传等。针对AI应用的潜在风险,政府有责任维护其良性发展秩序,制定AI发展规划和风险应对措施。要将AI的算法规则、应用范围、社会风险等纳入法治监管体系,及时出台监管规则和实施细则。在鼓励和支持AI技术发展的同时,超前研判并防范AI应用的风险。
强化科技伦理审查。虽然各类生成式AI模型具有强大的功能和运作体系,但其存在的根本意义是要为社会发展和人类需求服务,它们只是赋能人类的工具和手段。为此,我们要始终坚持以人为本,负责任地使用AI成果。目前,对AI的伦理治理要遵循安全性、公益性、公平性、问责性等基本原则。面对人机边界日益模糊的现状,应力争实现“人机协同”与“以人为尊”的价值范式。针对AI发展背景下的科研成果认定、人才评价、学术论文撰写与发表等问题,建议强化科技伦理审查制度,让“人工”与“智能”并行不悖地发展。既能发挥AI技术的数据挖掘与处理优势,又能充分发挥人的理性思维优势。
强化人的主体地位。尽管AI会越来越强大,在一时一地超越一些人,但不会在更大的空间更长的时间超越所有人。AI本身毕竟是现代人类社会科技文明的产物,是人脑的产物。人终归有人的用处,我们要坚信人的主体地位,坚信“机不如人”的人类社会发展趋势。如果人类社会要创造更加辉煌的科技文明乃至任何其他文明,仍需要有一批兼具责任、智慧、勇气和耐心的学人去竭尽智力而为之。正如俄国学者赫尔岑所指出的:“科学不是可以不劳而获的——诚然,在科学上除了汗流满面是没有其他获致的方法的,热情也罢,幻想也罢,以整个身心去渴求也罢,都不能代替劳动。”进一步说,幸福都是人奋斗出来的,而不是AI直接带来的。
总之,为加快推进我国高水平科技自立自强,要坚持促进创新与防范风险相统一、制度规范与自我约束相结合,培养自觉的科技伦理意识,落实伦理先行原则,强化科技伦理治理。我们要积极应对包括DeepSeek在内的AI科技风险的挑战,充分发挥AI的助手优势,防范和化解其可能的学术风险,塑造人类社会更加美好的智能生活图景。