点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
编者按:当前,全球高校正掀起关于人工智能参与学术研究的伦理边界大讨论。立陶宛维尔纽斯大学一年内开除10名违规使用AI的学生,复旦大学出台本科毕业论文AI使用禁令,明确“六个禁止”,严控AI介入论文选题、数据分析、文本生成等核心环节。在AI助力科学家实现“一个月读完十年文献”的效率革命时,也不可避免带来“AI幻觉”虚构数据、算法偏见误导结论等问题。如何把握学术本身和技术工具的平衡?光明网特邀北京师范大学未来教育高精尖创新中心执行主任余胜泉教授,共同探讨智能时代的知识生产新范式。
深化人工智能应用,推动科研范式转型
光明网:近年来人工智能在数据处理、文献分析等领域的应用不断深化,您认为AI工具目前在学术研究中发挥了哪些作用?这些技术加持如何改变了传统科研工作者的思维方式和研究范式?
余胜泉:我认为我们应当大力推进人工智能在科研中的应用,积极拥抱AI。人工智能可能会改变我们科研的方式。比如说,用人工智能来辅助探究海量数据中的一些隐藏的规律,这是整个研究范式的基本的转型。例如蛋白质结构的预测、基因结构和基因性状之间的关联关系,这些东西都是由海量的数据组合起来的,光靠人根本不可能搞得清楚,这个时候人工智能就能凭借强大的算力,在海量的数据中找出确定性的拟合函数拟合规律,我觉得这是它最重要的应用。
社会科学的研究也是如此,应该进一步鼓励扩大社科领域的量化研究。我们不应当把AI作为简单的文字组合工具。现在学界实际上存在大量文字组合型研究追求数量而不追求质量的问题。这样的研究没有经过问题提出、实验方案设计、数据分析和推理验证等严格的论证过程,它就不是一个非常有价值的研究。在社会科学领域,我们可以关注AI在仿真领域的应用,例如利用AI提高编程效率,加持智能代理,分析社会角色之间的互动和协作,这就使研究更严谨。
在论文写作中,AI应用于文献阅读,我觉得也是很有益的。尤其对于研究生来说,在入门一个新领域时,利用AI更高效地阅读文献,了解这个领域的发展现状,有利于快速地了解、把握这个领域的基础内容,节省查阅文献的时间。
健全科研伦理规范,筑牢学术诚信根基
光明网:2023年《卫报》报道指出,AI的应用导致“学术文献中出现有缺陷甚至捏造的研究”。近期国内外多个医学期刊对AI论文造假发布声明并退稿,因过度依赖AI导致学术不端的案例屡见不鲜。在您看来,当前AI深度介入学术研究面临哪些问题?
余胜泉:首先这种学术不端,我觉得不是算法的问题,是人的问题。我们现在有一些社科领域尤其是社会学的研究,他不去做实际调查,而是用AI编访谈,编调查数据,这就是绝对的学术不端,是必须严格禁止的。就是我用AI生成这些访谈数据、调查数据,看起来挺合理,但是实际上都是虚假的,这就是绝对的学术不端。
那另一种情况,就是假设他是无心之失,那就是他本身能力不足,没有完全地理解和把握AI,我觉得这就是科研素养、运用AI的能力出现了问题。我们使用任何工具,都要首先明确它擅长做什么,不擅长做什么。AI有长处,也有问题,我们要做的就是发挥他的长处,避免它的问题。比如它可能存在算法偏见,那么相关领域的学者就应当了解这个问题,在使用AI时予以避免。
所以AI绝不是全能的,要清楚它的适用边界才能有效发挥其作用。就像我们用其他数据分析工具时,也要考虑具体研究场景下该选择什么检验方法。这本质上是要明确工具的问题解决域——它能处理什么类型的数据、适应怎样的研究假设。
光明网:那对此,您觉得我们应当如何应对,未来是否需要建立新的科研评价体系?
余胜泉:这其实需要相关领域需要健全科研伦理规范,例如有关部门牵头,出台相关的运用人工智能的负面清单。这种负面清单不是说禁止使用人工智能,而是鼓励充分地使用人工智能。现在有些学校禁止学生使用AI写作,这实际上就像跟风车斗争的巨人一样,是没有意义的,而且也不应该限制AI的使用。人工智能本身就是我们脑力的延伸,我们应该用人工智能来完成更具创造性的工作。所以我还是主张堵不如疏,要鼓励学生用人工智能。但是使用人工智能需要符合一定的规范。如果将AI用于文字的修改润色或者是跨语言翻译,它是非常有效的,我觉得可以鼓励AI在文字表达层面的使用。但是如果将AI用于编造数据、直接生成观点和论文结构,这就属于学术不端行为,要加以禁止,需要完善科研诚信规范,严格审查AI伪造实验数据、机器合成理论框架等新型学术造假。再比如,引用AI的观点也应当注明,例如在引用规范中新增一个AI引用的条目,在参考文献中明确标注哪些是AI生成的观点和内容。如果引用了AI的观点而不标注也属于学术不端。此外,我们也要制定相关的伦理规范,确保AI的工具性特征,划定一些界限。
把握AI工具性本质,保持科研思维主体性
光明网:您刚才也提到,要保证AI的工具性,那么在具体科研实践中,我们应当如何界定“工具性辅助”与“主体性替代”的临界点?
余胜泉:我认为在使用AI的过程中,要区分是抄袭还是辅助,临界点就在于有没有自己的思维框架。在面临AI从外部提供的知识的过程中,研究者能不能整合知识,把外部人工智能生成的知识嵌入到自身的认知链条中去。如果研究者自己没有能力整合知识,只是简单的照搬或修饰,人工智能说什么就相信什么,没有自己的想法,这就是抄袭和替代。
但是如果研究者有自己的思维框架和观点,能把人工智能所提供的信息嵌入到思维框架中去,保持思维的主体性,只需要依照规范标明对人工智能的引用就可以了。
改革高校教学模式,推动人才培养体系转型
光明网:目前人工智能的应用,不仅深刻影响着科研工作者,也广泛辐射了作为科研人员后备军的高校。因此,您认为面对智能技术的冲击,高校在人才培养方面需要作出哪些战略性调整?
余胜泉:我认为学生使用AI工具和科研人员有所不同。科研需要利用AI赋能前沿领域的突破,所以要充分鼓励AI工具的使用。但是在人才培养领域就不一定了,为什么?因为学生的学习是他的思维和能力成长的过程。
我之前经常讲认知外包,说的就是我们在利用人工智能的时候,实际上是把一部分认知过程外包给人工智能。因为AI可以使人突破个体认知的边界,驾驭超越个体认知边界的复杂性和创造性,这是它积极的一面。但是当我们在学习的时候,我们不仅仅是只为了获得一个答案,而是要通过学习过程的体验促进学生的思维的发展,促进学生对学科的基本知识结构的形成。在这种情况下,一味地做认知外包,就很不合适了。
我觉得最核心的是我们的人才培养模式要转型。如果老师还是停留在传统的教学模式,课后布置一个文字作业,无论再怎么强调,人都是天性偷懒的,很多学生还是会选择直接用AI生成。乍一看他用人工智能生成的可能会是一个不错的结果,但是在这个过程中他没有获得知识和思维的体验,他的思维没有得到锻炼,慢慢地就会造成他的思维幼稚化、认知短路,所以长期而言就会对我们的教育质量产生严重的负面影响。
所以教师在问题设置上,就要打破这种浅层次的作业布置,要认真设置一些有挑战性的问题。人的思维有两种,一是直觉性的,二是反直觉的,需要长期的有逻辑的推理思考。教师要做的就是设计反直觉的、有逻辑性的研究问题,或者说设计这种认知强制功能,来培养学生的批判思维,考查学生的逻辑推理、思维整合、思维延展能力;在教学中嵌入认知强制功能,可以显著减轻学生对人工智能的依赖,而且对于具有高认知需求的人更有价值,人的动机也能够调节AI方案的有效性。
要从讲课做作业那种教学形态转变为精心设计问题、精心准备资源、精心设计活动、精心设计评价的教育生态,同时让学生有更多的交流、讨论、协作和自主学习的机会,比如让学生做展示、自己讲,这个过程他就对知识有了更深刻的理解。
具体而言应该如何设计教学呢?我觉得主要有四点:一是设计独立思考策略,在教学设计中设计启发的交互模式,通过引导性提示和多元视角激发学生思考,增加批判性思维训练,增加对AI生成内容的评价与反思的环节,提升学生的分析验证和重构信息的能力。二是设计创造力与内驱力的激发策略,在教学中融入开放性、探索性和跨学科的任务,强调AI的辅助性定位。例如,通过项目制学习,让学生在真实场景中运用AI,通过自身努力解决复杂问题,激发内在动机和创造力。三是系统化策略,就是强调建立知识整合机制,在教学中融入开放性、探索性和跨学科的任务,通过AI工具为学生提供知识地图或者学科框架,引入思维可视化的工具,引导学生形成完整的知识框架和学科体系。四是改革考试与评价体系,要增加开放性问题和思维记录环节,重视推理论证与分析能力的评价,减少对直接结论或结果的考核。(光明网记者刘梦甜、实习生杨雨熹采访整理)