◎柯 平

10月8日,2024年诺贝尔物理学奖揭晓,奖项颁给了通过人工神经网络实现机器学习而作出根本性贡献的两位“AI(人工智能)先驱”。

毫无疑问,不断迭代升级的AI技能正改变着天下,推动着社会的发展进步。
而另一方面,AI的不当利用,也给我们带来了一些困扰和“麻烦”。

前不久,中国科学院公开拓布八条诚信提醒,哀求该院科研职员和学生在科研活动中规范利用AI技能,避免误用、滥用AI技能引发的科研诚信风险。
此举引起科技界广泛关注。

规范运用AI这样的提醒很须要

随着ChatGPT、Sora等天生式AI工具的快速遍及,AI已成为科研写作的常用工具。
从文献检索到科研选题,从数据处理到图表制作,从赞助进行论文写作到措辞润色,AI发挥的浸染越来越大。
2023年底,一家媒体机构面向我国高校学生发起的问卷调查显示,84.88%的受访者利用过AI工具,77.51%的受访者认为AI工具可提升事情和学习效率。

须要看到的是,AI在给科研带来便利的同时,也对学术道德和学术规范造成很大冲击。
有人用AI假造实验数据、制作虚假图像,天生欺骗性研究论文;有人借助AI强大的抓取能力,肆意整合网络内容进行“洗稿”,抄袭剽窃,触碰侵权红线;还有人将AI代写论文做成一桩“买卖”,声称可以“创你所需,担保查重原创”等。
这种征象若不及时遏制,不仅会削弱科研职员的独立思考能力,更会侵蚀教诲净土,对科研诚信造成无法估量的侵害。

正因如此,在AI的规范利用上,国内外都在采纳积极方法。
如我国相继在《中华公民共和国学位法》《人工智能天生合成内容标识办法(搜聚见地稿)》等法律法规中,明确了AI运用和干系网络信息做事供应规则。
美国的《深度假造问责法案》、欧盟的《人工智能折衷操持》,也都界定了AI在学术领域的运用范围。

AI这把“双刃剑”,用好了会成为助力科研的“帮手”,用不好则会沦为学术不真个“帮凶”。
高校和科研院所承担着科学研究和人才培养的双重任务,在规范利用AI方面起着风向标浸染。
前段韶光,包括中国传媒大学、华北电力大学等在内的多所高校,已针对学生论文开展利用天生式AI风险情形的检测。
这次中国科学院明确发出八条提醒,对报告材料撰写、数据网络和利用、音视频和图表制作等方面的AI利用作出详细规范,针对性、必要性都很强,可以产生很好的示范效应。

20多年前互联网在我国刚刚兴起时,我们确定了“积极发展、加强管理、趋利避害、为我所用”的方针。
时至今日,在对待AI的态度上,这样的方针依旧适用——既鼓励积极发展,又强调规范勾引,这才是促进AI在科研领域运用的精确之道。

来源:科技日报