审稿人或难识别AI撰写的论文择要
科技日报北京1月16日电 (张梦然)据近日揭橥在预印本做事器bioRxiv上的一项研究,人工智能(AI)谈天机器人ChatGPT已可写出令人信服的假研究论文择要,乃至连审稿科学家也无法创造。
谈天机器人ChatGPT会根据用户提示创建逼真文本,它通过消化大量现有的人类天生文本来学习实行任务。美国的软件公司OpenAI于去年11月发布了该工具,并供用户免费利用。
自发布以来,研究职员一贯在努力办理干系伦理道德问题,由于它大部分输出可能很难与人类撰写的文本区分开来。近日美国西北大学的一个研究小组利用ChatGPT天生人工研究论文择要,以测试科学家是否可辨别它们。
研究职员哀求机器人基于揭橥在《美国医学会杂志》《新英格兰医学杂志》《英国医学杂志》《柳叶刀》和《自然·医学》上的50篇研究编写择要。然后,他们通过抄袭检测器和AI输出检测器将这些择要与原始择要进行比较,并哀求一组医学研究职员找出编造的择要。
结果,ChatGPT天生的择要通过了抄袭检讨器,原创性得分中位数为100%,表明没有检测到抄袭。人工智能输出检测器创造了66%的天生择要,但人工审稿人只精确识别了68%的天生择要和86%的真实择要,他们缺点地将天生择要中的32%识别为真实,将14%的真实择要识别为编造。
研究职员称,ChatGPT写出了能骗过人类的科学择要,如果科学家无法确定研究是否属实,或会产生“恐怖的后果”。
研究职员表示,在虚假信息会危及人们生命安全的医学等领域,期刊须要采纳更严格的方法来验证信息的准确性。而这些问题的办理方案,不应集中在机器人本身,“而是导致这种行为的不正当勉励方法,例如通过论文数量进行招聘和晋升审查,而不考虑其质量或影响”。
【总编辑圈点】
大火的ChatGPT,不止是谈天工具,它在教诲领域的渗透已经引起了广泛关注和谈论,当然,随之而来的还有忧虑。如果你利用过ChatGPT,也会惊异于它撰写报告的能力。给它一个主题,它就能在几秒内天生大纲,也能在几秒内进行细化,而且看起来非常是那么回事。这次,科研职员创造它撰写的论文乃至能骗过审稿人。这又是一个人如何利用新技能的经典伦理问题。工具本身无罪,但运用边界该当清晰,利用者也要对自己的行为负叛逆务。
来源: 科技日报