根据最近发表在预印本服务器biorxiv上的一项研究,人工智能聊天机器人chatgpt已经能够写出令人信服的假研究论文摘要,即使是同行评审员也无法发现。
聊天机器人chatgpt会根据用户的提示创建逼真的文本它通过消化大量现有的人类生成的文本来学习执行任务美国软件公司openai于去年11月发布了该工具,并免费提供给用户使用
自从它发表以来,研究人员一直在试图解决相关的伦理问题,因为它的大部分输出可能很难与人类书写的文本区分开来最近,美国西北大学的一个研究小组使用chatgpt生成人工研究论文的摘要,以测试科学家是否能够区分它们
研究人员要求机器人根据发表在《美国医学协会杂志》,《新英格兰医学杂志》,《英国医学杂志》,《柳叶刀》和《自然医学》上的50项研究撰写摘要然后,他们通过抄袭检测器和ai输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出捏造的摘要
结果chatgpt生成的摘要通过了抄袭检查器,原创性得分中值为100%,说明没有检测到抄袭人工智能输出检测器发现了66%的生成摘要,但人工审查员仅正确识别了68%的生成摘要和86%的真实摘要他们错误地将32%的生成摘要识别为真实的,而将14%的真实摘要识别为伪造的
研究人员表示,chatgpt撰写了可以愚弄人类的科学摘要如果科学家不能确定研究的真假,可能会产生可怕的后果
研究人员表示,在医学等领域,虚假信息会危及人们的生命,期刊需要采用更严格的方法来验证信息的准确性这些问题的解决不应该集中在机器人本身,而是导致这种行为的不当激励,比如通过论文数量进行招聘和晋升评审,而不考虑其质量或影响力