审稿人或难识别ai撰写的论文摘要-尊龙凯时官方网站

审稿人或难识别ai撰写的论文摘要-尊龙凯时官方网站

中国新闻联播
来源:中国网   发布时间:2023-01-17 10:22

根据最近发表在预印本服务器biorxiv上的一项研究,人工智能聊天机器人chatgpt已经能够写出令人信服的假研究论文摘要,即使是同行评审员也无法发现。

聊天机器人chatgpt会根据用户的提示创建逼真的文本它通过消化大量现有的人类生成的文本来学习执行任务美国软件公司openai于去年11月发布了该工具,并免费提供给用户使用

自从它发表以来,研究人员一直在试图解决相关的伦理问题,因为它的大部分输出可能很难与人类书写的文本区分开来最近,美国西北大学的一个研究小组使用chatgpt生成人工研究论文的摘要,以测试科学家是否能够区分它们

研究人员要求机器人根据发表在《美国医学协会杂志》,《新英格兰医学杂志》,《英国医学杂志》,《柳叶刀》和《自然医学》上的50项研究撰写摘要然后,他们通过抄袭检测器和ai输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出捏造的摘要

结果chatgpt生成的摘要通过了抄袭检查器,原创性得分中值为100%,说明没有检测到抄袭人工智能输出检测器发现了66%的生成摘要,但人工审查员仅正确识别了68%的生成摘要和86%的真实摘要他们错误地将32%的生成摘要识别为真实的,而将14%的真实摘要识别为伪造的

研究人员表示,chatgpt撰写了可以愚弄人类的科学摘要如果科学家不能确定研究的真假,可能会产生可怕的后果

研究人员表示,在医学等领域,虚假信息会危及人们的生命,期刊需要采用更严格的方法来验证信息的准确性这些问题的解决不应该集中在机器人本身,而是导致这种行为的不当激励,比如通过论文数量进行招聘和晋升评审,而不考虑其质量或影响力

0
网友吐槽

推荐阅读

图文推荐

尊龙凯时国际的友情链接

财经科技教育健康房产汽车旅游娱乐时尚图片

尊龙凯时国际 copyright © 2002-2021中国新闻联播尊龙凯时国际的版权所有 网站地图

本站部分资源来源于网络,尊龙凯时国际的版权归原作者或者来源机构所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。本站刊载文章出于传递更多信息之目的,所刊文章观点仅代表作者本人观点,并不意味着本站赞同作者观点或证实其描述,其原创性及对文章内容的真实性、完整性、及时性本站亦不作任何保证或承诺,请读者仅作参考。