世界上最大的学术出版商认为ChatGPT不能被标记为作者

世界上最大的学术出版商认为ChatGPT不能被标记为作者施普林格-自然的旗舰出版物《自然》的主编MagdalenaSkipper表示:"我们现在不得不澄清我们的立场:为我们的作者,为我们的编辑,也为我们自己。这种新一代的LLM工具--包括ChatGPT产生的内容真的在社区中爆发了,社区理所当然地对它们感到兴奋和玩味,但[也]以超出目前真正可以使用的方式来使用它们。"ChatGPT和早期的大型语言模型(LLMs)已经在少量发表的论文、预印本和科学文章中被列为作者,然而,这些工具的贡献的性质和程度因个案而异。在《肿瘤科学》杂志上发表的一篇观点文章中,ChatGPT被用来论证在帕斯卡尔赌注的背景下服用某种药物,并明确标注了人工智能生成的文本。但在一篇研究机器人通过美国医学执照考试(USMLE)能力的预印本论文中,对机器人贡献的唯一承认是一句话,称该程序"为本稿的几个部分的写作做出了贡献"。在后者的预印本论文中没有提供进一步的细节,说明ChatGPT是如何或在哪里被用来生成文本的。然而,资助这项研究的公司--医疗保健创业公司AnsibleHealth的首席执行官认为,该机器人做出了重大贡献。AnsibleHealth首席执行官JackPo表示:"我们之所以把[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力上的贡献,而不仅仅是作为一个评估对象。"科学界对将ChatGPT作为作者的论文的反应主要是负面的,社交媒体用户称USMLE案例中的决定是"荒谬的"、"愚蠢的"、"非常愚蠢的"。反对给予人工智能作者资格的论点是,软件根本无法履行所需的职责,正如Skipper和NatureSpringer解释的那样。Skipper说:"当我们想到科学论文、研究论文的作者资格时,我们不只是想到写论文。有一些责任是超越出版的,当然,目前这些人工智能工具还不能承担这些责任。"软件不能对一份出版物进行有意义的问责,它不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答关于其工作的问题。如果在将人工智能作为作者的问题上有广泛的共识,那么在使用人工智能工具撰写论文的问题上就不那么明确了,即使有适当的致谢。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大社会偏见,如性别歧视和种族主义,并有产生"合理的废话"的倾向--将不正确的信息作为事实呈现。正是因为有这样的问题,一些组织已经禁止在特定范围内使用ChatGPT,包括学校、学院和依赖分享可靠信息的网站,如编程问答库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实说作者可以使用此类软件来"打磨"和"编辑"他们的作品。写作和编辑之间的界限到底在哪里是很棘手的,但对于《自然-斯普林格》来说,这种使用情况也是可以接受的。"我们的政策非常明确:我们不禁止将其作为撰写论文的工具,"Skipper说,"最根本的是,要有明确的规定。关于一篇论文是如何组成的,以及使用什么[软件]。我们需要透明度,因为这正是科学应该如何完成和交流的核心所在。"鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和转述文本,还可以迭代实验设计,或者用来碰撞思想,就像机器实验室伙伴一样。像SemanticScholar这样由人工智能驱动的软件可以用来搜索研究论文并总结其内容。Skipper指出,"另一个机会是使用人工智能写作工具来帮助那些英语不是其第一语言的研究人员。从这个角度来看,它可能是一种有用而过程中没有太大争议的工具。""在科学工作中禁止人工智能工具将是无济于事的,我认为我们可以有把握地说,直接禁止任何东西都是无效的。她说,相反,科学界--包括研究人员、出版商和会议组织者--需要走到一起,制定新的披露规范和安全护栏。作为一个社区,我们有责任关注积极的用途和潜力,然后规范和遏制潜在的滥用。我很乐观,我们可以做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1341101.htm手机版:https://m.cnbeta.com.tw/view/1341101.htm

相关推荐

封面图片

ChatGPT对学术出版影响几何?出版商已明确几条原则

ChatGPT对学术出版影响几何?出版商已明确几条原则励讯旗下拥有全球最大的学术出版商之一爱思唯尔,旗下刊物包括《柳叶刀》(Lancet)、《细胞》(Cell)等知名科学杂志。励讯集团的其他业务还涵盖法律、风险以及展览。励讯集团首席财务官NickLuff表示,生成式AI给信息分析行业带来的机遇大于威胁,集团目前已经将生成式AI构建到其业务产品中。“生成式AI技术本身非常有趣,但需要确保将它们应用于正确的内容、正确的用例、正确的工作流程,以获得专业用户的信任。”Luff在财报发布时指出。数字化转型是励讯集团近年来的战略重点,这一需求在传统出版行业面临数字化挑战的背景下显得尤为突出。2月17日,爱思唯尔董事长池永硕在一篇署名文章中指出,爱思唯尔已经开发了数字化解决方案,用于支持临床决策的深度数据和信息分析,并产生可信赖的医学知识信息。不过,随着科研人员迈入高级对话AI的新世界,出版机构也正在讨论如何认可生成式AI的合法使用,并为防止滥用制定清晰准则。全球知名出版集团施普林格-自然(SpringerNature)的旗舰刊物《自然》日前公开发表社论,声明了在使用生成式AI时的两条原则:一是不接受任何LLM工具作为对研究论文有贡献的作者;二是使用LLM工具的研究人员应在方法或致谢部分中声明。“这并不是禁止ChatGPT作为撰写论文的工具,但根本问题是对于一篇论文是如何组成的,以及使用什么软件撰写的,要有明确的规定。”一位出版界相关人士对第一财经记者表示,“科学需要透明度,这是核心与本质。包括研究人员、出版商需要走到一起,制定新的披露规范,以防止技术被滥用。”全球顶尖科学期刊《科学》杂志主编HoldenThorp也公开撰文称,在不到两个月的时间里,生成式AI软件ChatGPT已经成为一种“文化轰动”。“这在文学创作中可能会变得很有趣,但对科学界和学术界可能会造成严重的影响。”Thorp写道。编辑和出版商是否已经可以检测出由大模型生成的论文文本?根据《自然》的说法,ChatGPT的原始输出经过仔细检查是可以检测到的,尤其是当涉及多个段落并且主题与科学工作相关时。根据Thorp援引最近的一项研究,由ChatGPT创建的摘要在提交给学术审稿人时,只有63%的文章被检测到使用了AI软件。《科学》杂志制定准则称,人工智能程序不能成为作者,违反这些政策将构成科学不端行为,与篡改图像或抄袭现有论文没有差异。但针对通过人工智能技术在研究中生成的合法的数据集(非论文文本)除外。“科学论文归根结底是人类为解决重要问题所做的努力。机器发挥着重要作用,但它是人们提出假设、设计实验和理解结果的工具。最终,这些产品必须来自人类头脑中美妙的计算机来表达。”Thorp表示。...PC版:https://www.cnbeta.com.tw/articles/soft/1344945.htm手机版:https://m.cnbeta.com.tw/view/1344945.htm

封面图片

主要科学期刊出版商禁止将 ChatGPT 列为署名作者

主要科学期刊出版商禁止将ChatGPT列为署名作者《科学》期刊的主编HoldenThorp上周四更新了编辑政策,禁止使用ChatGPT生成的文本,不允许将ChatGPT列为署名作者。期刊要求作者签署一份表格声明对其工作承担责任。出版《自然》等期刊的Springer-Nature也在上周二宣布ChatGPT不能被列为署名作者,但它允许作者在论文准备阶段使用ChatGPT等工具,只需要在手稿中予以披露。https://www.solidot.org/story?sid=73966

封面图片

新闻出版商将谷歌的人工智能搜索工具视为巨大的威胁

新闻出版商将谷歌的人工智能搜索工具视为巨大的威胁在ChatGPT推出后不久,《大西洋月刊》杂志列出了生成式人工智能对该刊物的最大威胁清单,排名第一的是谷歌的人工智能搜索工具。大西洋月刊大约40%网络流量来自谷歌搜索,该杂志模拟了如果谷歌将人工智能整合到搜索中会发生什么。研究发现,在75%情况下,人工智能驱动的搜索将能提供完整答案,而该杂志的网站可能会错失本来可以获得的流量。谷歌在五月份推出了一项实验性功能,名为搜索生成体验(SGE),其利用谷歌的人工智能系统为用户总结搜索结果。尽管谷歌表示其产品的最终形态尚未确定,但出版商估计,如果谷歌将其广泛推出,他们将失去20%到40%来自谷歌的流量。——

封面图片

一款AI检测工具可轻易识别ChatGPT撰写的论文

一款AI检测工具可轻易识别ChatGPT撰写的论文该论文的合著者、美国堪萨斯大学的化学家HeatherDesaire指出,“大多数文本分析领域都想要推出一种真正通用的检测器,可以适用于任何东西”。但她表示她的团队正通过制作一种专注于特定类型论文的检测工具,旨在“追求准确性”。Desaire称,研究结果表明,开发人工智能(AI)检测器的努力可以通过定制软件来促进特定类型的论文写作,“如果你能快速而轻松地构建一项专门的工具,那么为不同的领域构建不同的工具就不是那么困难了。”从公布的数据来看,这种专门的检测器比市面上现有的两种人工智能检测器的性能都要好,可以帮助学术出版商识别出那些由人工智能文本生成器生成的论文。准确率惊人Desaire和她的同事在6月份首次描述了他们研发的ChatGPT探测器,当时他们将其应用于《科学》杂志上的Perspective文章。该团队使用人工智能检测器检查写作风格的20个特征,包括句子长度的变化、某些单词和标点符号的频率等,来确定文章是有人类科学家所作还是由ChatGPT所生成的。当时的研究结果表明,“你可以使用一小部分特征来获得高水平的准确性”。在最新的研究中,该团队将美国化学学会(ACS)出版的十本化学期刊的论文引言部分作为人工智能探测器的训练对象。研究人员将100篇已发表的人类撰写的引言作为比对材料,然后要求ChatGPT-3.5以ACS期刊的风格撰写200篇引言。其中100篇是研究人员向ChatGPT提供了论文标题后生成的,而另外100篇是研究人员向ChatGPT提供了论文摘要后生成的。研究结果显示,当把人类撰写的引言和和人工智能从同一期刊上生成的介绍进行测试时,该人工智能检测器能够100%识别出由ChatGPT-3.5编写的前100篇引言(基于论文标题生成的);而对于后100篇ChatGPT-3.5生成的引言(基于论文摘要所生成的),检测的准确率略低,为98%。此外,该工具同样适用于ChatGPT-4编写的文本。相比之下,市场上的另两款人工智能检测器中,德国的ZeroGPT识别人工智能编写的介绍的准确率仅为35-65%,这取决于使用的ChatGPT版本以及介绍是由论文标题还是摘要生成的。而OpenAI自身的文本分类器工具也表现不佳——它能够识别人工智能编写的介绍,准确率约为10-55%。柏林应用科技大学研究学术剽窃的计算机科学家DeboraWeber-Wulff评价道,该篇论文的作者们所做的是一件“令人着迷的事情”。她表示,许多现有的工具试图通过搜索人工智能生成的文章的预测文本模式来确定作者的身份,而不是通过观察写作风格和文体的特征。Weber-Wulff称,“我从来没有想过在ChatGPT上使用文体计量学。”...PC版:https://www.cnbeta.com.tw/articles/soft/1395143.htm手机版:https://m.cnbeta.com.tw/view/1395143.htm

封面图片

剑桥大学出台AI伦理政策 禁止将AI视为学术出版物作者

剑桥大学出台AI伦理政策禁止将AI视为学术出版物作者新政策规定,作者要对其作品的原创性、诚信和准确性负责。任何使用AI的方式必须在研究论文中声明,并且不能违反出版社的抄袭政策。论文必须是作者自己的学术作品,不能使用他人的想法、数据、言语或其他材料,必须进行“充分引用和透明引用”。剑桥大学出版社的系列编辑R.MichaelAlvarez表示:“生成式AI为学术研究人员和教育者引入了许多问题。”他说,学者和作者将“在未来多年里一直讨论由生成式AI为学术出版带来的机遇和陷阱”。该政策表明AI与人类在学术出版领域的角色划分问题将引起越来越多的关注和争议。剑桥大学出版社的此项政策可能会影响其他出版社及学术机构的决策,将有助于维护学术诚信和规范,促进学术研究的质量和可信度。此前,知名学术期刊《Science》和《Nature》也禁止AI列为论文作者。《Science》决定任何论文使用AI工具产生内容都属科学性不当,如果没有编辑明确许可,不得使用这类内容写论文、附带数据、图片或图表。此外,人工智能模型也不能列为论文作者。《Nature》新规则也类似,不接受人工智能模型列为论文作者,不过论文本身可使用AI工具产生文本,但需在研究方法或谢辞部分清楚标示。...PC版:https://www.cnbeta.com.tw/articles/soft/1353321.htm手机版:https://m.cnbeta.com.tw/view/1353321.htm

封面图片

《科学》期刊禁止将 ChatGPT 列为论文的共同作者

《科学》期刊禁止将ChatGPT列为论文的共同作者《科学》期刊宣布了一项更新的,禁止使用ChatGPT生成的文本,并澄清该程序不能被列为作者。《科学》期刊要求作者签署一份表格,声明他们对自己对工作的贡献负责任,而由于ChatGPT不能这样做,所以它不能成为作者。此外,他们认为,即使在准备论文时使用ChatGPT也有问题。因为ChatGPT会犯很多错误,这些错误可能会出现在文献中,如果科学家们开始依赖人工智能程序来准备文献综述或总结他们的发现,那么工作的正确背景和结果应有的深入审查就可能会丢失。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人