有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧

有大学教师正在使用AI为论文评分专家提出伦理方面的担忧她会向学生展示ChatGPT的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的15名学生也这样做:通过ChatGPT运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台Turnitin赞助的战略咨询公司TytonPartners的一份报告发现,2023年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如ChatGPT、Writable、Grammarly和EssayGrader等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于ChatGPT和MicrosoftCoPilot等工具,这些工具内置于Word、PowerPoint和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(UniversityofVirginia)商业伦理教授多萝西-莱德纳(DorothyLeidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用ChatGPT,但她对一些教育工作者如何使用ChatGPT给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(LeslieLayne)在弗吉尼亚州林奇堡大学的写作工作坊中教授ChatGPT最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到ChatGPT是一个"巨大的道德考量",有可能侵犯他们的知识产权。像ChatGPT这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为Writable的软件,该软件使用ChatGPT帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司HoughtonMifflinHarcourt收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由ChatGPT和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(AlanReid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(UniversityofLynchburg)哲学副教授尼古拉斯-弗兰克(NicolasFrank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项--这样学生就有权知道人工智能何时被用于给他们的作业打分--并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。...PC版:https://www.cnbeta.com.tw/articles/soft/1426543.htm手机版:https://m.cnbeta.com.tw/view/1426543.htm

相关推荐

封面图片

“AI有可能像核武那样使用”:专家呼吁加强国际监管

“AI有可能像核武那样使用”:专家呼吁加强国际监管本乔是深度学习研究领域的先驱人物。美国开放人工智能研究中心(OpenAI)最近推出了由人工智能技术驱动的自然语言处理工具ChatGPT,而深度学习是利用人工智能技术的此类产品的基础。本乔与加拿大多伦多大学的杰弗里·欣顿教授和美国纽约大学的扬立昆教授一道,被称为人工智能研究领域的“三巨头”。本乔谈到了人工智能带来的巨大利益,同时又强调,“如果已经拥有巨大权力的个人、企业恶意使用人工智能,其很有可能拥有更大的权力”。他指出,如果为了欲望和权力而使用人工智能,“根据个人意志等(进行心理操作),就能够将人工智能引向某个方向。你也许会把选票投给(某个被预设好的)候选人”。本乔还指出,“在将人工智能用于军事方面,有些国家会考虑加以限制,有些国家则不会”。他表示担忧地说:“国际合作是有必要的,但令人遗憾的是,目前还没有国际性的合作体系。”他指出,“由于使用方法的差异,人工智能有可能像核武器那样使用”,是福音还是罪恶将取决于人。对于一直进行人工智能研究,本乔一方面表示“不后悔”,一方面也表示,“为了防止错误地使用人工智能,我感到应该带有强烈的责任感来发声”。另外他还指出,教育、医疗、环境保护等领域,虽然民间企业进行投资后难以获取利润,但却具有重大社会意义,为在这些领域充分利用人工智能,应该进行更多的投资。ChatGPT可以写论文、写诗,人们期待搜索引擎方式发生巨大变化。但是,虚假信息传播等负面影响也随之而来。围绕这一问题,美国非营利组织生命未来研究所向全社会发布了一封公开信,要求至少在半年时间里停止开发比ChatGPT更强大的人工智能系统。美国企业家埃隆·马斯克等人对此表示赞同,本乔也在这封信上署名。...PC版:https://www.cnbeta.com.tw/articles/soft/1354599.htm手机版:https://m.cnbeta.com.tw/view/1354599.htm

封面图片

香港科技大学允许学生有限度使用 ChatGPT

香港科技大学允许学生有限度使用ChatGPT据文汇网等报道,人工智能(AI)聊天机器人ChatGPT掀起网络热潮,不少大学生被指会利用其做功课和写论文等,令院校头痛不已。香港科技大学(IT之家注:简称“香港科大”或“港科大”)近日向教职员工发信,允许学生有限度使用ChatGPT。香港科大在信中指出,经各部门商讨后,认为人工智能长远来说可加强教学,决定让教职员自行选择会否限制学生使用ChatGPT,或可有限度自行选择使用ChatGPT的方式。学生使用ChatGPT后也应在报告中列明,科大会在两星期内收集教职员的意见,建议教师与系主任商讨后向学生更新使用人工智能工具的指引,确保学生遵守诚信规定。附:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

哈佛大学发布人工智能在课堂使用指南

哈佛大学发布人工智能在课堂使用指南具体而言,指南给出了三种不同的建议政策供教授选择:完全限制使用、完全鼓励使用以及混合方法。指南强调教授有权决定自己的课程政策,但应该向学生清楚传达选定的政策。图源备注:图片由AI生成,图片授权服务商Midjourney哈佛艺术与科学学院的院长表示,这份指南的一个基本原则是教师对自己的课程有所有权,因此没有一种适用于所有课程的政策。学院还在今年7月发布了全校范围内的人工智能指南,重点是保护非公开数据。指南建议教师不要将学生的作业输入人工智能系统,以保护学生的隐私。学校还正在与第三方人工智能公司合作开发一款名为“AISandbox”的工具,该工具将为学校提供一个安全的环境来测试生成式人工智能。尽管如此,学院并不鼓励使用人工智能检测工具,因为这些工具不够可靠。在过去的一学期中,有57%的教师表示他们没有明确的关于使用人工智能的政策。尽管学院强调了明确的人工智能政策的重要性,但是学校各个学部的很多课程在本学期仍然没有相关政策。在政府系、英语系和分子与细胞生物学系的课程中,大部分课程的教学大纲都没有提及人工智能的使用政策。其中一些课程明确禁止使用工具如ChatGPT,而另一些课程则允许适当地使用。许多课程明确禁止使用人工智能来回答作业问题、解释概念或编写代码,而只允许在特定的课程作业中使用。...PC版:https://www.cnbeta.com.tw/articles/soft/1381095.htm手机版:https://m.cnbeta.com.tw/view/1381095.htm

封面图片

英国政府正在使用AI协助管理民政体系 其缺陷和偏见引发一系列担忧

英国政府正在使用AI协助管理民政体系其缺陷和偏见引发一系列担忧据《卫报》报道,多个英国政府机构已开始利用人工智能,以显着影响普通人的日常生活。该技术现在在各种程序中发挥着作用,从逮捕和办理结婚证再到福利发放。甚至在人工智能成为广泛讨论的趋势之前,警方使用面部识别系统就一直存在争议。批评者长期以来一直警告其潜在的不准确性,尤其是在分析肤色较深的受试者时。这种不准确的情况在过去甚至导致了错误的拘留。尽管意识到这些缺点,伦敦大都会警察局仍然继续使用面部识别,并进行可能会损害该技术的修改。英国国家物理实验室表示,系统在默认设置下通常保持较低的错误率。然而,如果伦敦警察厅为了更快地识别嫌疑人而降低其敏感度就会导致更多的误报。因此,系统对黑人的准确度会降低,与对白人的准确度相比,准确度低五倍。此外,政府用于批准福利和结婚证的基于人工智能的工具已显示出歧视来自某些国家的申请人的倾向。一名议员强调了近年来发生的许多福利被莫名其妙地暂停的情况,使个人处于被驱逐和极端贫困的边缘。可疑的根本问题是工作和养老金部(DWP)用于检测福利欺诈的系统,该系统部分依赖于人工智能。即使没有大量证据表明存在欺诈行为,该工具也会不成比例地标记保加利亚国民。DWP坚称该系统不考虑国籍。然而,他们承认没有完全掌握人工智能的内部运作方式,了解到系统控制偏见的能力有限并且担心坏人可能会操纵系统。同样,内政部也面临着人工智能驱动工具的挑战,该工具旨在识别假婚姻。虽然该系统简化了结婚证的审批流程,但内部评估发现了大量误报,特别是来自希腊、阿尔巴尼亚、保加利亚和罗马尼亚的申请人。政府在人工智能的部署中可能还存在其他疏忽,但如果没有相关部门的透明数据,很难查明它们。对人工智能局限性的误解已在其他政府和法律机构内部引发了严重事件。今年早些时候,一名美国律师试图使用ChatGPT引用联邦法院备案的案例,结果发现所有这些都是聊天机器人捏造的。这些案例越来越多地证明,人工智能的真正风险可能更多地源于人类的滥用,而不是技术本身。...PC版:https://www.cnbeta.com.tw/articles/soft/1391991.htm手机版:https://m.cnbeta.com.tw/view/1391991.htm

封面图片

一款AI检测工具可轻易识别ChatGPT撰写的论文

一款AI检测工具可轻易识别ChatGPT撰写的论文该论文的合著者、美国堪萨斯大学的化学家HeatherDesaire指出,“大多数文本分析领域都想要推出一种真正通用的检测器,可以适用于任何东西”。但她表示她的团队正通过制作一种专注于特定类型论文的检测工具,旨在“追求准确性”。Desaire称,研究结果表明,开发人工智能(AI)检测器的努力可以通过定制软件来促进特定类型的论文写作,“如果你能快速而轻松地构建一项专门的工具,那么为不同的领域构建不同的工具就不是那么困难了。”从公布的数据来看,这种专门的检测器比市面上现有的两种人工智能检测器的性能都要好,可以帮助学术出版商识别出那些由人工智能文本生成器生成的论文。准确率惊人Desaire和她的同事在6月份首次描述了他们研发的ChatGPT探测器,当时他们将其应用于《科学》杂志上的Perspective文章。该团队使用人工智能检测器检查写作风格的20个特征,包括句子长度的变化、某些单词和标点符号的频率等,来确定文章是有人类科学家所作还是由ChatGPT所生成的。当时的研究结果表明,“你可以使用一小部分特征来获得高水平的准确性”。在最新的研究中,该团队将美国化学学会(ACS)出版的十本化学期刊的论文引言部分作为人工智能探测器的训练对象。研究人员将100篇已发表的人类撰写的引言作为比对材料,然后要求ChatGPT-3.5以ACS期刊的风格撰写200篇引言。其中100篇是研究人员向ChatGPT提供了论文标题后生成的,而另外100篇是研究人员向ChatGPT提供了论文摘要后生成的。研究结果显示,当把人类撰写的引言和和人工智能从同一期刊上生成的介绍进行测试时,该人工智能检测器能够100%识别出由ChatGPT-3.5编写的前100篇引言(基于论文标题生成的);而对于后100篇ChatGPT-3.5生成的引言(基于论文摘要所生成的),检测的准确率略低,为98%。此外,该工具同样适用于ChatGPT-4编写的文本。相比之下,市场上的另两款人工智能检测器中,德国的ZeroGPT识别人工智能编写的介绍的准确率仅为35-65%,这取决于使用的ChatGPT版本以及介绍是由论文标题还是摘要生成的。而OpenAI自身的文本分类器工具也表现不佳——它能够识别人工智能编写的介绍,准确率约为10-55%。柏林应用科技大学研究学术剽窃的计算机科学家DeboraWeber-Wulff评价道,该篇论文的作者们所做的是一件“令人着迷的事情”。她表示,许多现有的工具试图通过搜索人工智能生成的文章的预测文本模式来确定作者的身份,而不是通过观察写作风格和文体的特征。Weber-Wulff称,“我从来没有想过在ChatGPT上使用文体计量学。”...PC版:https://www.cnbeta.com.tw/articles/soft/1395143.htm手机版:https://m.cnbeta.com.tw/view/1395143.htm

封面图片

中国大学期刊:隐瞒ChatGPT使用将被退稿或撤稿

中国大学期刊:隐瞒ChatGPT使用将被退稿或撤稿聊天机器人ChatGPT近期在中国引起巨大兴趣后,中国陆续有大学期刊做出规范,其中有大学表明如有学生在论文中隐瞒使用该应用,将对文章直接退稿或撤稿处理。据《每日经济新闻》报道,《暨南学报(哲学社会科学版)》近期发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具如ChatGPT单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出并在文章中详细解释如何使用以及论证作者自身的创作性。说明也说,如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。此外,《天津师范大学学报(基础教育版)》也发布相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具包括ChatGPT等的情况予以说明。ChatGPT是美国人工智慧(AI)研究实验室OpenAI开发的一款AI聊天机器人,2022年11月推出后,热潮席卷全球,每日访问量超过2500万次,平均每天增加约51万9000次访问。北京某重点大学法学专业教师告诉《每日经济新闻》,“确实已经遇到有学生用ChatGPT写论文交作业的事情”。他补充说:“我的学生都是大学生、研究生,我自己也经历过这个阶段,他们论证的深度、总结的维度,包括全面性等方面,如果用了ChatGPT的话,一眼就能看出来,而且他们获取信息的渠道相对来说也比较狭窄。”四川某高校经济学系老师也在密切关注学生使用ChatGPT的情况,一名副教授向《每日经济新闻》介绍称,他已经注意到一些学生在尝试用ChatGPT,而由于目前正值中国高校寒假期间,大规模用它写论文的学生目前看来还比较少。但他预测,今年开学后会出现一些ChatGPT所引发的学术乱象问题。另一位北京高校英语系教授说:“学校2月下旬开学,我会密切关注此事,开学后和学生交流,并且与写作课老师讨论。”不过,也有一些高校和中学老师对此相对乐观,其中一名上海重点高校社科类教授说,虽然学生用ChatGP写作业对教师来说是个麻烦事,但它只能做些简单重复的工作,高层次的做不到。...

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人