韩国学生用ChatGPT写论文“喜”提0分

韩国学生用ChatGPT写论文“喜”提0分根据海外媒体报道,近日,韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。韩国学生用ChatGPT写论文“喜”提0分该校的一位教师在接受采访的时候表示,从上个月开始,该国际学校内使用ChatGPT来完成作业的人数就有所增加。该校学生则表示,因为写作速度很快,所以很多学生都在最近开始使用ChatGPT。目前,仍然有不少学生在使用ChatGPT。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。相关媒体预测,未来韩国国内可能会出现更多的大学生利用ChatGPT完成论文的事件。...PC版:https://www.cnbeta.com.tw/articles/soft/1343459.htm手机版:https://m.cnbeta.com.tw/view/1343459.htm

相关推荐

封面图片

韩国学生用ChatGPT写论文“喜”提0分 校方:剽窃!

韩国学生用ChatGPT写论文“喜”提0分校方:剽窃!近日韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。https://internet.cnmo.com/tech/748863.html投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

抽查用ChatGPT写论文,该如何看待?

抽查用ChatGPT写论文,该如何看待?这不是一个新问题。几乎从ChatGPT诞生之日起,围绕着其对教育界和科技界可能带来的冲击,争议声就一直没有断过。比起主张“严禁ChatGPT入侵”者,和主张“积极拥抱新技术”者,一个越来越被接受的共识,是需要厘清ChatGPT的应用场景和边界,划定底线、明确规则,最大程度让ChatGPT发挥积极作用、限制其负面影响。以科技人员发表论文为例,虽然这已经不是评价科技工作者学术科研水平的唯一标尺,但仍然是检验学术成果、评价科研成色的重要标准之一,确保论文内容的原创性、创新性和撰写的独立性,仍是不可逾越的红线。通过自查和不定期抽查,更新学术不端的处理程序与标准,可以从技术手段上强化对已经发表论文的“体检”,判断论文的真伪性、原创性,让科技人员不敢、不能剑走偏锋;开展科技伦理审查,引导科技人员提高诚信意识,则抓住了使用新技术的人员这一核心要素,从思想觉悟上加强教育,让其从内心真正做到远离学术不端。在目前语境下,加强对核心人群的诚信教育和以技术手段完善监督机制,是防止科技人员使用ChatGPT写论文的两个重要方面。目前,国内外很多大学已经开设了ChatGPT等相关课程,也鼓励学生使用其完成部分作业,但对于使用ChatGPT写论文,无一例外都是持禁止态度。暨南大学《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》明确表示,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。很多顶级学术期刊也是如此,比如《自然》杂志规定:禁止ChatGPT等任何大型语言模型工具成为论文作者,建议使用这些工具的研究人员在稿件中应特别说明使用了AI;《科学》杂志明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者,ChatGPT生成的论文等同于剽窃。可见,从大学到顶级权威期刊,从针对教育教学人员到所有科技人员,其治理逻辑都是一致的:审慎接受,严格限制使用。无论是从保障论文创新价值上看,还是从维护科研人员的公平竞争上看,亦或从确保科研成果真正服务于社会进步上看,这种严格规范的管理都是应有之义。虽然目前我国尚未正式出台有关应对ChatGPT带来问题的措施,但并不意味没有相关管理。比如,去年3月,中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,其中拟规定:提供生成式人工智能产品或服务,应尊重知识产权、商业道德;用于生成式人工智能产品的预训练、优化训练数据,应不含有侵犯知识产权的内容。尤其值得一提的是,8月28日,学位法草案提请十四届全国人大常委会审议。其中,对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。这传递出的信号再明显不过:以法律威严,坚决捍卫学位论文不被人工智能“入侵”。在今天,ChatGPT作为一款功能强大、应用广泛的新技术,我们固然不应对其一味排斥和回避,但说到底,它仍是人创造出来的、服务于人类的工具,且它本身是中性的,如何使用取决于我们自身。相信随着时间的推移,相关管理治理的制度措施也会愈发完善,最终让ChatGPT在遵循科技伦理、知识产权和学术严肃权威等各领域各行业规则的基础上,更好发挥优势,服务于人类和社会的发展进步。...PC版:https://www.cnbeta.com.tw/articles/soft/1401689.htm手机版:https://m.cnbeta.com.tw/view/1401689.htm

封面图片

韩国学生用ChatGPT写论文“喜”提0分,校方:剽窃!https://internet.cnmo.com/tech/748863.html

封面图片

ChatGPT 让肯尼亚的论文枪手失业

过去九年,27岁的肯尼亚人Collins靠给美国大学生当论文枪手谋生。他撰写的论文主题包括了心理学、社会学和经济学。他偶尔还被允许直接访问大学网站入口,递交测试和作业,参与小组讨论,使用学生身份与教授交谈。2022年他每月的收入在900-1200美元。如今他的月收入降至了500–800美元。他认为原因是生成式AI如ChatGPT的流行。去年的这个时间他能收到50-70份作业,作业比较短通常只需要150个字;如今他只收到30-40份作业。在线学习平台Study在今年1月的调查发现,逾89%的学生表示曾用ChatGPT帮助完成家庭作业。近半数人承认用ChatGPT完成家庭测试或测验,53%的人用它写论文,22%写论文大纲。Collins担心AI的崛起会大幅降低学生对他们这些枪手的依赖,他自己也同时也用ChatGPT去生成以前外包给其他枪手的内容。https://restofworld.org/2023/chatgpt-taking-kenya-ghostwriters-jobs/(看来肯尼亚人英文不错)频道:@TestFlightCN

封面图片

为自证没用ChatGPT 副教授被迫用GitHub写论文

为自证没用ChatGPT副教授被迫用GitHub写论文在文章中她根据自己的经历提出“AI在不刻意的情况下也能破坏科学”ChatGPT仅仅通过自身的存在就破坏了同行评议过程。这件事一传开,网友们立刻想到了这么一句话:当人类没有通过图灵测试。也有网友表示,自己也遇到过类似情况:我把我的手稿给同事看,他说了一样的话。我当时就想“我写作水平提高了!”哈哈。事件详情论文作者名为LizzieWolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。这次被拒收的研究工作有关“全球变化对生态群落的影响”。Lizzie坦言自己并不擅长写论文,“和许多人一样,我发现写论文是一个有点痛苦的过程”。为此,她表示自己研读了一堆写作指南,最后形成了自己的写作流程,大概是:先搞几个大纲,再动笔写初稿,写完之后紧接着是反复的修改。她还把这套方法推荐给她的学生们,强调作为科学家能把复杂的想法表达得清楚明了是很重要的。然而,当Lizzie提交了她精心打磨的论文后,却意外遭到审稿人的指控——被怀疑使用ChatGPT进行科研造假。而且这种指控并非关于数据伪造。Lizzie表示自己的研究数据透明且可复现,无人质疑她在数据或结果上的真实性,但她投入不少努力的写作却被视为造假行为。更令她没想到的是,期刊编辑也模糊地表示同意审稿人的说法,并认为“写作风格不寻常”。面对这样的指控,Lizzie坚决否认,并决心证明自己的清白。她指出,自己采用LaTeX纯文本写作,并使用Git版本控制系统,其修改历史可在GitHub上查证,包含了“终于开始写了!”、“又写了25分钟!”这样的细致的提交记录。她还计划通过对比ChatGPT出现前后她的的论文风格来进一步证明自己,甚至考虑过询问ChatGPT以确认论文非其所写。尽管已经有了多种自证清白的方法,Lizzie仍直言不讳地表示“真正想做的其实是愤然离场”。被迫用GitHub写论文文章最后,Lizzie用大篇幅文字表达了自己对于此事的看法。其中指出AI虽然带来了便利,但也引发了一系列问题,通过自己这次的经历可以体现出AI单单是存在就有可能引发问题。而科学研究需要基于信任和道德标准,建议科学团体应制定明确的AI使用规范,而不是在拿不出什么证据的情况下,打击作者。并且她还提到,为了证明自己的清白,决定今后每篇论文都使用GitHub记录写作过程,以展示她的工作是独立完成的。这也引发了不少网友的讨论。有人表示大模型带来的这个问题属“意料之外、情理之中”:如果大模型能够满足人们的预期,其自然结果就是破坏了我们对任何书面内容的信任。这也就意味着,社会运作的又一基石将不复存在。对于这件事,你怎么看?...PC版:https://www.cnbeta.com.tw/articles/soft/1417037.htm手机版:https://m.cnbeta.com.tw/view/1417037.htm

封面图片

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者MuhammadAbbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitiveprosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitiveoffloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。...PC版:https://www.cnbeta.com.tw/articles/soft/1425817.htm手机版:https://m.cnbeta.com.tw/view/1425817.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人