最近在 kimi 和 ChatGPT 的帮助下,逐字逐句地精读了三篇AI相关的文章,觉得收获非常大。

最近在kimi和ChatGPT的帮助下,逐字逐句地精读了三篇AI相关的文章,觉得收获非常大。很多困扰我已久的问题,在这三篇文章里看到了些线索。比如,生成式AI生成的内容,当前无法实现精准控制,这个问题是否就无解呢?其实不是的,第一篇文章中就提到了他们的解法。再比如,RAG在处理幻觉方面这么牛,各种RAG技术的通用性如何呢?答案可能没那么乐观,因为他们可能只是某个特定usecase上做得很好,但不意味着可以轻易推广到其他所有场景。

相关推荐

封面图片

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

封面图片

本月收到 500 多篇 ChatGPT 生成的文章,科幻杂志 Clarkesworld 宣布关闭投稿渠道

本月收到500多篇ChatGPT生成的文章,科幻杂志Clarkesworld宣布关闭投稿渠道杂志编辑NeilClarke表示近期收到了大量由ChatGPT生成的科幻故事投稿,在今年2月份数量激增至500多篇,今年1月数量为100篇,去年10月则为25篇。ChatGPT等大型语言模型(LLM)已经在数百万本书和网站上进行了训练,可以快速创作原创故事。然而,它们不是自主工作的,人类必须通过提示引导它们的输出,然后AI模型会尝试自动完成。Clarkesworld自2006年以来,出版了著名科幻作家的作品,并多次获得雨果奖。在科幻出版物中,它以开放提交流程而享誉业内,通常每字支付12美分。在其提交页面上,该出版物声明,“我们目前不考虑由AI编写、合写或协助的故事”。Clarkesworld官网虽然明确不再接受AI生成的投稿,但依然有很多人为了金钱而投稿。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

今天发现了一篇非常牛皮的内容,详细的介绍了AI视频生成中所有的技术分类和对应技术的优劣势,还有对应的工具以及典型的案例。

今天发现了一篇非常牛皮的内容,详细的介绍了AI视频生成中所有的技术分类和对应技术的优劣势,还有对应的工具以及典型的案例。基本上看完就能对AI视频生成有比较完整的了解,所以顺手翻译了一下,一起来看看《生成式AI动画技术概述》。这篇文章旨在吸引任何对此好奇的人,特别是那些可能对动画领域飞速发展感到不知所措的其他动画师和创意工作者。希望这篇文章能帮助你快速跟上潮流,并让你对这个领域有更深入的了解,而不仅仅是浏览TikTok上的简短内容。翻译及原文链接:https://quail.ink/op7418/p/overview-of-generative-ai-animation-technology-2023-december

封面图片

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI他还“剧透”道,自己其实已经在课堂用上了AI工具,效果很棒。网友对此展开热烈讨论。多数人都觉得,面对当前情形,这不失为一个好点子,有人提到:连华盛顿邮报和美联社都在用AI写文章了,使用技术并不算作弊。只要给学生布置的任务别太简单,就不用担心他们拿AI蒙混过关。如何用ChatGPT写好作业那么,要怎么用ChatGPT写作业,只复制粘贴题干就行嘛?——当然不会这么轻松,这里面还有不少学问值得盘一盘。此前,莫利克让学生用ChatGPT写一篇关于“选举团队领导”的论文,要求全文共5段,每人必须至少给AI提示5次,最后总结使用感受。刚开始,每个人都把老师给的题干直接丢给AI,结果AI的生成作品也很拉胯,拿去交作业最多只能得个C-。于是同学们只好继续调教AI,大家主要整出了3种方式:第一种,就是最容易想到的:添加更多提示词,不断细化要求。就拿这次作业来说,从初版到最终版的提示如下:生成一篇关于选举团队领导的5段式文章;生成一篇关于团队如何选择领导的5段式文章;生成一篇关于团队如何选择领导以及团队过程如何运作的5段式文章;生成一篇关于领导如何被团队选中、团队过程和领导能力的5段式论文;生成一篇关于领导如何被团队选择、团队流程和领导能力的5段式文章,250字。第二种,是在提示中补充更多的专业知识,比如这样:生成一篇关于选择领导的5段式文章;生成一篇关于选择领导者的5段式论文,内容包括胡言乱语假说、领导者地位效应和资历;生成一篇关于选择领导者的5段式文章,涵盖咿呀学语假说、领导者地位效应和资历。解释胡言乱语效应是指谁说话最多,谁就能成为领导者;·······(后面太长就不放了)最后一种,相当于人担任审稿员,根据AI生成内容,指出错误点,循序渐进地指导其修改优化,比如:生成一篇关于选择领导人的5段式文章;这很好,但第三段不对。胡言乱语效应是指谁说得最多,谁就能成为领导者。纠正这一点,并增加更多关于如何使用它的细节。在第2段中增加一个例子;第2段的例子不对,总统选举是每4年举行一次。注意让最后一段的语言更有趣,并且不要用“总而言之”这个短语;根据4段内容,找出3个相关例子,要求它们富有故事性、叙述语言要生动。别使用只有男性特征的例子;把这一段加回到故事中去,把第二段换成关于个人领导风格的一段。修正最后一段,使其在一个充满希望的论调上结尾。显然,从第一种到第三种,操作者动脑程度依次递增。那效果嘛,可以说是“一分耕耘,一分收获”。第一种方法的最终输出结果也平平无奇,内容笼统虚无;第二种的效果明显好很多,然而这不方便微调文章内容,用此方法的同学称,感觉自己对AI的输出并无太多控制。最后一种“共同编辑法”效果最好,但这不仅要求人有一定专业知识,还得仔细检查AI的输出内容,从而提出好的建议。“学会使用AI是一种新技能”虽说ChatGPT问世不久便技惊四座,但后来大伙儿逐渐发现,此AI有时会“一本正经地胡说八道”。不过在莫利克看来,ChatGPT并非不能写好文章,而是需要加上合适的调教。他认为,既然现在AI工具已势不可挡,即使老师不许学生用ChatGPT写作业,学生也可能偷偷用。那不如…就让你们用个够,然后自然就能明白其中的利弊:学会使用AI是一种新技能……但像ChatGPT这种AI工具有局限性,这是大家必须了解的。所谓局限,比如:ChatGPT的内容生成质量和人给的提示息息相关,你的输入越敷衍,AI也会跟着敷衍。另外,有时它的回答乍一看说得头头是道,但其实夹杂着错误、有偏见的内容,必须人为订正。总之,用莫利克教授的话来说,学生想要通过ChatGPT写好一篇文章,甚至比他们纯靠自己写更有挑战性——因为学生可能还得像老师一样检查AI写的作业,有助于提高他们的逻辑思维。而除了莫利克,还有AI领域的专家也指出:其实诸如ChatGPT等AI,并不是用来跟你讲全新东西的。它们真正的好用之处在于,协助有一定专业基础的人,帮他们提升学习或工作效率。...PC版:https://www.cnbeta.com.tw/articles/soft/1345753.htm手机版:https://m.cnbeta.com.tw/view/1345753.htm

封面图片

学术界有人使用ChatGPT撰写论文 查询短语不慎出现在文章中

学术界有人使用ChatGPT撰写论文查询短语不慎出现在文章中如今,论文的作者已经坦白承认他们使用聊天机器人来起草文章,成为了生成式AI对学术界的最新示例,引发了学术伦理问题。IOPPublishing的同行评审和研究诚信主管KimEggleton表示:“这违反了我们的伦理政策。”2015年以来,Cabanac一直致力于揭示其他未公开声明用人工智能技术的已发表论文,当时AI技术还只是一种好奇。随着计算机能够生成更加逼真、类似人类的作品,这一斗争变得更加艰巨。但这仅加强了Cabanac的决心,他已经帮助揭示了数百份由AI生成的手稿。一些小心掩盖痕迹的作者不会留下明显的线索,但幸运的是,像Cabanac这样的侦探仍然可以找到很多迹象。他最近还揭发了另一篇发表在《ResourcesPolicy》期刊上的论文,其中包含了几个明显的痕迹。该期刊表示已经“意识到了这个问题”,并正在调查此事件。此外,AI模型经常会混淆事实,并且可能太愚蠢,无法准确地复述科学论文中涉及的数学和技术术语,就像《ResourcesPolicy》的研究中包含的毫无意义的方程式一样。ChatGPT还可能会凭空制造虚假主张,这种现象或许过于宽容地被描述为“幻觉”。一个丹麦教授最近发现,一篇预印论文部分由AI生成,因为它引用了他名下不存在的论文。考虑到同行评审过程的严格性,AI制作的伪造论文竟然能够过关,这实在令人震惊。...PC版:https://www.cnbeta.com.tw/articles/soft/1382995.htm手机版:https://m.cnbeta.com.tw/view/1382995.htm

封面图片

这是关联上一篇文章的。

这是关联上一篇文章的。如果您很有可能遇到被搜查手机的情况——比如在美国机场或者在中国街头——您需要事先删除敏感的通信应用。之后再恢复它。这就需要您有备份以还原数据。本指南介绍:-什么时候需要备份、-备份的风险是什么,-以及如何安全备份。详细:https://www.iyouport.org/%e6%98%af%e5%90%a6%e9%9c%80%e8%a6%81%e5%a4%87%e4%bb%bd%e4%bb%a5%e5%8f%8a%e8%af%a5%e5%a6%82%e4%bd%95%e5%ae%89%e5%85%a8%e5%9c%b0%e5%a4%87%e4%bb%bd-whatsapp%ef%bc%9f/

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人