这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平

这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平均每天睡眠5hr+800ml冰美式。takeaways:LLM验证了大模型范式,而这个新范式的潜力远不限于文字生成。在计算机视觉,大模型范式带来的变量正在被释放:大语言模型可以提升物体定位算法的效果、微调后的StableDiffusion能够找到人体关节的坐标、新模型生成可交互的2.5D场景...我正在整理一份视觉领域的最新变量,如果你感兴趣,欢迎关注点赞转发,我会发给你。

相关推荐

封面图片

西湖大学大一本科生论文入选人工智能领域顶级学术会议

西湖大学大一本科生论文入选人工智能领域顶级学术会议一篇以西湖大学本科生张乐程为共同第一作者的论文,日前被人工智能领域顶级学术会议之一的神经信息处理系统大会(NeurIPS)录用。据介绍,今年的神经信息处理系统大会12月10日起在美国新奥尔良举行,共收到12343篇有效论文投稿,最终26.1%的文章被录用,西湖大学有9篇入选,分别来自工学院的李子青实验室、王东林实验室和张岳实验室,其中一篇是以李子青实验室博四学生夏俊和大二本科生张乐程为共同一作的“理解和克服深度模型在分子属性预测任务上的局限性”。以今年春天的投稿时间论,张乐程参与这项研究、撰写论文时还在读大一。(澎湃新闻)

封面图片

蚂蚁集团:近五年发表约 500 篇顶级论文,80% 聚焦 AI 领域

蚂蚁集团:近五年发表约500篇顶级论文,80%聚焦AI领域近日举办的全球AI顶级会议NeurlPS大会上,蚂蚁集团20篇论文被收录。覆盖计算机视觉、自然语言处理、图神经网络、图像处理等多个人工智能和机器学习前沿,七成以上论文聚焦AIGC(生成式AI)领域。据蚂蚁集团方面透露,过去五年,蚂蚁集团在国际顶级学术期刊和学术会议上发表论文近500篇,其中AI领域论文300余篇,80%以上聚焦AI领域。(新浪科技)

封面图片

学术界有人使用ChatGPT撰写论文 查询短语不慎出现在文章中

学术界有人使用ChatGPT撰写论文查询短语不慎出现在文章中如今,论文的作者已经坦白承认他们使用聊天机器人来起草文章,成为了生成式AI对学术界的最新示例,引发了学术伦理问题。IOPPublishing的同行评审和研究诚信主管KimEggleton表示:“这违反了我们的伦理政策。”2015年以来,Cabanac一直致力于揭示其他未公开声明用人工智能技术的已发表论文,当时AI技术还只是一种好奇。随着计算机能够生成更加逼真、类似人类的作品,这一斗争变得更加艰巨。但这仅加强了Cabanac的决心,他已经帮助揭示了数百份由AI生成的手稿。一些小心掩盖痕迹的作者不会留下明显的线索,但幸运的是,像Cabanac这样的侦探仍然可以找到很多迹象。他最近还揭发了另一篇发表在《ResourcesPolicy》期刊上的论文,其中包含了几个明显的痕迹。该期刊表示已经“意识到了这个问题”,并正在调查此事件。此外,AI模型经常会混淆事实,并且可能太愚蠢,无法准确地复述科学论文中涉及的数学和技术术语,就像《ResourcesPolicy》的研究中包含的毫无意义的方程式一样。ChatGPT还可能会凭空制造虚假主张,这种现象或许过于宽容地被描述为“幻觉”。一个丹麦教授最近发现,一篇预印论文部分由AI生成,因为它引用了他名下不存在的论文。考虑到同行评审过程的严格性,AI制作的伪造论文竟然能够过关,这实在令人震惊。...PC版:https://www.cnbeta.com.tw/articles/soft/1382995.htm手机版:https://m.cnbeta.com.tw/view/1382995.htm

封面图片

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解2024年3月14日,苹果公司发布了自家的大型多模态基础模型MM1,该模型拥有高达300亿参数,并采用混合专家(MoE)架构。超过半数的论文作者是华人。MM1模型在多模态任务上显示出强大的性能,尤其是在少样本学习和上下文预测方面。研究团队通过对不同架构组件和数据选择的深入分析,提出了几条关键的设计准则。他们发现,图像分辨率、视觉编码器损失和容量,以及预训练数据的类型对模型性能有显著影响。MM1模型的开发,标志着苹果在生成式人工智能领域的重要进展。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

TikTok乱拳打死老师傅:硅谷大厂还在发论文,它产品已经上线了

TikTok乱拳打死老师傅:硅谷大厂还在发论文,它产品已经上线了突然间,AI文字转图片成为了全球科技业的一大流行技术趋势。几周前我们报道了“新一代梗图之王” DALL·Emini,一个脑洞十分清奇的文字转图片AI小工具。当时我们也提到,包括谷歌、OpenAI 等大公司和顶级研究机构都在开发相关模型,就连时尚杂志《COSMO》都采用AI来设计杂志封面。文/杜晨来源/硅星人图片来源:COSMO杂志然而令许多人没想到是:就在各家硅谷大厂斥巨资研发、砸了无数的人力、发了无数的论文,却还在测试相关技术的时候,TikTok居然异军突起,首先把AI文字转图片做到了产品里,而且直接交到了全球十亿用户的手上……乱拳打死老师傅,中国速度太快了在TikTok的特效菜单下,最近增加了一个名叫“AI绿幕”(AIGreenscreen)的新选项。点击这个选项,然后在屏幕中间的对话框里输入一段文字描述,只用不到5秒的时间,TikTok就可以根据文字描述生成一张竖版画作,用作短视频的背景:图片来源:硅星人截图TikTok用的这个文字转图片模型,还是非常简单的。硅星人测试了几个含义大相径庭的提示,生成的图片可以说都十分的“迷幻",没有任何写实色彩。但这并不是缺点缺点——正相反,生成结果具有非常强的水彩/油画感觉,风格迁移(styletransfer)的痕迹明显,而且用的颜色也都鲜亮明快,给人一种耳目一新的感受。图片来源:TechCrunch截图我特别想单独说一下我自己生成的两张图片:下图左边的提示字段是知名游戏“最后生还者”。生成结果的辨识度太高了,这不正是游戏主角Ellie被泥浆血水浸湿的头发吗?右图更有意思,提示是“轰炸”:我完全没有想到如此“不和谐”的字段,TikTok的模型居然生成的结果却相当的“自洽”,特别是图中的“轰炸机”反而看起来像是代表和平的“白鸽”——是否你也能读出一点讽刺的意味?图片来源:硅星人截图当然话说回来,这些只是我自己的解读和感受,绝不可能是模型的“本意”。但是有趣的艺术作品不正应该是这样嘛,让人能够发现一些巧妙的“彩蛋”,甚至浮想联翩,解读出另外的含义。从这一角度,我还是非常认可TikTok目前部署的这个模型的。模型的质量也值得一提。TheVerge、TechCrunch等美国媒体测试了一些特殊的敏感字段,AI绿幕生成结果更加抽象了,显示出字节部署的模型在争议字段上可能已经做出了提前规避。要知道AI文字生成图片本来就不是简单的技术,避免争议/道德风险更是一项相当复杂的工作。图片来源:TheVerge截图正如文章前面提到,谷歌、OpenAI等巨头公司和知名机构开发的AI文字生成图片模型,目前都处于刚刚发布或者小范围测试,还在“纸上谈兵”的阶段。这边TikTok不仅很快跟进推出了同类模型,更厉害的是已经将其投放到全球十亿用户量级别的产品里了。本来以为AI艺术创作的潮流还是几个硅谷大厂在引领,没想到字节跳动居然“乱拳打死老师傅”——必须给中国互联网科技公司的工作速度和质量点赞了。AI创作成潮流,硅谷大厂挤破头早在2020年,全球知...PC版:https://www.cnbeta.com/articles/soft/1304889.htm手机版:https://m.cnbeta.com/view/1304889.htm

封面图片

世界上最大的学术出版商认为ChatGPT不能被标记为作者

世界上最大的学术出版商认为ChatGPT不能被标记为作者施普林格-自然的旗舰出版物《自然》的主编MagdalenaSkipper表示:"我们现在不得不澄清我们的立场:为我们的作者,为我们的编辑,也为我们自己。这种新一代的LLM工具--包括ChatGPT产生的内容真的在社区中爆发了,社区理所当然地对它们感到兴奋和玩味,但[也]以超出目前真正可以使用的方式来使用它们。"ChatGPT和早期的大型语言模型(LLMs)已经在少量发表的论文、预印本和科学文章中被列为作者,然而,这些工具的贡献的性质和程度因个案而异。在《肿瘤科学》杂志上发表的一篇观点文章中,ChatGPT被用来论证在帕斯卡尔赌注的背景下服用某种药物,并明确标注了人工智能生成的文本。但在一篇研究机器人通过美国医学执照考试(USMLE)能力的预印本论文中,对机器人贡献的唯一承认是一句话,称该程序"为本稿的几个部分的写作做出了贡献"。在后者的预印本论文中没有提供进一步的细节,说明ChatGPT是如何或在哪里被用来生成文本的。然而,资助这项研究的公司--医疗保健创业公司AnsibleHealth的首席执行官认为,该机器人做出了重大贡献。AnsibleHealth首席执行官JackPo表示:"我们之所以把[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力上的贡献,而不仅仅是作为一个评估对象。"科学界对将ChatGPT作为作者的论文的反应主要是负面的,社交媒体用户称USMLE案例中的决定是"荒谬的"、"愚蠢的"、"非常愚蠢的"。反对给予人工智能作者资格的论点是,软件根本无法履行所需的职责,正如Skipper和NatureSpringer解释的那样。Skipper说:"当我们想到科学论文、研究论文的作者资格时,我们不只是想到写论文。有一些责任是超越出版的,当然,目前这些人工智能工具还不能承担这些责任。"软件不能对一份出版物进行有意义的问责,它不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答关于其工作的问题。如果在将人工智能作为作者的问题上有广泛的共识,那么在使用人工智能工具撰写论文的问题上就不那么明确了,即使有适当的致谢。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大社会偏见,如性别歧视和种族主义,并有产生"合理的废话"的倾向--将不正确的信息作为事实呈现。正是因为有这样的问题,一些组织已经禁止在特定范围内使用ChatGPT,包括学校、学院和依赖分享可靠信息的网站,如编程问答库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实说作者可以使用此类软件来"打磨"和"编辑"他们的作品。写作和编辑之间的界限到底在哪里是很棘手的,但对于《自然-斯普林格》来说,这种使用情况也是可以接受的。"我们的政策非常明确:我们不禁止将其作为撰写论文的工具,"Skipper说,"最根本的是,要有明确的规定。关于一篇论文是如何组成的,以及使用什么[软件]。我们需要透明度,因为这正是科学应该如何完成和交流的核心所在。"鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和转述文本,还可以迭代实验设计,或者用来碰撞思想,就像机器实验室伙伴一样。像SemanticScholar这样由人工智能驱动的软件可以用来搜索研究论文并总结其内容。Skipper指出,"另一个机会是使用人工智能写作工具来帮助那些英语不是其第一语言的研究人员。从这个角度来看,它可能是一种有用而过程中没有太大争议的工具。""在科学工作中禁止人工智能工具将是无济于事的,我认为我们可以有把握地说,直接禁止任何东西都是无效的。她说,相反,科学界--包括研究人员、出版商和会议组织者--需要走到一起,制定新的披露规范和安全护栏。作为一个社区,我们有责任关注积极的用途和潜力,然后规范和遏制潜在的滥用。我很乐观,我们可以做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1341101.htm手机版:https://m.cnbeta.com.tw/view/1341101.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人