Transformer 论文共同作者将离职 Google

Transformer论文共同作者将离职Google参与撰写了开创性人工智能论文《注意力就是你所需要的一切》(AttentionIsAllYouNeed)的利昂·琼斯(LlionJones)证实,他将于本月晚些时候离开Google,并计划在休假后创办一家公司。该论文于2017年发表,介绍了Transformer的概念,该系统可以帮助AI模型在它们正在分析的数据中锁定最重要的信息。Transformer现在是大型语言模型的关键构建模块。这几年间,该论文的作者们创办了一些知名初创公司,其中包括为企业客户提供大型语言模型的Cohere和聊天机器人公司Character.AI。来源:https://www.jiemian.com/article/9725020.html投稿:@ZaiHuaBot频道:@TestFlightCN

相关推荐

封面图片

Google 将缩减 AI 论文发表数量

Google通知员工将选择性的发表AI论文。Google最近合并了它的AI研究部门Brain和DeepMind,合并后的部门将会继续发表新AI研究,但对于什么能公开发表将会更具有选择性。GoogleAI部门资深高管JeffDean在今年2月向研究人员通知了新的论文发表政策,Dean此前像大学那样管理着AI部门,鼓励研究人员尽可能多的发表学术论文。自2019年以来Google研究人员发表了近500项研究。但OpenAIChatGPT的发布改变了这一切,而ChatGPT是基于Google关于Transformer的研究。所以Google决定改变它的政策,它计划只在AI变成产品之后才公开相关论文。搜索巨人一直被认为是AI研究领域的领导者,但它现在进入了防御模式,需要保护其核心的搜索业务抵御来自AI竞争对手的挑战。它现在将注意力集中在可以商业化的大语言模型和产品上。频道:@TestFlightCN

封面图片

谷歌Transformer模型论文合著作者离职创业 准备给AI产业探一条新路

谷歌Transformer模型论文合著作者离职创业准备给AI产业探一条新路(LlionJones在论文署名中排第5,来源:arvix)谷歌的论文也为五年后席卷全球的科技热潮奠定了基础,包括ChatGPT、文心一言、Bard、讯飞星火、StabilityAI、Midjourney、Dall-E等几乎所有市面上的知名产品背后都是Transformer架构。选在这个时候在AI领域自立门户,与挥金如土的各大巨头展开竞争,是因为Jones对AI领域产生了一些不同的想法。Jones与前谷歌AI日本地区的负责人、曾领导StabilityAI开发的DavidHa一拍即合,周四宣布在日本东京创办了一个名为SakanaAI的新公司,追求将“大自然系统的集体智慧”引入AI领域。Sakana在日语中是“鱼”的意思,代表着“一群鱼聚在一起,根据简单的规则行程连贯实体”的愿景。(两人官宣创业,来源:X)在Transformer架构的创新问世后,业界的发展重心一度聚焦在将各种“GPT”越做越大,而SakanaAI将聚焦在创造一个新的架构。他们认为,当前人工智能模型的局限性在于它们被设计为脆弱的、难以改变的结构,就像桥梁或建筑物那样。相比之下,在集体智慧的作用下,自然系统对周遭发生的变化非常敏感。自然系统会适应并成为周遭环境的一部分。SakanaAI希望使用这些进化计算的原理构建人工智能,来解决AI系统成本和安全性等问题。DavidHa对此概括称,相较于建造一个吸收所有数据的庞大模型,SakanaAI的做法可能是使用数量巨大的小模型,每一个模型所包含的数据集都不大但有独特的专长,然后让这些模型进行协作来解决问题。至于为什么要跑到东京去创业,两位创始人表示,除了在东京呆过很多年外,他们也认为训练在非西方社会和文化中也能表现良好的模型,能够成为下一次技术突破的催化剂。...PC版:https://www.cnbeta.com.tw/articles/soft/1377763.htm手机版:https://m.cnbeta.com.tw/view/1377763.htm

封面图片

Google 更新革命性AI论文《Attention Is All You Need》,将8位作者的邮箱全部划掉

Google更新革命性AI论文《AttentionIsAllYouNeed》,将8位作者的邮箱全部划掉论文标题上方出现了一段红色标注:如果提供了适当的归属,Google特此授予复制本文中的表格和数字的许可,仅用于新闻或学术作品。此举可能是因为Transformer的8名作者已经全部从Google离职。https://arxiv.org/pdf/1706.03762.pdf频道:@TestFlightCN

封面图片

Google IO 将公布 PaLM 2 大模型

GoogleIO将公布PaLM2大模型Google将在年度开发者大会GoogleI/O上宣布它的新版通用大语言模型PaLM2。PaLM是Google在2022年4月宣布的大模型,有5400亿参数,GoogleAI和DeepMind后在此基础上开发了一个用医学数据集微调的版本Med-PaLM,它是首个在美国医师资格考试中获得及格分的AI模型。在5月10日周三举行的开发者大会上Google宣布的PaLM2将是该公司最先进的大模型,其内部代号为“UnifiedLanguageModel(统一语言模型)”,包含逾百种语言,能执行范围广泛编程和数学测试,以及创意写作测试和分析。——

封面图片

Google将Bard和Duet AI整合到Gemini品牌中

周四,该公司宣布将其聊天机器人“Bard”更名为“Gemini”,并发布了一款专门针对Android的Gemini应用程序,甚至将其在谷歌工作空间(GoogleWorkspace)中的所有DuetAI功能都整合到Gemini品牌中。谷歌还宣布,GeminiUltra1.0——谷歌大型语言模型中最大、功能最强的版本——即将向公众发布。标签:#Google#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平

这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平均每天睡眠5hr+800ml冰美式。takeaways:LLM验证了大模型范式,而这个新范式的潜力远不限于文字生成。在计算机视觉,大模型范式带来的变量正在被释放:大语言模型可以提升物体定位算法的效果、微调后的StableDiffusion能够找到人体关节的坐标、新模型生成可交互的2.5D场景...我正在整理一份视觉领域的最新变量,如果你感兴趣,欢迎关注点赞转发,我会发给你。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人