谷歌发布数十款 Google 和 AI 结合产品,包括对标 GPT4o 的 Project Astra

谷歌发布数十款Google和AI结合产品,包括对标GPT4o的ProjectAstra5月15日消息,谷歌I/O开发者大会主题演讲上,谷歌CEOSundarPichai发布数十款Google和AI结合产品,其中包括支持200万token长文本的Gemini1.5Pro和Gemini1.5Flash、谷歌版Sora技术Veo,最强开源模型Gemma2,支持生成式搜索的AIOverviews、第六代TPU等。但最受关注的还是谷歌DeepMindCEO、谷歌AI负责人DemisHassabis公布的真正通向AGI的万能助手项目ProjectAstra,以及语音NotebookLM,直接对标GPT-4o。

相关推荐

封面图片

【谷歌发布数十款Google和AI结合产品,包括对标GPT4o的Project Astra】

【谷歌发布数十款Google和AI结合产品,包括对标GPT4o的ProjectAstra】2024年05月15日02点08分5月15日消息,谷歌I/O开发者大会主题演讲上,谷歌CEOSundarPichai发布数十款Google和AI结合产品,堪称“全家桶”级别,全力对战OpenAI,其中包括支持200万token长文本的Gemini1.5Pro和Gemini1.5Flash、谷歌版Sora技术Veo,最强开源模型Gemma2,支持生成式搜索的AIOverviews、第六代TPU等。但最受关注的还是谷歌DeepMindCEO、谷歌AI负责人DemisHassabis公布的真正通向AGI的万能助手项目ProjectAstra,以及语音NotebookLM,直接对标GPT-4o。

封面图片

碾压GPT-4 谷歌DeepMind CEO自曝下一代大模型将与AlphaGo合体

碾压GPT-4谷歌DeepMindCEO自曝下一代大模型将与AlphaGo合体谷歌DeepMindCEOHassabis全新爆料:全新Gemini模型将结合进AlphaGo和大语言模型,成本预计是数千万美元,甚至数亿。谷歌,是真的破釜沉舟了。传说中合并了AlphaGo和类GPT-4大模型的Gemini,终于要来了吗?PC版:https://www.cnbeta.com.tw/articles/soft/1367587.htm手机版:https://m.cnbeta.com.tw/view/1367587.htm

封面图片

传谷歌即将发布GPT-4竞品Gemini

传谷歌即将发布GPT-4竞品Gemini据知情人士透露,国外媒体TheInformation报道称,Google已向少数公司提供了Gemini早期版本进行测试,Gemini模型的正式发布即将到来。Gemini是GoogleDeepMind团队紧锣密鼓开发的下一代AI模型,据悉是Google第一个能够处理文字、图片、视频等不同数据形式的多模态模型,同时可望帮助软件工程师根据提示需求生成代码,加速软件开发。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

谷歌集大成之作要来了 据称将发布AI大模型Gemini 对标GPT-4

谷歌集大成之作要来了据称将发布AI大模型Gemini对标GPT-4在ChatGPT掀起的人工智能浪潮中,谷歌今年加大了对生成式人工智能(AIGC)的投资,试图迎头赶上。该公司花费了大量的计算资源和人力来开发这款产品,因此对谷歌来说,Gemini的发布事关重大。而允许外部开发者使用Gemini意味着谷歌正在考虑将其纳入其消费者服务。据知情人士透露,谷歌并将发布不同大小的Gemini版本,这样开发者就可以购买一个不那么复杂的版本来处理简单的任务,或者一个足够小的版本来在个人设备上运行。Gemini的功能Gemini是一个大语言模型的集合,它支持多种功能,包括:聊天机器人、生成原始文本、根据用户的要求总结文本等。Gemini还有望帮助软件工程师编写代码,并根据用户的要求生成原始图像。与现有型号相比,Gemini将大大提高帮助软件开发人员生成代码的能力。谷歌希望用它来追赶微软的GitHubCopilot代码助手,该助手由OpenAI的模型驱动,现在已经成为一个大热产品。谷歌此前还讨论过使用Gemini来增强图表分析等功能,比如让该模型解释已完成图表的含义;以及使用文本或语音命令来浏览网页浏览器或其他软件。此外,谷歌计划通过其谷歌云的VertexAI服务向企业提供Gemini模型,变相促进了谷歌的云服务业务。除了推动云服务器租赁业务外,谷歌还寄望于该软件为其所有业务提供动力,从其Bard聊天机器人到Workspace软件的新功能。...PC版:https://www.cnbeta.com.tw/articles/soft/1384103.htm手机版:https://m.cnbeta.com.tw/view/1384103.htm

封面图片

谷歌在 Google I/O 2023 上全面升级AI技术PaLM 2

谷歌在GoogleI/O2023上全面升级AI技术PaLM2模型发布,相较前代PaLM参数更少但能力远超。支持100多种自然语言和20多种编程语言,为超过25种新产品和功能提供支持。有着Gecko壁虎(可移动端本地运行)、Otter水獭、Bison野牛、Unicorn独角兽四种参数规格。——Bard现由PaLM2驱动,已取消候补名单在180多个地区上线。升级后的Bard支持20多种编程语言,自然语言新增支持日语与韩语,很快将扩大支持40种语言包括中文。Bard现在结合了GoogleLens的识图能力与AdobeFirefly的图片生成能力,未来将有更多第三方工具接入。还更新了图文并茂回复、来源引用、代码/文本导出、深色模式等功能。DuetAI进入谷歌办公套件,包括在Gmail起草邮件、Docs文档编写、Sheets表格处理、Slides幻灯片生成、Meet会议摘要等等。GoogleBrain和DeepMind今年开始合作研发的下一代模型Gemini双子座正在训练中,目前已经展现出了以往模型中从未出现过的多模态能力。据TheInformation消息Gemini将具有像GPT-4一样的万亿参数。——

封面图片

GPT-4劲敌 Google进入高能+高产模式

GPT-4劲敌Google进入高能+高产模式一、极致性能背后的模型架构图源:X平台Alphabet与Google公司首席科学家Jeff Dean推文“巧合”的是,Open AI在Gemini 1.5 Pro官宣两小时发布Sora这枚重磅炸弹,颇有“一较高下”的劲头。只是由于当下大家的视线焦点集中在视频领域,Sora 又是 OpenAI 首次发布文生视频模型,所以无奈被抢了头条。图源:微博评论Gemini 1.5 Pro建立在谷歌对Transformer和MoE架构的领先研究之上。传统Transformer充当一个大型神经网络,而 MoE(Mixture of Experts 混合专家模型)模型则分为更小的“专家”神经网络。在这一结构之下,通过将模型参数划分为多个组别而实现的计算的稀疏化,即每次执行推理任务时,根据对输入类型的判断,MoE模型会通过门控网络选择性地激活神经网络中最契合指令的专家参与计算。这种专业化、模块化的划分可以在提升预训练计算效率的同时提升大模型处理复杂任务的性能,更快地学习复杂任务的同时保证准确性。与稠密模型相比,MoE模型的预训练速度更快;使用MoE 层代替transformer 中的前馈网络(FFN)层。因而对的采用可以弥补Transformer架构运算效率的问题。在Switch-Transformer、M4等领域,Google 一直是深度学习 MoE 技术的早期采用者。目前大部分大语言模型开源和学术工作都没有使用 MoE 架构。有消息称,GPT-4也采用了由 8 个专家模型组成的集成系统。2023年12月8日Mistral AI 发布的 Mixtral 8x7B 同样采用了这种架构。就国内的大模型而言,只有Minimax采用了MoE架构。二、扩容的上下文窗口意味着什么?虽然Gemini 1.5 Pro是 Gemini 1.5 系列的初代版本,但初代便表现不俗。扩大上下文窗口后的高水平性能是Gemini 1.5 Pro的一大亮点。多模态大模型卷到今日,上下文窗口容量已然成为提升其理解能力的关键掣肘。此前的SOTA模型将上下文窗口容量卷到了20万token。而谷歌的Gemini 1.5 Pro直接将上下文窗口容量提到了100万token(极限为1000万token),远远超出了 Gemini 1.0 最初的 32,000 个 token,创下了最长上下文窗口的纪录。对于文本处理,Gemini 1.5 Pro在处理高达530,000 token的文本时,能够实现100%的检索完整性,在处理1,000,000 token的文本时达到99.7%的检索完整性。甚至在处理高达10,000,000 token的文本时,检索准确性仍然高达99.2%。在音频处理方面,Gemini 1.5 Pro能够在大约11小时的音频资料中,100%成功检索到各种隐藏的音频片段。在视频处理方面,Gemini 1.5 Pro能够在大约3小时的视频内容中,100%成功检索到各种隐藏的视觉元素。图源:Gemini 1.5 Pro官方测试数据Gemini 1.5 Pro大大超过Gemini 1.0 Pro,在27项基准(共31项)上表现更好,特别是在数学、科学和推理(+28.9%),多语言(+22.3%),视频理解(+11.2%)和代码(+8.9%)等领域。即使是对比Gemini 系列的高端产品Gemini 1.0 Ultra, Gemini 1.5 Pro也在超过一半的基准(16/31)上表现更好,特别是在文本基准(10/13)和许多视觉基准(6/13)上。在 NIAH测试中,Gemini 1.5 Pro能够在长达100万token的文本块中,以99%的准确率找出隐藏有特定信息的文本片段。图源:Gemini 1.5 Pro官方测试数据这个上下文长度使Gemini 1.5 Pro可以自如地处理22小时的录音、超过十倍的完整的1440页的书(587,287字)“战争与和平”,以及四万多行代码、三小时的视频。三、机器脑有多好使除高效架构和强上下文处理能力之外,Gemini 1.5 Pro的优秀品质还在于“情境学习”技能,它可以根据长提示,从以前从未见过的信息中学习新技能,而不需要额外的微调。强学习能力、信息检索与数据分析能力使得在知识海洋中“海底捞针”由想象映照进了现实。根据官方发布的测试报告,当给定卡拉曼语(一种全球使用人数不足 200 人的语言)的语法手册时(500页的语言文献,一本词典和400个平行句子),Gemini 1.5 Pro模型可以学习将英语翻译成卡拉曼语,其水平与学习相同内容的人相似。图源:Gemini 1.5 Pro官方演示样本当被一个45分钟的Buster基顿电影“小神探夏洛克”(1924年)(2674帧,1FPS,684ktoken)提示时,Gemini 1.5 Pro可以从其中的特定帧中检索和提取文本信息,并提供相应的时间戳。此外还可以从一张手绘素描中识别电影中的一个场景。与侧重于衡量模型检索能力的特定事实或细节的任务不同,这些问题通常需要了解跨越大量文本的信息片段之间的关系。图源:Gemini 1.5 Pro官方演示样本Gemini 1.5 Pro在处理长达超过100,000行的代码时,还具备极强的问题解决能力。面对庞大的代码量,它能够深入分析各个示例,提出实用的修改建议,还能详细解释代码的条例框架。给出了整个746,152个令牌JAX代码库,Gemini 1.5 Pro可以识别核心自动微分方法的具体位置。开发者可以直接上传新的代码库,利用这个模型快速熟悉、理解代码结构。图源:Gemini 1.5 Pro官方演示样本正如NVIDIA高级科学家Jim Fan所言,Gemini 1.5 Pro意味着LLM能力的大幅跃升,这对于做个体户的小公司而言可谓一骑绝尘。在人机协同的探索过程中,单一的文本交互很难满足多场景多样态的内容生产诉求。多模态的信息处理与生成能力显然是技术变革的发力点。纽约大学计算机助理教授谢赛宁说,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。Gemini 1.5 Pro是谷歌与巅峰对决的又一利器,或许AGI时代正加快到来。...PC版:https://www.cnbeta.com.tw/articles/soft/1419771.htm手机版:https://m.cnbeta.com.tw/view/1419771.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人