5 个法国人拼凑而成的 AI 击败数十亿美元的硅谷模型

5个法国人拼凑而成的AI击败数十亿美元的硅谷模型lmsys竞技场(公众盲测选优)更新排名后令人大开眼界,MistralMedium将曾经世界第二的Claude系列模型拉下宝座,与师出同门的Mistral8x7b一同霸榜。世界前十如今被OpenAI、Anthropic、Google、Mistral四家公司包揽,Mistral是其中唯一一家开源实验室。据推测,MistralMedium可能是一个8x30b的专家混合模型,比第一的GPT-4Turbo便宜约3.5倍,但尚未开源。已开源的Mistral8x7b在一个月内已经成为性能热度双最高的社区模型。投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

Mistral AI 开源 Mistral 8x22B Moe 大模型

MistralAI开源Mistral8x22BMoe大模型MistralAI公司刚刚再次用磁力链接开源了一款大模型Mistral8x22B,模型文件大小为281.24GB。从模型的名字来看,Mistral8x22B是去年开源的「mixtral-8x7b」的超级大杯版本,参数规模增长三倍不止,由8个220亿参数规模(8×22B)的专家网络组成。磁力链接地址:magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce——、

封面图片

Mistral AI 开源 Mistral 8x22b 模型

MistralAI开源Mistral8x22b模型疑似Mistral8x22b的MixtralMedium在最新的lmsys竞技场中位列世界第11,为最强开源模型之一。此举突然发布可能和另一开源模型CommandR+有关,CommandR+在4月4日横空出世,截至昨日位列第6。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

法国人工智能初创公司 Mistral AI 瞄准美国市场

法国人工智能初创公司MistralAI瞄准美国市场法国人工智能初创公司MistralAI正瞄准OpenAI的地盘。今年5月,这家法国公司聘请社交网络服务公司Foursquare前首席营收官MarjorieJaniewicz担任其首位美国总经理。在一次采访中,她表示,MistralAI的美国业务正在“蓄势待发”,并计划雇佣更多员工。根据Janiewicz的说法,一些企业正在寻找替代OpenAI和谷歌等大型供应商的人工智能模型和服务。Janiewicz表示,在美国,Mistral将通过合作伙伴以及与使用其开源模型的公司的直接交易来寻找客户。开源是Mistral的主要卖点之一。

封面图片

据苹果官方介绍,Apple Intelligence拥有两个基础模型:

据苹果官方介绍,AppleIntelligence拥有两个基础模型:本地模型:设备上约30亿参数的语言模型,测试得分高于诸多70亿参数的开源模型(Mistral-7B或Gemma-7B);云上模型:可通过私有云计算并在Apple芯片服务器上运行的更大的基于服务器的语言模型;在指令跟踪评估(IFEval)测试中,本地模型性能优于包括Phi-3-mini、Mistral-7B和Gemma-7B等模型,且与DBRX-Instruct、Mixtral-8x22B和GPT-3.5-Turbo相比毫不逊色,同时效率很高;而云上模型水平基本与GPT-4-Turbo持平。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

Mistral 宣布最新开放大模型 Mixtral 8x22B

Mistral宣布最新开放大模型Mixtral8x22B法国AI创业公司Mistral宣布了其最新的开放大模型,公布的测试显示它是目前最先进的开放模型。Mistral称8x22B是真正开放的模型,使用Apache2.0许可证,允许任何人不受限制的使用。它是一种稀疏Mixture-of-Experts(SMoE)模型,有1410亿参数,但活跃参数仅为390亿,在其规模下提供了无与伦比的成本效率。Mixtral8x22B的优点包括:精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,原生能函数调用,64K令牌上下文窗口。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Mistral AI发布了新的开源模型Mixtral 8x22B。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模

MistralAI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。Mixtral8x22B支持英语、法语、意大利语、德语和西班牙语,并具有强大的数学和编程能力。其支持函数调用,可大规模实现应用开发和技术栈现代化。MistralAI坚信开源的力量,Mixtral8x22B以最宽松的Apache2.0许可证发布。MistralAIModels追求卓越的成本效率。Mixtral8x22B相较同规模模型,提供最佳的性能价格比。其稀疏激活可提升速度。Mixtral8x22B在推理、知识、多语言、编程、数学等多个基准测试上,表现优于其他开源模型。后续会发布指导版本,数学表现更佳。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人