Mistral 正式发布 Mistral Large,在基准测试中仅次于GPT-4,超过其他所有模型。#ai##llm#

Mistral正式发布MistralLarge,在基准测试中仅次于GPT-4,超过其他所有模型。MistralLarge具有新的功能和优势:它在英语、法语、西班牙语、德语和意大利语方面拥有母语般流利的能力,并对语法和文化背景有细致的理解。其32K令牌的上下文窗口允许从大型文档中精确地寻找信息。它精确的指令跟随能够让开发者设计他们的管理政策-我们用它来建立leChat的系统级管理。它本身就能够进行函数调用。这一点,再加上在laPlateforme上实现的受限输出模式,使得应用程序开发和技术栈现代化能够大规模进行。支持在LaPlateforme、Azure和私有部署。了解更多:

相关推荐

封面图片

Mistral Large 大语言模型发布

MistralLarge大语言模型发布MistralLarge是Mistral新的尖端文本生成模型。它达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。MistralLarge在常用基准测试中取得了优异的成绩,使其成为世界上排名第二的可通过API普遍使用的模型(仅次于GPT-4)。该模型也可以通过Azure直接调用。MistralLarge具有以下特点-支持英语、法语、西班牙语、德语和意大利语。-32K标记上下文窗口。-精确的指令遵循使开发人员能够设计他们的审核策略。-原生支持函数调用。Mistral还发布了一个新的优化模型MistralSmall,针对延迟和成本进行了优化,其性能优于Mixtral8x7B,并且延迟较低,这使其成为开源型号和旗舰型号之间的中间解决方案。——

封面图片

网站MistralAI网站功能:AI聊天网站简介:一款新的语言模型,在基准测试中仅次于GPT-4,超过其他所有模型。原生支

封面图片

Mistral推出新服务和SDK 允许客户对其模型进行微调

Mistral推出新服务和SDK允许客户对其模型进行微调Mistral在SDK的GitHub仓库的自述文件中指出,SDK针对多GPU设置进行了优化,但也可以扩展到单个NVIDIAA100或H100GPU,用于微调Mistral7B等较小的模型。Mistral表示,对UltraChat这样的数据集进行微调需要半个小时左右,UltraChat是使用OpenAI的ChatGPT进行的140万次对话的集合,使用Mistral-Finetune在8个H100上进行微调。对于更喜欢管理型解决方案的开发人员和公司来说,Mistral新推出的微调服务可通过公司的API使用。Mistral表示,微调服务将在未来几周内支持更多型号。最后,Mistral将首次推出定制培训服务,目前只面向部分客户,利用他们的数据为组织的应用程序微调任何Mistral模型。"该公司在其官方博客的一篇文章中解释说:"这种方法可以为特定领域创建高度专业化和优化的模型。我的同事英格丽德-伦登(IngridLunden)最近报道说,Mistral公司正寻求以60亿美元的估值向包括DST、GeneralCatalyst和光速创投(LightspeedVenturePartners)在内的投资者融资约6亿美元。自2023年9月Mistral推出首个生成模型以来,它又发布了多个模型,包括代码生成模型,并推出了付费API。但它还没有透露有多少用户,收入情况如何。...PC版:https://www.cnbeta.com.tw/articles/soft/1433766.htm手机版:https://m.cnbeta.com.tw/view/1433766.htm

封面图片

大模型实时打《街霸》捉对PK GPT-4居然不敌3.5

大模型实时打《街霸》捉对PKGPT-4居然不敌3.5这种新玩法吸引了不少网友来围观。由于项目是在Mistral举办的黑客马拉松活动上开发,所以开发者只使用OpenAI和Mistral系列模型进行了测试。排名结果也很出人意料。经过342场对战后,根据棋类、电竞常用的ELO算法得出的排行榜如下:最新版gpt-3.5-turbo成绩断崖式领先,Mistral小杯排第二。更小的模型超过了更大的如GPT-4和Mistral中杯大杯。开发者认为,这种新型基准测试评估的是大模型理解环境并根据特定情况采取行动的能力。与传统的强化学习也有所不同,强化学习模型相当于根据奖励函数“盲目地”采取不同行动,但大模型完全了解自身处境并有目的的采取行动。考验AI的动态决策力AI想在格斗游戏里称王,需要哪些硬实力呢?开发者给出几个标准:反应要快:格斗游戏讲究实时操作,犹豫就是败北脑子要灵:高手应该预判对手几十步,未雨绸缪思路要野:常规套路人人会,出奇制胜才是制胜法宝适者生存:从失败中吸取教训并调整策略久经考验:一局定胜负不说明问题,真正的高手能保持稳定的胜率具体玩法如下:每个大模型控制一个游戏角色,程序向大模型发送屏幕画面的文本描述,大模型根据双方血量、怒气值、位置、上一个动作、对手的上一个动作等信息做出最优决策。第一个挑战是定位人物在场景中的位置,通过检测像素颜色来判断。由于目前大模型数学能力还都不太行,直接发送坐标值效果不好,最终选择了将位置信息改写成自然语言描述。所以对于AI来说,实际上他们在玩的是一种奇怪的文字冒险游戏。再把大模型生成的动作招式映射成按键组合,就能发送给游戏模拟器执行了。在试验中发现,大模型可以学会复杂的行为,比如仅在对手靠近时才攻击,可能的情况下使用特殊招式,以及通过跳跃来拉开距离。从结果上可以看出,与其他测试方法不同,在这个规则下似乎更大的模型表现越差。开发者对此解释到:目标是评估大模型的实时决策能力,规则上允许AI提前生成3-5个动作,更大的模型能提前生成更多的动作,但也需要更长的时间。在推理上的延迟差距是有意保留的,但后续或许会加入其他选项。后续也有用户提交了流行开源模型的对战结果,在7B及以下量级的战斗中,还是7B模型排名更靠前。从这个角度看,这种新型基准测试为评估大模型的实用性提供了新思路。现实世界的应用往往比聊天机器人复杂得多,需要模型具备快速理解、动态规划的本领。正如开发者所说,想要赢,要在速度和精度之间做好权衡。GitHub项目:https://github.com/OpenGenerativeAI/llm-colosseum参考链接:[1]https://x.com/nicolasoulianov/status/1772291483325878709[2]https://x.com/justinlin610/status/1774117947235324087...PC版:https://www.cnbeta.com.tw/articles/soft/1425768.htm手机版:https://m.cnbeta.com.tw/view/1425768.htm

封面图片

32K上下文,Mistral 7B v0.2基模型突然开源了

32K上下文,Mistral7Bv0.2基模型突然开源了这次开源的Mistral7Bv0.2BaseModel,是Mistral-7B-Instruct-v0.2背后的原始预训练模型,后者属于该公司的“MistralTiny”系列。此次更新主要包括三个方面:将8K上下文提到了32K;RopeTheta=1e6;取消滑动窗口。下载链接:https://models.mistralcdn.com/mistral-7b-v0-2/mistral-7B-v0.2.tar…更新之后的性能对比是这样的:场外观众迅速跟进。有人评价说:“Mistral7B已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。我将尽快在这个模型上重新训练当前的许多微调。”MistralAI的第一个7B模型发布于2023年9月,在多个基准测试中实现了优于Llama213B的好成绩,让MistralAI一下子就打出了知名度。这也导致目前很多开源大模型都已不再对标Llama2,而是将MistralAI旗下的各系列模型作为直接竞争对手。而Mistral7Bv0.2BaseModel对应的指令调优版本Mistral-7B-Instruct-v0.2在2023年12月就已开放测试,据官方博客介绍,该模型仅适用于英语,在MT-Bench上能够获得7.6分的成绩,逊于GPT-3.5。此次开放基础模型之后,开发者们就可以根据自己的需求对这个“当前最好的7B模型”进行微调了。不过,7B模型只能算是MistralAI众多惊艳成果中的一项。这家公司的长远目标是对标OpenAI。上个月底,MistralAI正式发布了“旗舰级”大模型MistralLarge。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标OpenAI的GPT-4。随着MistralLarge上线,MistralAI推出了名为LeChat的聊天助手,也实现了对标ChatGPT。而新模型的发布,也伴随着公司大方向的一次转型。人们发现,MistralLarge并不是一个开源大模型——有跑分、API和应用,就是不像往常一样有GitHub或是下载链接。与MistralLarge发布同时发生的,是MistralAI与微软达成了长期合作的协议,不仅会将MistralLarge引入Azure,还收获了微软1600万美元的投资。MistralAI对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域:超算基础设施:微软将通过AzureAI超级计算基础设施支持MistralAI,为MistralAI旗舰模型的AI训练和推理工作负载提供一流的性能和规模;市场推广:微软和MistralAI将通过AzureAIStudio和Azure机器学习模型目录中的模型即服务(MaaS)向客户提供MistralAI的高级模型。除OpenAI模型外,模型目录还提供了多种开源和商业模型。人工智能研发:微软和MistralAI将探索为特定客户训练特定目的模型的合作。当被问及公司是否正在改变其开源商业模式时,MistralAI联合创始人ArthurMensch在采访中表示:“我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。”参考链接:https://twitter.com/MistralAILabs/status/1771670765521281370首届中国具身智能大会(CEAI2024)即将于2024年3月30日至31日在上海徐汇西岸美高梅酒店举行。本次大会由中国人工智能学会(CAAI)主办,CAAI具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家AI媒体合作。盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。...PC版:https://www.cnbeta.com.tw/articles/soft/1424820.htm手机版:https://m.cnbeta.com.tw/view/1424820.htm

封面图片

微软钦点OpenAI备胎:GPT-4级大模型上线即挤爆 成本仅2200万美元

微软钦点OpenAI备胎:GPT-4级大模型上线即挤爆成本仅2200万美元同时推出在线聊天机器人平台LeChat,即使有了微软Azure算力资源,服务器还是被挤爆了。由于其API比GPT-4最新版便宜20%,已经吸引了部分创业者去尝试。根据HyperWriteAI创始人测试,MistralLarge跑分看起来只比排第三的Claude2好一点,但是实测效果还要好更更更多。不过也有开发者认为便宜只是暂时的,非常确信GPT-4也有降价空间。总之,这个价格战真的打起来就更妙了。网页版开放,但服务器被挤爆MistralLarge属于他家商用系列的大杯,不开源,也不免费。主要亮点如下:32k上下文窗口支持多语言,代码能力强,擅长推理原生支持函数调用和输出JSON格式模块化的审查控制机制在多项推理和知识能力测试中,成绩仅次于GPT-4除此之外,并无更多消息透露,从之前小杯、中杯的情况看,技术报告可能也不会有了。不过创始人ArthurMensch透露,MistralLarge训练成本不到2200万美元,相比之下GPT-4可能超过1亿美元。API价格比gpt-4-turbo便宜20%,输出一百万token要24美元,约173人民币元。gpt-4-turbo同样输出一百万token要30美元,约216人民币。两者输入token价格都是输出tokend的1/3。除了通过API访问之外,这次Mistral也开放了相当于ChatGPT的网页版LeChat聊天助手。这里还有一个小彩蛋。LeChat在法语里相当于英语TheCat,在原本的M字Logo下加上两个点代表眼睛,这样空白处就成了猫耳朵。切换到夜间模式,还会变成LeChatNoir,也就是TheBlackCat。很可惜,现在再注册已经需要排队了。如果现在想体验MistralLarge,还可以去Poe.com或大模型竞技场LMSYSChatbotArena。不过由于太火了,目前全平台无法响应……在最新ChatbotArena排行榜上,Mistral中杯版已经与GPT-4早期版本差距不大,大杯版的表现也值得期待。微软不再独宠OpenAI微软CEO纳德拉宣布,已与MistralAI建立多年合作伙伴关系。微软将持有MistralAI少量股份,并提供算力基础设施用于w训练和推理部署大模型。新模型优先通过微软Azure云提供给客户,暂不登录亚马逊Google云等其他云平台。Mistral也成了微软Azure上除了OpenAI以外,第二个商业闭源模型供应商。有网友开玩笑说,早看出来他们两家有点子关系,MistralAI的Logo一看就是用Word艺术字画的。...PC版:https://www.cnbeta.com.tw/articles/soft/1421197.htm手机版:https://m.cnbeta.com.tw/view/1421197.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人