复旦大学发布了一个引发轰动的大语言模型:MOSS

复旦大学发布了一个引发轰动的大语言模型:这是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。

相关推荐

封面图片

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强4月21日消息,国内首个类ChatGPT模型MOSS已正式开源。该模型由复旦大学自然语言处理实验室开发,名字致敬于《流浪地球2》中的量子机器人MOSS。此前,在测试时曾发布在公开平台,但由于瞬间压力过大,导致服务器过载,学术团队也表示了道歉和承诺进一步优化。目前,MOSS模型已上线开源,相关代码、数据、模型参数已在Github和HuggingFace等平台开放,供科研人员下载。https://github.com/OpenLMLab/MOSShttps://moss.fastnlp.top/来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

复旦团队发布国内首个类ChatGPT模型MOSS,邀公众参与内测

复旦团队发布国内首个类ChatGPT模型MOSS,邀公众参与内测据复旦大学自然语言处理实验室消息,国内第一个对话式大型语言模型MOSS已由邱锡鹏教授团队发布至公开平台(https://moss.fastnlp.top/),邀公众参与内测。MOSS可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。(上观新闻)Source:投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

复旦团队发布国内首个类 ChatGPT 模型 MOSS,邀公众参与内测

复旦团队发布国内首个类ChatGPT模型MOSS,邀公众参与内测昨日,记者从复旦大学自然语言处理实验室获悉,国内第一个对话式大型语言模型「MOSS」已由邱锡鹏教授团队发布至,邀公众参与内测。MOSS可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。邱锡鹏表示:「尽管MOSS还有很大改善空间,但它的问世证明了在开发类ChatGPT产品的路上,国内科研团队有能力克服技术上的重要挑战。」MOSS研发项目得到了上海人工智能实验室的有力支持。后期,这项工作将通过开源方式和业界社区分享。——

封面图片

2日获悉,在复旦大学自然语言处理实验室(FudanNLP)师生的努力下,基于多模态大模型“复旦・眸思”(MouSi)为视障者量身

2日获悉,在复旦大学自然语言处理实验室(FudanNLP)师生的努力下,基于多模态大模型“复旦・眸思”(MouSi)为视障者量身打造的“听见世界”APP上线,将成为视障人士的生活助手与智能管家。2023年上半年,复旦大学自然语言处理实验室发布了开发MOSS对话式大型语言模型,被称为中国版的GPT,仅用半年时间多模态模型“眸思”问世。据介绍,“眸思”和基于文本的MOSS不同,它能够理解并识别图片内容,致力于成为视障者的一双“眸”。(中新网)

封面图片

复旦MOSS团队访谈:它就像一个“聪明的小孩”

复旦MOSS团队访谈:它就像一个“聪明的小孩”图说:MOSS大家最兴奋的一天,是春节前的腊月二十八。项目主开发者、计算机科学技术学院博士研究生孙天祥,在测试过程中输入了一个中文问题,MOSS却以英文正确回答,“就像一个不会说但听得懂中文的人”。当时版本的MOSS还很初级,中文语料占所有训练数据不到0.1%。“很神奇,我们没有教过它机器翻译。”MOSS显示出的潜能让邱锡鹏当晚激动到失眠。他把MOSS比作一个“聪明的小孩”,即便现在还不擅长写诗、解题或很多具体的事,但已展示出成为通用人工智能(AGI)大框架的潜能,“很多遥不可及的事情,它一点就通了。”实际上,邱锡鹏也让6岁的女儿和MOSS聊天,发现孩子可以愉快地和MOSS对话很长时间。MOSS受到关注的背后,是科研人员十年如一日的积淀。作为一名人工智能研究专家,邱锡鹏从读博期间就开始涉猎机器学习,留校工作后进入自然语言处理研究领域。他和团队在自然语言处理的基础模型和基础算法上形成了很多创新的研究成果。邱锡鹏的著作《神经网络与深度学习》被广大读者亲切称为“蒲公英书”,在许多“人工智能必看书单”中榜上有名。去年,他还带领团队获得了中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖。这些天,邱锡鹏与他的MOSS团队——8位年轻的复旦学生,继续紧锣密鼓地开展内测和迭代工作。新模型预计在3月底优化完成,后期再逐步对社会开放。目前已参与内测的一些用户表示,尽管MOSS在参数规模上和ChatGPT相比小一个量级,事实性问题覆盖不够全面,经常会“一本正经地胡说八道”,但确实有“ChatGPT那味儿”“基本功能都实现了”。邱锡鹏很乐观,认为在不远的将来,MOSS这类大型语言模型会成为和搜索引擎一样常规的存在,为人们生活的方方面面提供助益。邱锡鹏介绍,ChatGPT的参数量多达1750亿个,而MOSS的参数量比其小一个数量级,大约是前者的1/10。“比起事实类的知识储备,模型的逻辑思维能力更值得大家关注”,有一种说法,说我们和国外的技术水平差距非常大,想追上的话,要花很长时间。但我们的努力证明,其实不需要那么久。新民晚报记者张炯强通讯员殷梦昊许文嫣【相关报道】MOSS究竟是什么?邱锡鹏答记者问,回应社会关注热点。图说:团队照片,左六为邱锡鹏记者:可否简单介绍一下MOSS?这种“大型对话式语言模型”和我们日常使用的Siri、小度、小爱等聊天机器人有什么区别?邱锡鹏:我可以打个比方,这两者的关系就像智能手机和功能手机。之前的聊天系统还属于弱人工智能,设计它们就是用来聊天的,就像传统的功能手机只能用来打电话;而现在的大型语言模型,像ChatGPT、MOSS,它们能做很多事,聊天只是功能之一,就像智能手机可以用来打电话,但它的功能远远不止于此。就ChatGPT、MOSS而言,它们具备的是一种通用能力,可以帮助人类完成各种各样的事情,只不过以对话形式呈现。它可以完成自然语言处理领域的绝大部分任务,包括机器翻译、信息抽取、纠错等。它们还可以在学习使用外部工具后,与外部世界进行交互,进行创作。这些都是现有的聊天机器人所不具备的。应该说,这种对话式大型语言模型向我们展示了一条通向“通用人工智能”的崭新路径。记者:团队2月20日发布了MOSS模型,是刚刚建成吗?前后花了多长时间?邱锡鹏:事实上,我们在春节前就开发出了第一代模型。它显示出了很大的潜能,与之前的聊天系统大不相同,有着不错的人类意图理解能力,也有很多涌现能力,比如未经训练就学会了机器翻译。之后,我们又花了一个多月的时间打磨它的工程部署情况,比如提高效率、优化界面等。MOSS的开发同样不是一蹴而就,它离不开我们团队过去的铺垫工作和长期积累的研究经验。从2021年起,我们就开始做中文生成式预训练模型,也开源供别人下载,每月平均有上万次下载。后面我们又提出“语言模型即服务”的概念,认为基础语言模型会成为语言服务的基座。因为意识到大型语言模型会成为将来的基座,所以去年开始做大型语言模型方面的训练。后来又花费了半年时间,研究如何使大型语言模型理解人类指令以及具备对话能力。记者:MOSS如何能够实现“端到端”走通大语言模型,克服了哪些难点?邱锡鹏:“端到端”是一个学术概念,指的是从零开始,信息收集、数据处理、建立模型,到最终形成一个具有和人类对话能力的大模型,中间所有技术路径可以走通,这个就叫由起点到终点的“端到端”。因为OpenAI至今没有公布开发ChatGPT的技术路线和技术细节,所以我们需要靠有限的公开信息来自己摸索。这个过程非常难,包含了非常多经验性、直觉性的设计,关键要打通两步:第一是基座,大型语言模型的基座不是简单的参数足够大就可以,还需要赋予大型语言模型各种各样的知识能力、学习能力,还有逻辑推理能力。第二就是要通过一些指令触发它的对话能力,让它理解人类意图,与人类能够交互对话。到目前为止,我们还能把控技术路线,但未来可能会面临更大的困难,因为我们收集了非常多和人类交互的指令,要赋予它价值观和各种各样的能力,就要请一些专业人士来帮助我们设计,进一步增强MOSS各方面的能力。记者:MOSS的名字是怎么来的?邱锡鹏:在学术圈,大家非常喜欢用影视形象给自己开发的AI模型命名,也是一个比较常见的做法。比如,Transformer模型、Megatron模型名称取自《变形金刚》,BERT模型、ERNIE模型化用了《芝麻街》中的角色形象。那么,我们开发出这个具有对话能力的大型语言模型之后,也想找一个国产的、能够代表中国特色的影视形象来命名。开发过程中,正逢《流浪地球2》电影热映,我们的团队成员都非常喜欢《流浪地球2》,也都是《流浪地球2》的粉丝。影片中的智能量子计算机MOSS给我们留下了深刻的印象,所以我们就把模型命名为MOSS,也是向《流浪地球2》这部电影致敬。这几天也有《流浪地球2》的粉丝们给我们发邮件,希望我们一定要加油,真的能够做出来。...PC版:https://www.cnbeta.com.tw/articles/soft/1347259.htm手机版:https://m.cnbeta.com.tw/view/1347259.htm

封面图片

复旦MOSS大模型开源了 Github和Hugging Face同时上线

复旦MOSS大模型开源了Github和HuggingFace同时上线MOSS支持中英双语,拥有多轮对话和使用多种插件双重能力,具备搜索引擎、文生图、计算器、方程求解的“技能点”。目前,MOSS在GitHub上已有2.3kStar,热度还在持续上涨中。那么,MOSS究竟开源了哪些项目,目前有哪些功能?一起来看看。会解方程,也能生成图片据了解,这次MOSS开源的是第三轮迭代版本,名叫MOSS003。当然,MOSS003也并非开源了全部模型,目前主要开放的是基座预训练模型,最终模型即将在近期开源:此前,MOSS已经经历了两版迭代,一版是公开邀请内测的MOSS002版本,另一版是内部测试版本OpenChat001。三月份大伙儿见证的“国内首个开放测试的ChatGPT”,正是MOSS002版本。最新这个版本展现的功能效果如何?MOSS团队放出了它多轮对话、解方程、写代码、生成图片和回答道德伦理等示例。这是多轮对话的展示效果,具备资料追根溯源的能力:这是做数学题的示例,包括鸡兔同笼问题:也包括生成图片功能:还有近期网友热议的AI道德性问题:当然,这波里面也不乏“砸场子”的网友。例如官方GitHub问答中,有网友很想了解它的中文能力和chatglm6b相比谁更好,下面有网友调侃:你是来砸场子的么?这也是因为此前团队在MOSS002公开测试时曾经表示过,MOSS的中文能力不算太好,这也与训练数据有关。除此之外,团队这次还开源了一部分训练数据。至于完整数据,复旦MOSS团队表示“近期会全部开源”。国内最先发布的ChatGPT产品MOSS取自于《流浪地球》里面那个拥有自我意识的AI。它由复旦自然语言处理实验室邱锡鹏团队研发,2月20日正式发布。当时国内一众大厂还在陆续高调官宣要造ChatGPT,谁都没想到它就这么一声不吭地杀了出来。所以尽管MOSS的参数量比ChatGPT小了一个量级,大家还是蜂拥而上,把服务器都给挤爆了。而发布没过一周,复旦大学教授邱锡鹏就在演讲中提出,如果优化顺利,计划在三月底开源MOSS。因为在他看来:人们之所以很容易有“卡脖子”问题,是因为缺乏一个好的行业生态。就拿ChatGPT来说,OpenAI公司只需专注做好模型,算力、数据和系统则交给其他公司。反观国内,很多公司在做大型语言模型时所有环节都需要自己做,每家的数据和算力也有限,结果是每家都做不大。在发展过程中,大型语言模型训练与在线推理成本过高也是一个重大问题。因此,他们一开始就考虑要把MOSS开源而不是商业化。有了这样一个基座,大家就不用重复开发底层技术,可以在上面接不同的细分领域。如今,虽晚了快一个月,MOSS也说到做到了。你试用过复旦MOSS开源模型了吗?效果如何?...PC版:https://www.cnbeta.com.tw/articles/soft/1356187.htm手机版:https://m.cnbeta.com.tw/view/1356187.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人