【蓝振忠:大模型和Web3是生产力跟生产关系的关系】

【蓝振忠:大模型和Web3是生产力跟生产关系的关系】2023年09月19日02点25分老不正经报道,2023上海区块链国际周·第九届区块链全球峰会上,西湖心辰创始人,西湖大学教授蓝振忠表示,我认为大模型和Web3是生产力跟生产关系的关系,大模型极大地提升了生产力水平,但是它要发挥好的话肯定要有相应的生产关系去匹配。我总结下来,大模型落地现在存在几个问题:一是训练成本非常高,初创公司没有把模型开源出来的incentive,花几百万美金训练的模型开源出来,但之后就跟我无关了,他很难开源。但开源对模型非常重要,现在模型很多是黑盒的,很多研究机构负担不起自己训练模型的,如果大家都在训练,那大家都在重复造轮子,所以开源非常重要,但需要相应的激励机制。二是推理成本高,现在GPT4单条对话的推理成本是6毛钱,比我讲话贵多了,推理成本非常高,落地非常困难。GPT4可以用在很多地方,但是成本承担不起。三是数据敏感,之前三星数据被OpenAI泄露闹得沸沸扬扬,我们现在上传到大模型的数据都是敏感数据,很多公司不愿意把自己的数据上传上去,如何处理这些问题?希望Web3可以帮我们解决这些问题。

相关推荐

封面图片

华金证券:AI 模型轻量化趋势,赋能端侧生产力

华金证券:AI模型轻量化趋势,赋能端侧生产力华金证券4月18日研报指出,AI模型轻量化趋势,赋能端侧生产力。斯坦福大学研究人员近日推出的Octopusv2大模型拥有20亿个参数的高级开源语言模型,可跑通端侧,专为AndroidAPI量身定制。不仅性能与GPT-4相当,还显著提升了推理速度。端侧的火热来源于toC端对内容创作的强需求,叠加国内AI技术进步,有望长效赋能端侧内容生产。

封面图片

李彦宏:开源模型是智商税,闭源模型更强大、推理成本更低

李彦宏:开源模型是智商税,闭源模型更强大、推理成本更低李彦宏认为,开源是一种智商税,闭源模型如ChatGPT和文心一言更强大且推理成本更低,因此应选择闭源模型。他指出,不必等待超级应用,基础模型上可诞生数百万种应用,各行各业都能受益,对社会和人类影响更大。李彦宏表示,智能体是AI未来趋势,尽管基数小,但正在爆发。智能体基于大模型,门槛低,不需编程即可创建出效果不错的智能体。他认为,AGI需具备人在任何场景下的能力,实现真正的AGI还需超过10年时间。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

李开复推理大模型成本将每年降 10 倍 称大模型疯狂降价是双输

李开复推理大模型成本将每年降10倍称大模型疯狂降价是双输对于这一轮大模型降价,零一万物CEO李开复表示,未来整个行业的推理成本每年降低10倍是可以期待的,而且这个趋势是必然的。对于行业来说,现在模型的API调用还是非常非常低的比例,如果推理成本一年降低10倍那就有更多的人可以用上大模型,这是非常利好的消息。然而,对于激烈的价格战,李开复指出,类似于ofo的疯狂降价是一种双输的策略。他认为大模型公司应该不会这么不理智,因为技术还是最重要的,如果技术不达标,仅仅依靠赔钱做生意是不可持续的,零一万物也绝对不会跟这样的定价来做对标。

封面图片

苹果发布 OpenELM 大语言模型,基于开源训练和推理框架的语言模型

苹果发布OpenELM大语言模型,基于开源训练和推理框架的语言模型在WWDC24之前,苹果在HuggingFace平台上发布了一个“具有开源训练和推理框架的高效语言模型”,名为OpenELM。苹果这次发布了完整的框架,包括数据准备、训练、微调和评估程序,以及多个预训练的checkpoint和训练日志,以促进开源研究。其源码及预训练的模型权重和训练配方可在苹果Github库中获取。

封面图片

昆仑万维开源 2 千亿稀疏大模型天工 MoE,全球首创能用 4090 推理

昆仑万维开源2千亿稀疏大模型天工MoE,全球首创能用4090推理据昆仑万维官微,2024年6月3日,昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE,性能强劲,同时推理成本更低。Skywork-MoE基于之前昆仑万维开源的Skywork-13B模型中间checkpoint扩展而来,是首个完整将MoEUpcycling技术应用并落地的开源千亿MoE大模型,也是首个支持用单台4090服务器推理的开源千亿MoE大模型。

封面图片

Databricks开源DBRX高性能大语言模型

开源DBRX高性能大语言模型DBRX是Databricks开发的开源通用语言模型,在多项标准基准测试上达到了当前开源语言模型的最高水平。DBRX在多项综合基准测试中表现最好,尤其在编程和数学推理方面优于其他开源模型。与开源模型相比,DBRX在MMLU数据集上的表现也是最好的。根据测试,DBRX甚至超过了专门用于编程的CodeLLAMA-70B,并且与商业模型GPT-3.5相当甚至略胜。DBRX也与Gemini1.0Pro和MistralMedium等商业模型有竞争力。DBRX使用混合专家(MoE)架构,使其在训练和推理上更加高效。与类似参数量的非MoE模型相比,DBRX的推理吞吐量提高2-3倍。DBRX的整体训练效率比之前提高了近4倍,这得益于更好的数据、MoE架构以及其他改进。DBRX已经在Databricks的GenAI产品中进行了集成,客户可以通过API使用该模型。DBRX的训练代码和模型也在HuggingFace平台上开源。DBRX证明了Databricks可以高效地训练世界级的基础语言模型,也为企业训练自己的基础模型提供了能力。DBRX只是Databricks协助客户训练定制语言模型的一个例子。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人