AIlice:一个致力于利用开源模型创建自己的JARVIS 的项目。

:一个致力于利用开源模型创建自己的JARVIS的项目。AIlice通过构建一个以LLM作为核心处理器的“文本计算机”来实现这一目标(项目代码仅三千多行)。目前,AIlice能够熟练的处理一系列任务,包括主题研究、编码、系统管理、文献综述以及超出这些基本能力的复杂混合任务。AIlice在使用GPT-4的日常任务中达到了近乎完美的性能,并且正在利用最新的开源模型向实际应用迈进。基本特性1.自然且高度容错的IACT(InteractiveAgentsCallingTree)架构。2.以最灵活的方式解析LLM输出,支持更多种多样的函数调用机制.3.自我构建并动态加载环境交互模块,为功能扩展提供无限潜力。4.专为开源模型设计,但可以无缝支持商业模型,如GPT-4。5.支持对特定主题进行深入调查。6.支持文献阅读。7.自动化编程和脚本执行。它是一个全能的coder和系统管理工具,掌握所有系统命令——你可以把它看作一个人工智能操作系统。8.支持多模态模型。9.支持语音交互。10.用户以两种方式灵活的参与对话:以agent的一员,或者在任务执行中直接介入。

相关推荐

封面图片

MetaPlatformsInc.和IBM正联手40多家公司和组织创建一个致力于开源人工智能AI工作的行业组织,旨在共享技术并降

MetaPlatformsInc.和IBM正联手40多家公司和组织创建一个致力于开源人工智能AI工作的行业组织,旨在共享技术并降低风险。据周二的声明,这个名为“AI联盟”的联合体将专注于负责任地开发AI技术,包括安全和安保工具。联盟还将寻求增加开源AI模型的数量——而不是一些公司青睐的专有系统,开发新硬件,并和学术研究人员合作。开源AI技术的支持者认为,这种方法是培养高度复杂系统的更有效方法。在过去的几个月里Meta在发布其大型语言模型的开源版本,这种模型是AI聊天机器人的基础。

封面图片

Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。

Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。Llamafile通过将LLM聊天机器人的全部复杂架构简化为一个可在六个操作系统上运行的单一可执行文件。它结合了和两个开源项目的功能。Mozilla希望Llamafile可以降低开发者和普通用户使用开源LLM的门槛,让更多人参与开源AI的发展,为商业化的封闭源LLM提供一个开源的可选方案。Llamafile也代表了“本地AI”的理念,即AI运行在本地设备上,由用户完全控制,不依赖网络,可以保护隐私。这有助于开源AI抵制大公司对AI的控制。

封面图片

Meta和IBM联合四十余家公司和组织创建人工智能联盟,致力于开源AI

Meta和IBM联合四十余家公司和组织创建人工智能联盟,致力于开源AI根据周二的一份声明,该联盟名为人工智能联盟,将专注于人工智能技术的负责任开发,包括安全和安保工具。该小组还将寻求增加开源人工智能模型的数量——而不是一些公司青睐的专有系统——开发新硬件并与学术研究人员合作。开源人工智能技术由开发人员公开供其他人使用,其支持者认为这种方法是培养高度复杂系统的更有效方法。在过去的几个月里,Meta一直在发布其大型语言模型的开源版本,这是人工智能聊天机器人的基础。Meta全球事务总裁尼克·克莱格(NickClegg)在声明中表示:“我们相信,人工智能的公开开发会更好,让更多人能够受益、打造创新产品并致力于安全。”该小组最终将建立一个理事会和技术监督委员会。参与者包括甲骨文公司、超威半导体(AMD)、英特尔公司和StabilityAI,以及圣母大学和MassOpenCloudAlliance等学术和研究组织。——

封面图片

ModelScope-Agent: 用开源大型语言模型构建可定制的Agent系统,一个适用于实际应用的通用且可定制的Agent框

:用开源大型语言模型构建可定制的Agent系统,一个适用于实际应用的通用且可定制的Agent框架,基于开源LLM作为控制器具有以下特点:可定制且功能全面的框架:提供可定制的引擎设计,涵盖了数据收集、工具检索、工具注册、存储管理、定制模型训练和实际应用等功能,可用于快速实现实际场景中的应用。开源LLMs作为核心组件:支持在ModelScope社区的多个开源LLMs上进行模型训练。多样化且全面的API:以统一的方式实现与模型API和常见的功能API的无缝集成。为了赋予LLMs工具使用能力,提出了一个全面的框架,涵盖了数据收集、工具检索、工具注册、存储管理、定制模型训练和实际应用的方方面面。

封面图片

开源大模型使用指南 | #指南

#指南本项目是一个围绕开源大模型、针对国内初学者、基于AutoDL平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。本项目的主要内容包括:基于AutoDL平台(可扩展,例如阿里云)的开源LLM环境配置指南,针对不同模型要求提供不同的详细环境配置步骤;针对国内外主流开源LLM的部署使用教程,包括LLaMA、ChatGLM、InternLM等;开源LLM的部署应用指导,包括命令行调用、在线Demo部署、LangChain框架集成等;开源LLM的全量微调、高效微调方法,包括分布式全量微调、LoRA、ptuning等。本项目适合以下学习者:想要使用或体验LLM,但无条件获得或使用相关API;希望长期、低成本、大量应用LLM;对开源LLM感兴趣,想要亲自上手开源LLM;NLP在学,希望进一步学习LLM;希望结合开源LLM,打造领域特色的私域LLM;以及最广大、最普通的学生群体。

封面图片

《开源大模型食用指南》基于Linux环境快速部署开源大模型 | #指南

《》基于Linux环境快速部署开源大模型#指南本项目是一个围绕开源大模型、针对国内初学者、基于AutoDL平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。本项目的主要内容包括:基于AutoDL平台(可扩展,例如阿里云)的开源LLM环境配置指南,针对不同模型要求提供不同的详细环境配置步骤;针对国内外主流开源LLM的部署使用教程,包括LLaMA、ChatGLM、InternLM等;开源LLM的部署应用指导,包括命令行调用、在线Demo部署、LangChain框架集成等;开源LLM的全量微调、高效微调方法,包括分布式全量微调、LoRA、ptuning等。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人