分析师称苹果公司专注于本地AI模型和授权LLM可能是一个制胜组合

分析师称苹果公司专注于本地AI模型和授权LLM可能是一个制胜组合根据摩根大通的一份说明,苹果在开发小型本地机型的同时,可能会与一家LLM提供商合作,这可能会帮助苹果领先于其他制造商。如果报道属实,苹果将专注于自己的强项,如设备上的处理,而不是建立专有的LLM。最近有报道称,苹果公司正在与Google洽谈授权其GeminiLLM用于iPhone的事宜。就在该报道发布的前一天,苹果公司发表了一篇关于MM1的研究论文,MM1是一种较小的预训练模型,可以在用户的iPhone上本地运行。摩根大通的报道表明,苹果公司双管齐下的做法可能会让它占得先机。苹果可以专注于保护用户隐私的小型设备模型,而不是发布依赖于网络数据的有争议的LLM,客户将获得两者的最佳利益。如果这听起来很熟悉,那么它很像苹果与Google达成的搜索协议。Google将成为默认的网络搜索引擎,而苹果则提供一个名为Spotlight的强大而私密的本地搜索工具。更多的证据证实了苹果公司的计划,有消息称苹果公司内部有一款名为Ask的工具,可以在本地知识数据库中进行训练。它比LLM更具适应性,能灵活应对数据库的变化,而MM1模型应能胜任这些工作。该报告重点介绍了苹果公司采用这种方法取得的财务成功,认为这种方法节省了基础设施建设成本,并为消费者带来了更好的应用体验。摩根大通维持对苹果的增持评级,目标价为215美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1424330.htm手机版:https://m.cnbeta.com.tw/view/1424330.htm

相关推荐

封面图片

摩根大通推测苹果 AI 发展策略:立足本地小模型 管理大语言模型

摩根大通推测苹果AI发展策略:立足本地小模型管理大语言模型《科创板日报》20日讯,摩根大通近日发布投资备忘录,推测苹果的AI发展战略,认为苹果一方面专注于iPhone本地运行的小模型,另一方面通过和其它厂商合作引入大语言模型(LLM)。摩根大通认为相比较OpenAI的ChatGPT和谷歌的Gemini,苹果目前在大语言模型方面处于落后状态,苹果公司也深知这一点,因此将重心放在可以本地运行的小模型方面,从而更好地发挥自己的优势。

封面图片

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型此前曾有消息称,苹果公司与多家出版商就类似的人工智能大型语言模型(LLM)培训进行了谈判,并使用了来自新闻文章的内容。据称,CondeNastIAC和NBC等大型媒体都曾与苹果公司洽谈过内容授权事宜。预计苹果公司将在今年6月的WWDC大会上宣布一些重大消息,努力在其操作系统中加入更多人工智能技术。虽然在人工智能整合方面,苹果经常被认为落后于竞争对手,但它自己也进行了一些创新。在过去的一年里,苹果设备用户可能已经注意到了苹果"机器学习"技术的微小改进。例如,预测文本在适应特定用户偏好的词汇方面变得越来越准确,Siri翻译常用短语的能力也得到了提高。据传,苹果公司的下一代处理器将包含更强大的神经引擎。苹果公司全球营销高级副总裁格雷格-乔斯维克(GregJoswiak)在社交媒体上调侃说,下一届WWDC大会将是"绝对令人难以置信的",暗示这次大会将主要围绕iOS18和其他苹果操作系统中新增的人工智能类型功能展开。苹果在使用人工智能技术方面面临的最大挑战是维持其用户隐私标准,而其他大型人工智能技术公司并不关心这个问题。苹果公司最近透露,它打算开发可以尽可能使用本地设备算力的模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1426405.htm手机版:https://m.cnbeta.com.tw/view/1426405.htm

封面图片

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解2024年3月14日,苹果公司发布了自家的大型多模态基础模型MM1,该模型拥有高达300亿参数,并采用混合专家(MoE)架构。超过半数的论文作者是华人。MM1模型在多模态任务上显示出强大的性能,尤其是在少样本学习和上下文预测方面。研究团队通过对不同架构组件和数据选择的深入分析,提出了几条关键的设计准则。他们发现,图像分辨率、视觉编码器损失和容量,以及预训练数据的类型对模型性能有显著影响。MM1模型的开发,标志着苹果在生成式人工智能领域的重要进展。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型生成式人工智能的兴起刺激了对多样化数据集的需求,而像Photobucket这样的公司能够提供大量的视觉数据,训练人工智能根据文本提示生成内容。在ChatGPT于2022年底推出后不久,苹果公司就与Shutterstock达成了数百万张图片的授权协议,据信这笔交易的价值在2500万美元到5000万美元之间。追求"道德来源"和合法明确的数据,标志着苹果与早先随意采集网络数据的做法不同。据报道,苹果公司准备在6月份的WWDC大会上展示iOS18及其他主要软件更新所带来的一系列人工智能功能。相关文章:Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型...PC版:https://www.cnbeta.com.tw/articles/soft/1426645.htm手机版:https://m.cnbeta.com.tw/view/1426645.htm

封面图片

Poly:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。主要提供:为多个本地LLM模型提供高性能、高效和可靠的服务可选择通过CUDA或Metal进行GPU加速可配置的LLM完成任务(提示、召回、停止令牌等)通过HTTPSSE流式传输完成响应,使用WebSockets聊天使用JSON模式对完成输出进行有偏差的采样使用向量数据库(内置文件或Qdrant等外部数据库)进行记忆检索接受PDF和DOCX文件并自动将其分块存储到内存中使用静态API密钥或JWT标记确保API安全简单、单一的二进制+配置文件服务器部署,可水平扩展附加功能:用于轻松测试和微调配置的Web客户端用于本地运行模型的单二进制跨平台桌面客户端

封面图片

库克首次在华谈及 AI 相关话题,重申苹果生成式 AI 今年晚些时候宣布

苹果公司CEO蒂姆・库克今日现身上海,界面新闻询问库克“iPhone在AI上有何进展?”库克回答道,AI已经运用在了苹果产品的各方面,例如AppleWatch的摔倒检测以及iPhone的预测性文本输入等功能,都是由AI来完成驱动的。据报道,这也是库克首度在中国谈及AI话题。库克同时重申,“苹果的生成式AI,在今年晚些时候会有新闻宣布。”苹果在决定停止造车之后,已明确会将更多精力放在AI上,尤其是大语言模型方面的表现。而在2月29日的苹果年度股东大会上,库克在谈到苹果的AI计划时表示,公司将在2024年在生成式人工智能领域“开辟新天地(breaknewground)”。他强调:“我们相信这将为用户带来变革性的机遇。”彭博社、《纽约时报》近期均称苹果公司正在和谷歌磋商,计划在iOS/ iPadOS系统中引入Gemini模型,为 iPhone /iPad提供某些AI功能。苹果公司确实已经和谷歌开始商讨,在下一代iPhone中使用Gemini的生成式AI模型。三位知情人士说,这些谈判是初步的,潜在交易的具体范围尚未确定。其中一位知情人士说,苹果公司还与其它人工智能公司进行了讨论,苹果公司希望充分使用大型语言模型的力量,分析大量数据并自行生成文本。两位熟悉其开发情况的人士透露,苹果固然在开发自己的大型语言模型,但和ChatGPT、Gemini的差距短时间内是无法追上的。而摩根大通在投资备忘录中推测,苹果一方面专注于iPhone本地运行的小模型,另一方面通过和其它厂商合作引入大语言模型(LLM)。摩根大通认为相比较OpenAI的ChatGPT和谷歌的Gemini,苹果目前在大语言模型方面处于落后状态,苹果公司也深知这一点,因此将重心放在可以本地运行的小模型方面,从而更好地发挥自己的优势。via匿名标签:#Apple#AI频道:@GodlyNews1投稿:@GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人