马斯克回应何时推出FSD V12:训练计算将很快不再是限制因素

马斯克回应何时推出FSDV12:训练计算将很快不再是限制因素另一位用户评论称:“一旦H100集群完全投入使用,他们的训练速度应该至少提高4倍。如果有很多Dojo上线的话,会更快一点——但这部分我们不知道。他们的目标是到今年年底达到10倍,到2024年底达到100倍,所以这与他们的目标一致。顺便说一句,让1万个H100集群上线非常困难。将我们现在的1.6万个A100集群联机也是类似的经验。正常运行时间和性能一开始很低,然后通过特斯拉和英伟达的大量工作得到改善。”      ...PC版:https://www.cnbeta.com.tw/articles/soft/1380695.htm手机版:https://m.cnbeta.com.tw/view/1380695.htm

相关推荐

封面图片

每天1600亿帧视频咋处理?马斯克:可用于训练FSD自动驾驶的不到1%

每天1600亿帧视频咋处理?马斯克:可用于训练FSD自动驾驶的不到1%马斯克回应称:“管理这些数据是极其困难的。我们忽略(根本不存储)或删除几乎所有的数据。重要的训练视频是罕见的,比如奇怪和繁忙的十字路口,所以不到所有视频的1%。”马斯克补充道:“特斯拉受到人工智能训练计算的限制。英伟达+Dojo解决了这个问题。”上周,马斯克表示,训练计算很快就不会成为扩展其FSD软件的限制因素。他说,特斯拉将使用英伟达和自己定制的Dojo超级计算机来处理特斯拉不断增长的车队的大量数据,并训练其FSD软件。特斯拉上周还启动了1万个英伟达H100GPU集群,马斯克表示,在公司的测试中,该集群的速度是A100的三倍。...PC版:https://www.cnbeta.com.tw/articles/soft/1382233.htm手机版:https://m.cnbeta.com.tw/view/1382233.htm

封面图片

谷歌公布其训练 PaLM 模型的超级计算机细节

谷歌公布其训练PaLM模型的超级计算机细节谷歌的PaLM模型是迄今为止其公开披露的最大的语言模型,谷歌通过将其分割到由4,000个芯片组成的两台超级计算机上,历时50天训练而成。此外,Midjourney也使用该系统来训练其模型。谷歌称,对于同等规模的系统,采用这些芯片比基于英伟达A100芯片的系统快1.7倍,省电1.9倍。但谷歌没有与英伟达目前的旗舰产品H100芯片进行比较,因为H100是在谷歌的芯片之后上市的,而且是用更新的技术制造的。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

马斯克:特斯拉不再需要用激光雷达采集 FSD 训练数据

马斯克:特斯拉不再需要用激光雷达采集FSD训练数据https://www.ithome.com/0/766/863.htmLuminarTechnologies近日在其致股东的信函中提到,电动汽车制造商特斯拉是其2024年第一季度最大的LiDAR(激光雷达)产品客户,当季特斯拉贡献了Luminar超过10%的收入。但根据埃隆・马斯克最近的表态,Luminar未来来自特斯拉的业务可能会减少。

封面图片

马斯克称到2024年底特斯拉的AI训练能力将相当于约85000件H100 芯片

马斯克称到2024年底特斯拉的AI训练能力将相当于约85000件H100芯片早在今年1月,埃隆-马斯克(ElonMusk)在确认对特斯拉Dojo超级计算机投资5亿美元(相当于约1万个H100GPU)的同时,还宣布这家电动汽车巨头"今年在英伟达硬件上的花费将超过这个数字",因为"在人工智能领域具有竞争力的赌注目前每年至少有几十亿美元"。现在,埃隆-马斯克(ElonMusk)透露了他在人工智能方面的真正雄心壮志:到2024年底,特斯拉的人工智能训练计算能力将同比增长约467%,达到85000等效单位的NVIDIAH100GPU。这种激进的扩张已经迫使特斯拉牺牲其自由现金流。作为2024年第一季度财报的一部分,这家电动汽车巨头透露,"受第一季度库存增加27亿美元和人工智能基础设施资本支出10亿美元的影响,该季度自由现金流为-25亿美元。"埃隆-马斯克(ElonMusk)也在其人工智能企业xAI积极部署人工智能计算能力。我们在最近的一篇文章中指出,xAI目前可能拥有2.6万到3万块英伟达(NVIDIA)的人工智能显卡。英伟达的H100芯片预计将在今年某个时候让位于最新的GB200GraceBlackwell超级芯片。该芯片结合了一个基于Arms的GraceCPU和两个BlackwellB100GPU,可以部署一个包含27万亿个参数的人工智能模型。此外,这款超级芯片在执行聊天机器人提供答案等任务时,速度有望提高30倍。...PC版:https://www.cnbeta.com.tw/articles/soft/1428471.htm手机版:https://m.cnbeta.com.tw/view/1428471.htm

封面图片

马斯克公布特斯拉FSD V12最新进展:约2周内上线使用

马斯克公布特斯拉FSDV12最新进展:约2周内上线使用从此前的报道来看,特斯拉FSDV12采用了深度学习技术,可通过大量的数据训练,使得特斯拉汽车能够更加准确地识别路况、交通信号、行人以及其他车辆等信息。特斯拉表示:特斯拉FSD不依赖高清地图,这意味着Autopilot可以在汽车以前从未见过的地方启用。值得一提的是,马斯克从2016年就宣称特斯拉汽车将具备完全无人驾驶功能,但直到今天,该功能依旧没有实现,并已经过去了7年之久。目前,特斯拉官方还暂未公布FSD上线的具体时间。...PC版:https://www.cnbeta.com.tw/articles/soft/1396513.htm手机版:https://m.cnbeta.com.tw/view/1396513.htm

封面图片

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3

Meta公司当地时间12日通过官方新闻稿公布了两座新的数据中心集群,该公司正希望通过英伟达的GPU,在以AI为重点的开发中脱颖而出。据悉,这两座数据中心的唯一目的,是在消费者特定应用领域(包含声音或图像识别)中进行AI研究和大语言模型的开发,每个集群都包含了24576块英伟达H100AIGPU,将用于自家大语言模型Llama3的训练。两座新建的数据中心集群都具有400Gbps互联功能,其中一个集群采用了Meta基于Arista7800自主开发的Fabric解决方案,而另一个集群则采用了英伟达的Quantum2InfiniBandFabric,以确保无缝互连体验。此外,集群基于Meta自家的开放式GPUGrandTetonAI平台,可通过提高主机到GPU的带宽和计算能力,充分利用现代加速器的功能。Meta官方表示,这些集群的高性能网络结构的效率及关键存储决策、配合每个集群中的H100GPU,能够为更大、更复杂的模型提供支持,为通用人工智能产品开发、AI研究的进步铺路。Meta首席执行官扎克伯格1月表示,预估到今年年底,我们将拥有大约35万片英伟达H100加速卡,如果算上其它GPU的话,其计算能力相当于60万片H100。via匿名标签:#Meta#AI频道:@GodlyNews1投稿:@GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人