黄仁勋COMPUTEX2024演讲1.6万字全程实录:我们正在经历计算通货膨胀

黄仁勋COMPUTEX2024演讲1.6万字全程实录:我们正在经历计算通货膨胀这场演讲涵盖了从AI基础技术到未来机器人和生成式AI在各个行业的应用,全面展示了英伟达在推动计算技术变革方面的卓越成就。黄仁勋表示,英伟达位于计算机图形、模拟和AI的交汇处,这是英伟达的灵魂。今天展示给我们的一切都是模拟的,它是数学、科学、计算机科学、令人惊叹的计算机架构的结合。这些都不是动画,而是自制的,英伟达把它全部融入了Omniverse虚拟世界。▍加速计算与AI黄仁勋表示,我们所看到的一切的基础是两项基本技术,加速计算和在Omniverse内部运行的AI,这两股计算的基本力量,将重新塑造计算机行业。计算机行业已有60年的历史。在很多方面,今天所做的一切都是在1964年黄仁勋出生后一年发明的。IBMSystem360引入了中央处理单元、通用计算、通过操作系统实现硬件和软件的分离、多任务处理、IO子系统、DMA以及今天使用的各种技术。架构兼容性、向后兼容性、系列兼容性,所有今天对计算机了解的东西,大部分在1964年就已经描述出来了。当然,PC革命使计算民主化,把它放在了每个人的手中和家中。2007年,iPhone引入了移动计算,把计算机放进了我们的口袋。从那时起,一切都在连接并随时运行通过移动云。这60年来,我们只见证了两三次,确实不多,其实就两三次,主要的技术变革,计算的两三次构造转变,而我们即将再次见证这一切的发生。有两件基本的事情正在发生。首先是处理器,即计算机行业运行的引擎,中央处理单元的性能提升显著放缓。然而,我们需要进行的计算量仍然在迅速增长,呈指数级增长。如果处理需求,数据需要处理的量继续指数级增长但性能没有,计算通货膨胀将会发生。事实上,现在就看到了这一点。全球数据中心使用的电力量正在大幅增长。计算成本也在增长。我们正在经历计算通货膨胀。当然,这种情况不能继续下去。数据量将继续以指数级增长,而CPU性能提升将永远不会恢复。我们有更好的方法。近二十年来,英伟达一直在研究加速计算。CUDA增强了CPU,卸载并加速了专用处理器可以更好完成的工作。事实上,性能非常出色,现在很明显,随着CPU性能提升放缓并最终显著停止,应该加速一切。黄仁勋预测,所有需要大量处理的应用程序都会被加速,当然每个数据中心在不久的将来都会被加速。现在加速计算是非常合理的。如果你看看一个应用程序,这里100t代表100单位时间,它可能是100秒,也可能是100小时。在很多情况下,如你所知,现在正在研究运行100天的AI应用程序。1T代码是指需要顺序处理的代码,其中单线程CPU是非常关键的。操作系统控制逻辑非常重要,需要一条指令接着一条指令地执行。然而,有很多算法,比如计算机图形处理,可以完全并行操作。计算机图形处理、图像处理、物理模拟、组合优化、图处理、数据库处理,当然还有深度学习中非常著名的线性代数,这些算法都非常适合通过并行处理来加速。因此,发明了一种架构,通过在CPU上添加GPU来实现。专用处理器可以将耗时很长的任务加速到极快的速度。因为这两个处理器可以并肩工作,它们都是自主的,独立的,可以将原本需要100个时间单位的任务加速到1个时间单位,速度的提升是难以置信的,效果非常显著,速度提升了100倍,但功耗只增加了大约三倍,成本只增加了约50%。在PC行业一直这样做,英伟达在1000美元PC上加一个500美元GeForceGPU,性能会大幅提升。英伟达在数据中心也这样做,一个价值十亿美元的数据中心,加上5亿美元的GPU,突然间它就变成了一个AI工厂,这种情况正在全球各地发生。节省的成本非常惊人。每花一美元就能获得60倍的性能提升,速度提升了100倍,而功耗只增加了三倍,成本只增加了1.5倍。这种节省是难以置信的。节省的成本可以用美元来衡量。很明显,许多公司在云端处理数据上花费了数亿美元。如果这些过程被加速,不难想象可以节省数亿美元。这是因为在通用计算上已经经历了很长时间的通货膨胀。现在终于决定加速计算,有大量被捕获的损失可以现在回收,许多被保留的浪费可以从系统中释放出来。这将转化为金钱的节省和能源的节省,这也是为什么黄仁勋常说‘买得越多,省得越多’。黄仁勋还表示,加速计算确实带来了非凡的成果,但它并不容易。为什么它能省这么多钱,但这么长时间以来人们却没有这样做呢?原因是因为这非常难。没有一种软件可以通过C编译器运行,突然间应用程序就快了100倍。这甚至不合逻辑。如果可以做到这一点,他们早就改造CPU了。事实上,必须重写软件,这是最难的部分。软件必须完全重写,以便能够重新表达在CPU上编写的算法,使其能够被加速、卸载并行运行。这种计算机科学的练习极其困难。黄仁勋表示,在过去20年里,英伟达让全世界变得更容易。当然,非常著名cuDNN,即处理神经网络的深度学习库。英伟达有一个AI物理库,可以用于流体动力学和许多其他应用中,神经网络必须遵守物理定律。英伟达有一个叫ArialRan新的伟大库,它是一个CUDA加速5G无线电,能够像定义世界网络互联网一样定义和加速电信网络。加速的能力使我们能够将所有的电信转变为与云计算平台相同类型的平台。cuLITHO是一个计算光刻平台,能够处理芯片制造中最计算密集的部分——制作掩膜。台积电正在使用cuLITHO进行生产,节省了大量的能源和金钱。台积电的目标是加速他们的堆栈,以便为进一步的算法和更深入、更窄的晶体管的计算做好准备。Parabricks是英伟达基因测序库,它是世界上吞吐量最高的基因测序库。cuOpt是一个用于组合优化、路线规划优化的令人难以置信的库,用于解决旅行商问题,非常复杂。科学家们普遍认为需要量子计算机来解决这个问题。英伟达创造了一个在加速计算上运行的算法,运行速度极快,创下了23项世界纪录。cuQuantum是一个量子计算机的模拟系统。如果你想设计一个量子计算机,你需要一个模拟器。如果你想设计量子算法,你需要一个量子模拟器。如果量子计算机不存在,你如何设计这些量子计算机,创建这些量子算法呢?你使用今天世界上最快的计算机,当然就是NVIDIACUDA。在上面,英伟达有一个模拟器,可以模拟量子计算机。它被全世界数十万研究人员使用,并集成到所有领先的量子计算框架中,广泛用于科学超级计算中心。cuDF是一个令人难以置信的数据处理库。数据处理消耗了今天云端支出的绝大部分,所有这些都应该被加速。cuDF加速了世界上使用的主要库,比如Spark,许多公司可能都在使用Spark,Pandas,一个新的叫做Polars的库,当然还有NetworkX,一个图处理数据库库。这些只是一些例子,还有很多其他的。黄仁勋表示,英伟达必须创建这些库,以便让生态系统能够利用加速计算。如果英伟达没有创建cuDNN,光有CUDA是不可能让全世界的深度学习科学家使用的,因为CUDA、TensorFlow和PyTorch中使用的算法之间的距离太远了。这几乎像是在没有OpenGL情况下做计算机图形处理,或者没有SQL的情况下进行数据处理。这些特定领域的库是英伟达的珍宝,总共有350个库。正是这些库使英伟达能够打开如此多的市场。上周,Google宣布在云端加速Pandas,这是世界上最流行的数据科学库。你们中的许多人可能已经在使用Pandas,它被全球1000万数据科学家使用,每月下载1.7亿次。PC版:https://www.cnbeta.com.tw/articles/soft/1433308.htm手机版:https://m.cnbeta.com.tw/view/1433308.htm

相关推荐

封面图片

黄仁勋:CPU性能扩展速度下降 处理密集型应用应得到加速

黄仁勋:CPU性能扩展速度下降处理密集型应用应得到加速在黄仁勋看来,如果我们需要处理的数据继续呈指数级增长,但处理的性能却没有提升,我们将经历计算膨胀和计算成本的提升。他指出,有一种更好的方法增强计算机的处理性能,那便是通过计算机增强CPU提供加速工作,通过专用处理器做得更好。“现在,随着CPU扩展速度放缓,最终基本停止,我们应该加快让每一个处理密集型应用程序都得到加速,每个数据中心也肯定会得到加速,加速计算是非常明智的,这是很普通的常识。”黄仁勋表示。他指出,计算机图形学是一门完全可以并行操作的学科。计算机图形学、图像处理、物理模拟、组合优化、图形处理、数据库处理,以及深度学习中非常著名的线性代数,许多类型的算法都非常适合通过并行处理来加速。因此,英伟达通过为CPU添加专用的辅助处理器,来实现了对于密集型应用程序的加速。“由于这两个处理器可以并行工作,它们都是自治的,具有更多独立的值,我们可以将100个单位的时间加速到1个单位的时间,速度快得令人难以置信。”黄仁勋表示。...PC版:https://www.cnbeta.com.tw/articles/soft/1433281.htm手机版:https://m.cnbeta.com.tw/view/1433281.htm

封面图片

黄仁勋向台积电放核弹:干掉40000台CPU服务器 计算光刻提速40倍

黄仁勋向台积电放核弹:干掉40000台CPU服务器计算光刻提速40倍总体来看,此次演讲可总结成一大‘亮点’和一大‘重点’。‘亮点’是英伟达秘密研发四年、向芯片制造业甩出一枚技术“核弹”——通过突破性的光刻计算库cuLitho,将计算光刻加速40倍以上,使得2nm及更先进芯片的生产成为可能。全球最大晶圆厂台积电、全球光刻机霸主阿斯麦、全球最大EDA巨头新思科技均参与合作并引入这项技术。老黄还直接上了一堂光刻机小课堂,配合动画讲解芯片制造的最关键设备光刻机是如何运作的。‘重点’毫无疑问是生成式AI。老黄对OpenAI的ChatGPT赞不绝口,夸它“震惊世界”,代表着“崭新的计算平台已经诞生,AI的‘iPhone时刻’已经到来”。据英伟达透露,OpenAI将在微软Azure超级计算机上使用英伟达H100GPU,AI文生图明星创企Stability.ai是H100GPU的早期访问客户。为了加速生成式AI开发及部署,老黄宣布推出3款全新推理GPU,分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速。此外,英伟达还发布了AI超级计算服务DGXCloud、加速企业创建大模型和生成式AI的云服务NVIDIAAIFoundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机。英伟达也发布了一系列面向元宇宙、汽车、量子计算领域的新进展,包括PaaS服务NVIDIAOmniverseCloud现已向特定企业开放、与宝马集团扩大合作建设虚拟工厂、比亚迪更多车型将采用NVIDIADRIVEOrin平台,以及与QuantumMachines合作推出了全球首个GPU加速量子计算系统。老黄宣布,英伟达已经更新了100个加速库,目前英伟达全球生态系统已覆盖400万开发人员、4万家公司和1.4万家初创公司。01.芯片制造炸场!将计算光刻提速40倍三大半导体巨头站台我们先来看看今天的“惊喜弹”:英伟达发布了一个造福先进芯片制造的突破性技术——NVIDIAcuLitho计算光刻库。光刻是芯片制造过程中最复杂、最昂贵、最关键的环节,其成本约占整个硅片加工成本的1/3甚至更多。计算光刻模拟了光通过光学元件并与光刻胶相互作用时的行为,应用逆物理算法来预测掩膜板上的图案,以便在晶圆上生成最终图案。简而言之,计算光刻是提高光刻分辨率、推动芯片制造达到2nm及更先进节点的关键手段。“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿CPU小时。”黄仁勋讲解道,“大型数据中心24x7全天候运行,以便创建用于光刻系统的掩膜板。这些数据中心是芯片制造商每年投资近2000亿美元的资本支出的一部分。”而cuLitho能够将计算光刻的速度提高到原来的40倍。老黄说,英伟达H100GPU需要89块掩膜板,在CPU上运行时,处理单个掩膜板需要两周时间,而在GPU上运行cuLitho只需8小时。此外,台积电可通过在500个DGXH100系统上使用cuLitho加速,将功率从35MW降至5MW,替代此前用于计算光刻的40000台CPU服务器。使用cuLitho的晶圆厂,每天可以生产3-5倍多的光掩膜,仅使用当前配置电力的1/9。全球最大晶圆厂台积电、全球最大光刻机制造商阿斯麦(ASML)、全球最大EDA公司新思科技(Synopsys)都为这项新技术站台。老黄透露道,cuLitho历时四年研发,与这三家芯片大厂进行了密切合作。台积电将于6月开始对cuLitho进行生产资格认证。台积电CEO魏哲家夸赞它为台积电在芯片制造中广泛地部署光刻解决方案开辟了新的可能性,为半导体规模化做出重要贡献。阿斯麦CEOPeterWennink说阿斯麦计划将对GPU的支持集成到其所有的计算光刻软件产品中。新思科技董事长兼CEOAartdeGeus称,在英伟达的cuLitho平台上运行新思科技的光学邻近校正(OPC)软件,将性能从几周加速到几天。cuLitho将有助于晶圆厂缩短原型周期时间、提高产量、减少碳排放,为2nm及更先进的工艺奠定基础,并使得曲线掩模、highNAEUV、亚原子级光刻胶模型等新技术节点所需的新型解决方案和创新技术成为可能。02.发布ChatGPT专用推理GPU登浏览器即可访问AI超级计算机围绕生成式AI,英伟达发布了一系列加速模型训练和推理的软硬件新品及服务。老黄首先讲述了英伟达在生成式AI革命之初是如何进入AI领域的。“英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型实现突破背后的引擎。”他谈道,“(2016年)我亲手将全球首款DGX交给了OpenAI,自此以后,《财富》100强企业中有一半安装了DGXAI超级计算机。DGX已成为AI领域的必备工具。”“生成式AI将重塑几乎所有行业。”老黄说,ChatGPT、StableDiffusion、DALL-E和Midjourney唤醒了世界对生成式AI的认知。在他看来,生成式AI是一种新型计算机、一种可以用人类语言进行编程的计算机,与个人电脑(PC)、互联网、移动设备和云类似,这种能力影响深远,每个人都可以命令计算机来解决问题,现在每个人都可以是程序员。1、训练:生成式AI明星企业都在用,AI超级计算机已全面投产训练方面,英伟达H100GPU基于Hopper架构及其内置TransformerEngine,针对生成式AI、大型语言模型和推荐系统的开发、训练和部署进行了优化,利用FP8精度在大型语言模型上比上一代A100提供了快9倍的AI训练和快30倍的AI推理。DGXH100拥有8个H100GPU模组,在FP8精度下可提供32PetaFLOPS的算力,并提供完整的英伟达AI软件堆栈,助力简化AI开发。黄仁勋宣布,NVIDIADGXH100AI超级计算机已全面投入生产,很快将面向全球企业。微软宣布Azure将向其H100AI超级计算机开放私人预览版。黄仁勋说,云计算巨头现在正在提供英伟达H100 GPU,生成式AI领域的多家明星企业都在用H100加速工作。比如,OpenAI用H100的上一代A100训练和运行AI聊天机器人ChatGPT,并将在微软Azure超级计算机上使用H100;AI文生图明星创企Stability.ai是AWS上的H100早期访问客户。最近刚推出开源大模型的社交软件巨头Meta开发了基于Hopper架构的AI超级计算机GrandTeton系统。相比其前代Zion,该系统的算力大幅提升,可同时支持推荐模型和内容理解的训练和推理。英伟达与其主要合作伙伴宣布推出强大的GPUNVIDIAH100TensorCoreGPU新产品和服务,以满足生成式AI训练和推理需求。AWS宣布即将推出的EC2超级集群(EC2P5实例)可扩展至20000个互连的H100。OracleCloudInfrastructure(OCI)宣布限量推出采用H100的全新OCICompute裸金属GPU实例。为企业和开发者提供多模态视频理解的平台TwelveLabs计划在OCISupercluster上使用H100实例来即时、智能和容易搜索视频。2、推理:发布3款GPU、3类云服务推理方面,英伟达推出全新GPU推理平台:4种配置(L4TensorCoreGPU、L40GPU、H100NVLGPU、GraceHopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。(1)L4:针对AI视频设计的通用GPU,可提供比CPU高120倍的AI视频性能,能效提高99%;优化了视频解码与转码、视频内容审核、视频通话等功能,如背景替换、重新打光、眼神交流、转录和实时翻译等。一台8-GPUL4服务器将取代100多台用于处理AI视频的双插槽CPU服务器。(2)L40:用于图像生成,针对图形和AI支持的2D、视频和3D图像生成进行了优化,推理性能是英伟达最受欢迎的云推理GPUT4的10倍。(3)H100NVL:针对ChatGPT等大型语言模型的大规模部署,配备双GPUNVLink,将两张拥有94GBHBM3显存的PCIeH100GPU拼接在一起,可处理拥有1750亿参数的GPT-3大模型,同时支持商用PCIe服务器轻松扩展。老黄说,目前在云上唯一可以实际处理ChatGPT的GPU是HGXA100。与适用于GPT-3处理的HGXA100相比,一台搭载4对H100及双GPUNVLink的标准服务器的速度要快10倍,...PC版:https://www.cnbeta.com.tw/articles/soft/1350547.htm手机版:https://m.cnbeta.com.tw/view/1350547.htm

封面图片

英伟达加入量子计算云服务竞赛

英伟达加入量子计算云服务竞赛英伟达为研究人员测试他们的量子计算软件推出了一项云服务,寻求从这个正在获得全球资金的领域中获利,尽管迄今为止几乎没有产生突破性的应用。英伟达高性能计算和量子计算主管TimCosta表示,英伟达量子云将首先由一个数据中心组成,里面堆叠了人工智能芯片和系统,共同模拟量子计算机。Costa在周一的GPU技术大会之前对媒体表示,与其他云服务不同的是,英伟达的云服务目前没有附加任何量子计算机,但未来将提供对第三方量子计算机的访问。

封面图片

NVIDIA与日本合作开发尖端的ABCI-Q量子超级计算机

NVIDIA与日本合作开发尖端的ABCI-Q量子超级计算机这个新项目名为ABCI-Q,将完全由英伟达公司的加速和量子计算平台提供算力,预示着该系统将实现高性能和高效率。这台日本超级计算机还将与富士通公司合作建造。英伟达公司在早些时候的一篇博客文章中表示,该公司计划将其英伟达CUDA-Q平台集成到该系统中。该平台是一种开源资源,允许用户利用量子经典应用。CUDA-Q将作为超级计算机的一个组成部分,可以轻松集成相关的CPU和GPU。此外,TeamGreen还计划安装2000个英伟达H100人工智能GPU,并采用最新的英伟达Quantum-2InfiniBand互联技术。NVIDIA高性能计算与量子计算总监TimCosta对此表示,研究人员需要高性能仿真来解决量子计算中最棘手的问题。CUDA-Q和NVIDIAH100可帮助ABCI等先驱取得关键进展,加快量子集成超级计算的发展。日本的ABCI-Q超级计算机是该国技术创新阶段的一部分,他们计划利用量子计算和人工智能等当代技术的优势,在主流消费行业中领跑。几个月前,英伟达公司首席执行官黄仁勋会见了日本首相岸田文雄,双方谈到了加强多领域合作,为日本的需求提供稳定的人工智能设备供应。ABCI-Q的发布只是日本与英伟达之间建立广泛合作关系的第一步。...PC版:https://www.cnbeta.com.tw/articles/soft/1428121.htm手机版:https://m.cnbeta.com.tw/view/1428121.htm

封面图片

叫板黄仁勋?Meta首席AI科学家:超级人工智能不会很快到来

叫板黄仁勋?Meta首席AI科学家:超级人工智能不会很快到来他的观点与英伟达CEO黄仁勋上周的观点截然不同。黄仁勋上周曾表示,人工智能将在不到五年的时间里成长到“相当有竞争力”的水平,在许多脑力密集型任务上胜过人类。未来更有可能出现“猫级”人工智能杨立昆表示,在“人类级”水平的人工智能出现前,社会更有可能出现“猫级”或者“狗级”的人工智能。科技行业目前对语言模型和文本数据的关注,不足以创造出研究人员在过去几十年来一直梦想的那种先进的类人人工智能系统。杨立昆认为,限制当前人工智能发展速度的原因之一,在于训练数据的来源主要局限于文本。“文本是一个非常糟糕的信息来源,”杨立昆解释说,目前要训练出一个现代语言模型,所需要的的文本量巨大,需要人类用2万年才能阅读完。然而,“即便你用相当于两万年的阅读材料来训练一个系统,它们仍然不明白:如果A和B相同,那么B就和A相同……世界上有很多非常基本的东西,他们没法通过这种训练来了解。”因此,杨立昆和MetaAI的其他高管一直在大力研究如何定制用于创建ChatGPT等应用程序的所谓转换器模型,以处理各种数据(包括音频、图像和视频信息)。他们认为,只有这些人工智能系统能发现这些不同类型的数据之间可能存在的数十亿个隐藏的相关性,它们才更有可能达到更高的水平。Meta高管们展示了他们的研究成果之一:一个戴着AR眼镜打网球的人能够看到AI视觉提示,教他们如何正确地握住网球拍,并以完美的方式摆动手臂。为这类数字网球助手提供动力所需的AI模型,除了文本和音频之外,还需要混合三维视觉数据。英伟达仍将继续受益这些所谓的多模型人工智能系统代表了下一个前沿领域,但这一发展所需要投入的成本会更大。杨立昆预计,随着Meta和Google母公司Alphabet等越来越多的公司研究更先进的人工智能模型,英伟达可能会获得更大的优势,尤其是在没有其他竞争对手出现的情况下。一直以来,英伟达都是生成式人工智能的最大受益者之一,其价格昂贵的GPU已成为用于训练大规模语言模型的标准工具。“我认识Jensen(黄仁勋),”杨立昆表示,英伟达可以从当前的人工智能热潮中获益良多,“这是一场人工智能战争,他在提供武器。”″(如果)你认为人工智能很流行,你就得买更多的GPU,”杨立昆谈到,只要OpenAI等公司的研究人员继续追求AGI(通用人工智能),他们就需要更多英伟达的计算机芯片。那么,随着Meta和其他研究人员继续开发这类复杂的人工智能模型,科技行业是否需要更多的硬件供应商呢?杨立昆对此的回答是:“目前不需要,但如果有,将会更好。”他还补充说,GPU技术仍然是人工智能的黄金标准。不过,未来的计算机芯片可能不会被称为GPU。量子计算机的意义和可行性存疑除了人工智能,杨立昆也对量子计算机持怀疑态度。目前,微软、IBM和Google等科技巨头都在量子计算领域投入了大量资源。许多研究人员认为,量子计算机器可以在数据密集型领域(如药物发现)取得巨大进步,因为它们能够使用所谓的量子比特(而不是现代计算中使用的传统二进制比特)执行多次计算。但杨立昆对此表示怀疑:“你用量子计算所可以解决的问题,用经典计算机也可以更快解决。”“量子计算是一个迷人的科学话题,”杨立昆说,但目前还不太清楚“量子计算机的实际意义和制造真正有用的量子计算机的可能性”。Meta高级研究员、前技术主管迈克·施罗普夫(MikeSchroepfer)对此表示赞同。他每隔几年就会对量子技术进行评估,并认为有用的量子机器“可能会在某个时候出现,但它的时间跨度太长,与我们目前正在做的事情无关。”...PC版:https://www.cnbeta.com.tw/articles/soft/1401719.htm手机版:https://m.cnbeta.com.tw/view/1401719.htm

封面图片

日本产综研将与英伟达合作打造量子计算系统

日本产综研将与英伟达合作打造量子计算系统日本经济产业省下属的研究所--日本产业技术综合研究所(AIST)据悉将与英伟达合作打造量子计算系统,计划明年起向企业和研究人员收费提供服务。量子计算能够实现高速、复杂的计算处理,这将提高药物发现研究和物流的效率。日本产业技术综合研究所正在建构名为ABCI-Q的量子人工智能混合云系统。英伟达已经向ABCI-Q提供图形处理器(GPU),同时也将通过云端服务提供量子计算软件。研究人员可以通过云端系统输入问题,并从计算机获取答复。AIST希望通过向民间机构开放系统的方式,能够进一步推动量子计算技术的发展。——、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人