UC伯克利教授:2030年GPT可执行人类180万年工作 一天学2500年知识

UC伯克利教授:2030年GPT可执行人类180万年工作一天学2500年知识为了更好地进行预测,Jacob查询了各种来源的信息,包括经验缩放定律、对未来计算和数据可用性的预测、特定基准的改进速度、当前系统的经验推理速度,以及未来可能的并行性改进。概括来看,Jacob认为,GPT2030会在以下几个方面超过人类工作者。1.编程、黑客任务、数学、蛋白质设计。2.工作和思考的速度:预计GPT2030每分钟处理的单词是人类的5倍,而每FLOP都多5倍的话,总共就是125倍。3.GPT2030可以进行任意复制,并进行并行运算。算力足够的话,它足以完成人类需要执行180万年的工作,结合2中的结论,这些工作只需2.4个月,就能完成。4.由于具有相同的模型权重,GPT的副本之间可以共享知识,实现快速的并行学习。因此,GPT可以在1天内学完人类需要学2500年的知识。5.除了文本和图像,GPT还能接受其它模态的训练,甚至包括各种违反直觉的方式,比如分子结构、网络流量、低级机器码、天文图像和脑部扫描。因此,它可能会对我们经验有限的领域具有很强的直觉把握,甚至会形成我们没有的概念。当然,除了飞跃的性能,Jacob表示,GPT的滥用问题也会更加严重,并行化和高速将使模型严重威胁网络安全。它的快速并行学习还会转向人类行为,而因为自己已经掌握了“千年”的经验,它想要操控和误导人类也会很轻易。在加速方面,最大的瓶颈是GPT的自主性。在数学研究这种可以自动检查工作的领域,Jacob预测,GPT2030将超过大多数专业数学家。在机器学习领域,他预测GPT将能独立完成实验并生成图表和论文,但还是需要人类科研者给出具体指导、评估结果。在这两种情况下,GPT2030都将是科研过程中不可或缺的一部分。Jacob表示,他对GPT2030特性的预测并不是从今天的系统中直观得出的,它们可能是错误的,因为ML在2030年会是什么样子,还存在很大的不确定性。然而,无论GPT2030会是什么样子,Jacob都相信,它至少是一个更好版本的GPT-4。所以,我们现在就该为AI可能造成的影响(比如影响1万亿美元、1000万人的生命,或者对人类社会进程造成重大破坏)做好准备,而不是在7年以后。01特定能力GPT2030应该会具有超人的编码、黑客和数学能力。在阅读和处理大型语料库,以获取模式和见解以及回忆事实的能力方面,它都会能力惊人。因为AlphaFold和AlphaZero在蛋白质结构预测和游戏方面都具有超人的能力,GPT2030显然也可以,比如让它在与AlphaFold/AlphaZero模型相似的数据上进行多模态训练。编程能力GPT-4在LeetCode问题上的表现优于训练截止后的人类基线,并通过了几家大型科技公司的模拟面试。他们的进步速度也很快,从GPT-3到GPT-4,直接跃升了19%。在更具挑战性的CodeForces竞赛中,GPT-4的表现较差,但AlphaCode与CodeForces竞争对手的中值水平相当。在更难的APPS数据集上,Parcel进一步超越了AlphaCode(7.8%->25.5%)。展望未来,预测平台Metaculus给出的中位数是2027年,届时在APPS上将有80%的AI,将超越除了最优秀程序员之外的所有人类。黑客Jacob预测,GPT2030的黑客能力将随着编程能力的提高而提高,而且,ML模型可以比人类更有规模、更认真地搜索大型代码库中的漏洞。事实上,ChatGPT早已被用于帮助生成漏洞。ChatGPT生成的网络钓鱼邮件数学Minerva在竞赛数学基准(MATH)上的准确率达到50%,优于大多数人类竞争对手。而且,它的进步速度很快(一年内>30%),而且通过自动形式化、减少算法错误、改进思维链和更好的数据的加持,取得了显著的成果。Metaculus预测,到2025年GPT的数学成绩将达到92%,AI在国际数学奥赛中获得金牌的中位数为2028年,能够比肩全世界成绩最拔尖的高中生。Jacob个人预计,GPT2030在证明定理方面将优于大多数专业数学家。信息处理回忆事实和处理大型语料库,是语言模型的记忆能力和大型上下文窗口的自然结果。根据经验,GPT-4在MMLU上的准确率达到86%,这是一套广泛的标准化考试,包括律师考试、MCAT以及大学数学、物理、生物化学和哲学;即使考虑到可能存在测试污染,这也超出了任何人类的知识广度。关于大型语料库,有研究人员使用GPT-3构建了一个系统,该系统发现了大型文本数据集中的几种以前未知的模式,以及某篇工作中的缩放率,这表明模型很快就会成为“超人”。这两项工作都利用了LLM的大型上下文窗口,目前该窗口已超过100,000个token,并且还在不断增长。更一般地说,机器学习模型具有与人类不同的技能特征,因为人类和机器学习适应的是非常不同的数据源(前者是通过进化,后者是通过海量的互联网数据)。当模型在视频识别等任务上达到人类水平时,它们在许多其他任务(例如数学、编程和黑客攻击)上可能会成为超人。此外,随着时间的推移,会出现更大的模型和更好的数据,这会让模型功能变得更为强大,不太可能低于人类水平。虽然当前的深度学习方法可能在某些领域达不到人类水平,但在数学这类人类进化并不擅长的领域,它们很可能会显著超越人类。02推理速度为了研究ML模型的速度,研究人员将测量ML模型生成文本的速度,以每分钟想到380个单词的人类思维速度为基准。使用OpenAI的chatcompletionsAPI,GPT-3.5每分钟可以生成1200个单词(wpm),而GPT-4可以生成370wpm,截至2023年4月上旬。像Pythia-12B这样的小型开源模型,通过在A100GPU上使用开箱即用的工具,至少可以生成1350个单词wpm,,通过进一步优化,可能还会达到2倍。因此,如果我们考虑截至4月份的OpenAI模型,它要么大约是人类速度的3倍,要么等于人类速度。因为加速推理存在强大的商业化压力,未来模型的推理速度还会更快。事实上,根据FabienRoger的跟踪数据,在撰写本文之前的一周,GPT-4的速度已经提高到约540wpm(12个token/秒);这表明空间仍然很大。Steinhard的中位数预测是,模型每分钟生成的单词数将是人类的5倍(范围:[0.5x,20x]),这大致是进一步增加的实际收益会递减的地方。重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以提高k^2,但代价是吞吐量降低k倍(换句话说,模型的$$k^3$$并行副本可以替换为速度快$$k^2$$倍的单个模型)这可以通过并行平铺方案来完成,理论上该方案甚至适用于$$k^2$$这样的大值,可能至少为100,甚至更多。因此,通过设置k=5,可以将5倍人类速度的模型,加速到125倍的人类速度。当然,速度并不一定与质量相匹配:GPT2030将具有与人类不同的技能特征,在一些我们认为容易的任务上,它会失败,而在我们认为困难的任务上,它会表现出色。因此,我们不应将GPT2030视为“加速的人类”,而应将其视为有潜力发展出一些违反直觉技能的“超级加速工人”。尽管如此,加速仍然很有用。对于提速125倍的语言模型,只要在GPT2030的技能范围之内,我们需要一天时间的学会的认知动作,它可能在几分钟内就会完成。运用前面提到的黑客攻击,机器学习系统可以快速生成漏洞或攻击,而人类却生成得很缓慢。03吞吐量和并行副本模型可以根据可用的计算和内存任意复制,因此它们可以快速完成任何可以有效并行的工作。此外,一旦一个模型被微调到特别有效,更改就可以立即传播到其他实例。模型还可以针对特定的任务进行蒸馏,从而运行得更快、更便宜。一旦模型经过训练,可能会有足够的资源来运行模型的多个副本。因为训练模型就需要运行它的许多并行副本,并且组织在部署时,仍然拥有这些资源。因此,我们可以通...PC版:https://www.cnbeta.com.tw/articles/soft/1376713.htm手机版:https://m.cnbeta.com.tw/view/1376713.htm

相关推荐

封面图片

3月31日,UC伯克利联手CMU、斯坦福、UCSD和MBZUAI,推出了130亿参数的开源模型 Vicuna,仅需300美元就能

3月31日,UC伯克利联手CMU、斯坦福、UCSD和MBZUAI,推出了130亿参数的开源模型Vicuna,仅需300美元就能实现ChatGPT90%的性能。Vicuna是通过在ShareGPT收集的用户共享对话上对LLaMA进行微调训练而来,训练成本近300美元。研究人员设计了8个问题类别,包括数学、写作、编码,对Vicuna-13B与其他四个模型进行了性能测试。测试过程使用GPT-4作为评判标准,结果显示Vicuna-13B在超过90%的情况下实现了与ChatGPT和Bard相匹敌的能力。同时,在在超过90%的情况下胜过了其他模型,如LLaMA和斯坦福的Alpaca。今天,团队正式发布了Vicuna的权重——只需单个GPU就能跑单个GPU:Vicuna-13B需要大约28GB的GPU显存。多个GPU:如果没有足够的显存,则可以使用模型并行来聚合同一台机器上多个GPU的显存。仅用CPU:如果想在CPU上运行,则需要大约60GB的内存。全文:https://mp.weixin.qq.com/s/BG1dw3PeRysvq_UBgo6UFQ投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

UC伯克利要投资20亿美元在硅谷建航天中心 计划2026年动工

UC伯克利要投资20亿美元在硅谷建航天中心计划2026年动工大学越来越倾向于建设庞大的校外中心,以促进研究和产业的结合。伯克利航天中心的模式参考了康奈尔大学(CornellUniversity)在纽约市罗斯福岛(RooseveltIsland)的科技综合体以及加州理工学院管理的帕萨迪纳(Pasadena)的喷气推进实验室(JetPropulsionLaboratory)。项目管理方SKSPartners的管理合伙人丹·金斯利(DanKingsley)表示:“我不知道世界上还有哪个地方能将NASA和加州伯克利大学的精髓结合在一起,尤其是在硅谷的核心地带。”他补充说:“硅谷仍然是独一无二的。”这个项目对于该地区来说可能是一个机遇,因为科技公司正在裁员和削减成本。根据美国银行的研究,商业太空经济总量预计到2030年将翻番,达到1.1万亿美元。新建的伯克利航天中心将利用NASA二十多年前为学术和研究目的预留的场地,即位于旧金山南部的莫菲特场(MoffettField)。这个区域最初是在1930年代开发的美国海军基地,用于停放海军飞艇。当时建造的一座巨大机库至今仍然存在,并且谷歌的PlanetaryVentures部门正在协助对其进行修复。据金斯利表示,一旦获得批准,伯克利航天中心的建设预计最早将于2026年开始,两年后将开放首批建筑。SKSPartners将负责筹集投资者资金并管理建设,世邦魏理仕集团将负责租赁业务。伯克利航天中心的潜在租户包括开发垂直起降飞机的公司以及天体生物学领域的初创公司。天体生物学是研究如何在太空中培育生物以及零重力对人体的影响的领域。NASA艾姆斯研究中心已经为天文学、卫星设计和超级计算等领域的研究做出了不少贡献。UC伯克利负责该项目的副校长亚历克斯·巴恩(AlexBayen)表示:“通过这个新的研究中心以及与NASA和公共部门的合作伙伴关系,我们就能够在多个科学、工程和技术领域取得成绩,并推动全球大学模式的发展。”...PC版:https://www.cnbeta.com.tw/articles/soft/1390485.htm手机版:https://m.cnbeta.com.tw/view/1390485.htm

封面图片

今天发布的GPT-4o以及ChatGPT产品的快速总结:

今天发布的GPT-4o以及ChatGPT产品的快速总结:GPT-4o(“o”代表“全能”)它可以接受任意组合的文本、音频和图像作为输入,并生成任意组合的文本、音频和图像输出。它可以在232毫秒内响应音频输入,平均为320毫秒,这与人类在对话中的响应时间相似。在英文和代码文本方面,它与GPT-4Turbo的性能相当,对非英语文本的文本有显著改进。同时在API方面更快速、价格更便宜50%。与现有模型相比,GPT-4o在视觉和音频理解方面表现特别出色。与GPT-4Turbo相比,GPT-4o速度提高了2倍,价格减半,限制速率提高了5倍。何时可用?GPT-4o的文本和图像功能今天开始在ChatGPT中推出。将在免费版中提供GPT-4o,并为Plus用户提供高达5倍的消息限制。将在未来几周内在ChatGPTPlus中推出带有GPT-4o的VoiceMode的新版本。开发者现在也可以通过API访问GPT-4o作为文本和视觉模型。

封面图片

今天发布的GPT-4o以及ChatGPT产品的快速总结:#ai# #open#

今天发布的GPT-4o以及ChatGPT产品的快速总结:#ai##openai#GPT-4o(“o”代表“全能”)它可以接受任意组合的文本、音频和图像作为输入,并生成任意组合的文本、音频和图像输出。它可以在232毫秒内响应音频输入,平均为320毫秒,这与人类在对话中的响应时间相似。在英文和代码文本方面,它与GPT-4Turbo的性能相当,对非英语文本的文本有显著改进。同时在API方面更快速、价格更便宜50%。与现有模型相比,GPT-4o在视觉和音频理解方面表现特别出色。与GPT-4Turbo相比,GPT-4o速度提高了2倍,价格减半,限制速率提高了5倍。何时可用?GPT-4o的文本和图像功能今天开始在ChatGPT中推出。将在免费版中提供GPT-4o,并为Plus用户提供高达5倍的消息限制。将在未来几周内在ChatGPTPlus中推出带有GPT-4o的VoiceMode的新版本。开发者现在也可以通过API访问GPT-4o作为文本和视觉模型。公告地址:https://openai.com/index/hello-gpt-4o/

封面图片

laude 3 对比 GPT 4 的优势

Claude3对比GPT4的优势1⃣更高的智能水平:Claude3的旗舰模型Opus在多个领域超越了GPT-4和谷歌的Gemini1.0Ultra,包括本科和研究生水平的知识、数学和复杂任务理解。2⃣更快的响应速度:Claude3可以在实时聊天、自动补全和数据提取等任务中提供几乎即时的响应。其中,Haiku是市场上智能类别最快且性价比最高的模型,可以在不到三秒的时间内阅读一篇带有图表和图形的arXiv论文。3⃣强大的图像处理能力:Claude3具备与其他领先模型相当的图像处理能力,可以处理各种视觉格式,包括照片、图表、图形和技术图解。4⃣减少不必要的拒绝:相较于之前的模型,Claude3的模型(Opus、Sonnet和Haiku)更少地拒绝回答接近系统边界的提示,表现出更加细致的请求理解和更好的拒绝策略。

封面图片

PT-4o与GPT-4的区别

GPT-4o与GPT-4的区别1.性能提升:GPT-4o在性能上进行了显著提升,特别是在文本、语音和视觉处理方面。它能够更快地响应用户的输入,提供更自然和流畅的交互体验。2.响应速度:GPT-4o在响应速度上进行了优化,能够以更短的延迟时间处理用户的语音输入,平均响应时间为320毫秒,这与人类在对话中的响应时间相似。3.多模态交互:GPT-4o支持更高级的多模态交互,能够处理文本、音频和图像的任意组合输入,并生成对应的任意组合输出。这使得GPT-4o在交互性上更加灵活和强大。4.安全性:GPT-4o在设计中内置了跨模式的安全性,并通过与外部专家的合作,提高了与模型互动的安全性。5.成本和效率:GPT-4o在非英语文本上的性能有显著提高,同时API速度快,速率限制高出5倍,成本降低了50%。6.免费提供:与以往的模型不同,GPT-4o将免费提供给所有用户使用,而付费用户可以享受更高的调用额度。7.语音交互模式:GPT-4o采用了全新的技术,让聊天机器人的语音交互模式更加自然和逼真,能够根据指令调整说话时的语气,甚至唱歌。8.优化和迭代:GPT-4o通过训练时的优化和数据的迭代更新,提升了模型在特定任务和场景下的表现。9.风险管理:OpenAI认识到GPT-4o的音频模式存在风险,因此目前公开的是文本和图像输入以及文本输出,未来将围绕技术基础设施、训练后的可用性、发布其他模式所需的安全性开展工作。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人