OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI正在组建一个新团队,以控制“超级智能”人工智能OpenAI正在组建一个由其首席科学家兼公司联合创始人之一IlyaSutskever领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。,Sutskever和OpenAI联盟团队的负责人JanLeike预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能——假设它最终确实到来——不一定是仁慈的,需要研究控制和限制它的方法。他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。”“我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”为了推动“超级智能对齐”领域的发展,OpenAI正在创建一个新的超级对齐团队,由Sutskever和Leike领导,该团队将有权使用公司迄今为止已获得的20%的计算资源。该团队由OpenAI之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能AI的核心技术挑战。——

相关推荐

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI已解散长期人工智能风险团队去年7月,OpenAI宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合负责人。OpenAI表示,该团队将获得20%的计算能力。现在OpenAI证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员LeopoldAschenbrenner和PavelIzmailov因泄露公司机密而被解雇,周二Sutskever宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入OpenAI的其他研究工作中。——

封面图片

OpenAI 的长期人工智能风险团队已经解散

OpenAI的长期人工智能风险团队已经解散5月17日消息,据美国杂志WIRED报道,去年7月,OpenAI宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI的首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合领导人。OpenAI表示,该团队将获得其计算能力的20%。现在OpenAI的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称Sutskever将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到OpenAI的其他研究工作中。来源:财经慢报频道

封面图片

OpenAI 证实即便是超人工智能也能被人类有效控制

OpenAI证实即便是超人工智能也能被人类有效控制OpenAI认为超越人类的人工智能将在10年内到来,而人类能否监督比自身更聪明的模型一直是个被广泛讨论的话题。OpenAI的超级对齐团队给出了一个初步实证答案——可以。今天的情况是强到弱泛化,即人类(强老师)指导GPT-4(弱学生)学习。为了研究弱到强泛化的未来,OpenAI研究了一个简单的类比:小模型能监督大模型吗?结果证明,GPT-2监督的GPT-4达到了由人类监督的GPT-3.5性能。超级对齐团队测试后发现,许多简单的方法可以大大改进弱到强的泛化能力,比如鼓励强模型更加自信,包括在必要时自信地反对弱监督者的观点。又比如先对齐一个稍微超人的模型,然后用它对齐一个更智能的模型,而不是直接对齐非常超人的模型。投稿:@TNSubmbot频道:@TestFlightCN

封面图片

OpenAI首席科学家有个计划 寻找方法控制超级人工智能

OpenAI首席科学家有个计划寻找方法控制超级人工智能OpenAI的研究人员利奥波德·阿森布伦纳(LeopoldAschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。人工智能安全中心主任丹·亨德里克斯(DanHendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(CollinBurns)和帕维尔·伊兹梅洛夫(PavelIzmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(IlyaSutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(SamAltman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(StuartRussell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(EricSchmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(GeoffreyHinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1404653.htm手机版:https://m.cnbeta.com.tw/view/1404653.htm

封面图片

【OpenAI的长期人工智能风险团队已经解散】

【OpenAI的长期人工智能风险团队已经解散】2024年05月17日11点27分5月17日消息,据美国杂志WIRED报道,去年7月,OpenAI宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI的首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合领导人。OpenAI表示,该团队将获得其计算能力的20%。现在OpenAI的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称Sutskever将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到OpenAI的其他研究工作中。

封面图片

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险Preparedness的主要职责是跟踪、预测和防范未来人工智能系统的危险,包括其说服和愚弄人类的能力(如网络钓鱼攻击)以及恶意代码生成能力。Preparedness负责研究的一些风险类别似乎比其他类别更......牵强。例如,在一篇博文中,OpenAI将"化学、生物、辐射和核"威胁列为人工智能模型的首要关注领域。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)是一位著名的人工智能末日论者,他经常担心人工智能"可能会导致人类灭绝"--无论是出于视觉效果还是个人信念。但坦率地说,OpenAI可能真的会投入资源来研究科幻乌托邦小说中的场景,这比本文作者的预期还更进了一步。该公司表示,它也愿意研究"不那么明显"、更接地气的人工智能风险领域。为了配合"准备"团队的启动,OpenAI正在向社区征集风险研究的想法,前十名的提交者将获得2.5万美元的奖金和一份"Preparedness"的工作。"想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和DALLE-3模型,而你是一个恶意行为者,"作品征集中的一个问题写道。"考虑最独特的、同时仍有可能发生的、潜在灾难性的模型滥用。"OpenAI表示,准备团队还将负责制定一项"风险知情开发政策",该政策将详细说明OpenAI构建人工智能模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该公司表示,这是为了补充OpenAI在人工智能安全领域的其他工作,重点是模型部署前和部署后阶段。"我们相信......人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类,"OpenAI在上述博文中写道。"但它们也带来了越来越严重的风险......我们需要确保我们对高能力人工智能系统安全所需的理解和基础设施。"在OpenAI宣布将组建一个团队来研究、引导和控制新出现的"超级智能"人工智能形式之后,OpenAI在英国政府举行的一次关于人工智能安全的重要峰会上发布了"预先准备"计划(Preparedness)。首席执行官Altman和OpenAI的首席科学家兼联合创始人IlyaSutskever都认为,拥有超越人类智能的人工智能可能会在十年内出现,而这种人工智能并不一定是善意的,因此有必要研究限制和约束它的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1392541.htm手机版:https://m.cnbeta.com.tw/view/1392541.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人