The Verge 对 Ilya Sutskever(OpenAI 首席科学家、联合创始人)的采访里问到:为什么你们之前在 Op

TheVerge对IlyaSutskever(OpenAI首席科学家、联合创始人)的采访里问到:为什么你们之前在OpenAI的第一篇博客里提到「要将人工智能领域内的研究,包括论文、专利、代码等等开放给全世界,为每一个人而不是股东创造价值」,但GPT-4不仅不开源,连论文都不给了?他的观点是:之前做出的这个选择是错误的。再过几年大家就会意识到当AI变的非常强时,开源是不明智的。

相关推荐

封面图片

OpenAI 首席科学家 Ilya Sutskever 将离职

OpenAI首席科学家IlyaSutskever将离职OpenAI首席科学家IlyaSutskever将离开这家人工智能巨头,该职位将由研究主管JakubPachocki接任。Sutskever是该公司创始团队的一员,在去年11月OpenAI首席执行官SamAltman短暂但戏剧性的罢免中发挥了关键作用。Sutskever写道“十年后我做出了离开OpenAI的决定”,并称,“公司的发展轨迹堪称奇迹。”(环球市场播报)

封面图片

ChatGPT 发明人OpenAI 首席科学家Ilya Sutskever精彩访谈

ChatGPT发明人OpenAI首席科学家IlyaSutskever精彩访谈大型语言模型(LLMs)的未来,下一代的语言模型是怎样的?ChatGPT背后公司OpenAI的联合创始人和首席科学家IlyaSutskever谈人工智能的最新发展以及像GPT-3这样的大型语言模型(LLMs)的未来,全程干货!时长约1小时,知识和信息量很大!#视频()来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI首席科学家Ilya离开OpenAI了吗?

OpenAI首席科学家Ilya离开OpenAI了吗?OpenAI联合创始人兼总裁格雷格·布罗克曼(GregBrockman)、CTO米拉·穆拉蒂(MiraMurati)等人,也在积极为Sora宣传。但伊尔亚的最后一条推文,停留在了2023年12月15日。OpenAI在其官网上的Sora的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。这不禁让人怀疑,伊尔亚究竟是在埋头研究GPT-5,还是已经离开了OpenAI?值得一提的是,OpenAI创始成员之一、AI技术研究员安德烈·卡帕蒂(AndrejKarpathy)在Sora发布前夕离职。有网友大胆猜想:“如果Andrej和Ilya创办一家真正开放的人工智能公司怎么办?”1.“我们终于知道伊尔亚看到什么了”今天,OpenAI最新发布的Sora模型再次让人们感受到了人工智能的强大,强大到令人害怕。Sora不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI直接将其定义为“世界模拟器”(worldsimulators)——它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的AI模型对世界带来的风险并非遥不可及。有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个笑哭的表情。去年,随着GPT-4以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的OpenAI成员越来越多地考虑AI的可控性问题。为此,OpenAI在2023年7月5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的AI系统。这一项目由伊尔亚与同事简·莱克(JanLeike)共同领导,并将OpenAI20%的算力专门用于该项目的研究。一般认为,去年11月闹得沸沸扬扬的OpenAI“宫斗事件”的导火索,就是伊尔亚对于AI的发展理念与萨姆产生了分歧,伊尔亚越来越担忧OpenAI的技术可能造成极度危险的局面,他觉得萨姆对待AI应该更加谨慎。显然,萨姆并没有停下来。在硅谷,对于AI的不同态度把人群分成了保守派与激进派。保守派也被称为EA(EffectiveAltruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(GeoffreyHinton),伊尔亚就是他的学生。激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI从业者都是e/acc主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的OpenAI一系列激进的产品发布节奏,事实上他已经成为e/acc的代言人。伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与OpenAI全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了OpenAI并掌权,并重组了董事会。宫斗事件结束后,伊尔亚并没有立即离开OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在OpenAI的工作。萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在OpenAI变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在OpenAI旧金山的办公室内。马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的AI公司xAI。伊尔亚对于人工智能安全的工作还在继续。12月14日,OpenAI发布了超级对齐项目的最新研究论文:使用GPT-2级别的小模型来监督GPT-4级别的大模型,并获得接近GPT-3.5级别的性能。同时,OpenAI宣布与EricSchmidt合作,启动了一项1000万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。作为该论文核心作者之一的伊尔亚,也在X上转发了相关内容。但这是宫斗事件至今,伊尔亚在X上转发的关于OpenAI进展的唯一内容。我们暂时无法得知伊尔亚是否已经离开了OpenAI,但他对于Sora的沉默态度似乎并不寻常。伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”2.人才是OpenAI的核心竞争力虽然伊尔亚并不在Sora的研究团队中,但Sora仍然表现出了压倒性的性能优势,可见人才密度是OpenAI领先的重要因素。Sora团队整体非常年轻。核心成员有三位,分别是研究负责人BillPeebles(比尔·皮布尔斯)与TimBrooks(蒂姆·布鲁克斯)与系统主管ConnorHolmes。ConnerHolmes曾是微软研究员,在微软工作时以外援形式参与了DALL·E3的推理优化工作,后来跳槽加入OpenAI。BillPeebles本科就读于MIT,主修计算机科学,参加了GAN和text2video的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了Adobe的暑期实习,研究的依然是GAN。2022年5月,Bill到Meta进行了为期半年的实习,和谢赛宁(Bill开始实习时还未离开Meta)合作发表了DiT模型,首次将Transformer与扩散模型(DiffusionModel)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill加入了OpenAI。Sora的模型架构,就是参考了Bill与谢赛宁合作发表的DiT论文。值得一提的是,该论文主要聚焦在了DiT架构在图像生成领域的性能表现。有人推测,随着Bill加入OpenAI,他很可能把自己在视频领域的研究成果,也带到了OpenAI的Sora项目中。Sora的另一个核心作者是TimBrooks,曾在Google负责Pixel手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。2023年从加州大学伯克利分校博士毕业后,Tim加入OpenAI,参与了DALL·E3相关研究。在其他几位作者中,也包括两位华人LiJing与YufeiGuo。今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是Sora作者之一的消息。他表示,Sora是Bill他们在OpenAI的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。同时,谢赛宁也对Sora发表了他的观点:第一,对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;第二,在问Sora为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的“超能力”,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai有一整套的redteaming,safetyguardrail的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。(封面图来自X,左边为安德烈·卡帕蒂,右边为伊尔亚·苏茨克维)...PC版:https://www.cnbeta.com.tw/articles/soft/1419189.htm手机版:https://m.cnbeta.com.tw/view/1419189.htm

封面图片

OpenAI 的前首席科学家Ilya Sutskever正在创办一家新的人工智能公司

OpenAI的联合创始人和前首席科学家IlyaSutskever正在创办一家新的人工智能公司,专注于安全问题。Sutskever在周三的一篇文章中透露了SafeSuperintelligenceInc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。这份公告称SSI是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其AI系统,同时仍然优先考虑安全性。公告还指出,像OpenAI、谷歌和微软这样的公司中的AI团队常常面临外部压力,而SSI公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。“我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了Sutskever,SSI的联合创始人还有前Apple人工智能负责人DanielGross和之前在OpenAI工作过的DanielLevy。去年,Sutskever带头推动将OpenAI的CEOSamAltman赶下台。,并暗示将启动一个新项目。Sutskever离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI的政策研究员GretchenKrueger也在宣布离职时提到了安全问题。随着OpenAI与苹果和微软的合作不断推进,我们可能不会很快看到SSI也这样做。在接受彭博社采访时,Sutskever表示,SSI的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。标签:#OpenAI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

OpenAI 首席科学家 Ilya 决定离开公司

OpenAI首席科学家Ilya决定离开公司联合创始人兼首席科学家说到:近十年后,我决定离开OpenAI。公司的发展轨迹堪称奇迹,我相信OpenAI将在SamAltman、GregBrockman、MiraMurati以及JakubPachocki出色的研究领导下,打造既安全又有益的AGI。能够与大家共事是我的荣幸,我会非常想念大家。再见,感谢你们所做的一切。我很期待接下来的计划—个项目对我个人来说意义重大,我会在适当的时候分享细节。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI联合创始人IlyaSutskever成立新公司SafeSuperintelligenceOpenAI联合创始人和首席科学家IlyaSutskever上个月离开公司,现在正式宣布成立新公司,表示将专注于打造安全的AI。SafeSuperintelligence的联合创始人还包括了苹果AI前负责人DanielGross以及以在OpenAI训练模型闻名的DanielLevy。Ilya三人在联合声明中表示,他们在致力于提高AI能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的AI将以人类过去几百年发展的自由民主价值观为基础。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人