吴恩达、Hinton最新对话:AI不是随机鹦鹉 共识胜过一切

吴恩达、Hinton最新对话:AI不是随机鹦鹉共识胜过一切-人工智能科学家对风险达成共识很重要。类似于气候科学家,他们对气候变化有大致的共识,所以能制定良好的政策。-人工智能模型是否了解这个世界?我们的答案是肯定的。如果我们列出这些关键技术问题,并形成共同观点,将有助于推动人类在风险方面达成共识。Hinton表示,我以前经常和吴恩达进行交谈,很高兴再次见面,并了解到他对人工智能最近发展所带来的各种风险的看法。我们在很多事情上达成了共识,特别是,研究人员需要对风险达成共识,以告知政策制定者。在此之前,吴恩达同样和YoshuaBengio进行了人工智能风险的对话。他们得出的一致意见是,阐明AI可能带来重大风险的具体场景。接下来,一起来看看两位AI大佬都具体讨论了什么。急需共识!首先,Hinton提出,最重要的是——共识。他表示,现在整个AI社群缺乏一种统一的共识。就像气候科学家达成的共识一样,AI科学家同样需要。在Hinton看来,之所以我们需要一个共识,是因为如果没有的话,每个AI科学家各执一词,那么政府和政策制定者就可以随心从其中选择一个符合自身利益的观点作为指导。这显然会失去公允性。而从目前的情况来看,AI科学家之间的不同观点差异化很大。Hinton认为,如果我们各执一词的局面能快点过去,大家都能达成一致,共同接受AI可能带来的某些主要威胁,认识到规范AI发展的紧迫性,就好了。吴恩达赞成Hinton的观点。虽说他现在还不觉得AI界差异化大到分裂,但好像在慢慢往那个方向演变。主流AI界的观点非常两极分化,各阵营之间都在不遗余力地表达诉求。不过在吴恩达看来,这种表达更像一种争吵,而不是和谐的对话。当然,吴恩达对AI社群还是有些信心的,他希望我们能共同找到一些共识,妥善进行对话,这样才能更好地帮助政策制定者制定相关计划。接下来,Hinton聊到了另一个关键问题,也是他认为目前AI科学家们难以达成某个共识的原因——像GPT-4和Bard这种聊天机器人,究竟理不理解他们自己生成的话?有些人认为AI懂,有些人认为它们不懂,只是随机鹦鹉罢了。Hinton认为,只要这种差异还存在,那么AI界就很难达成一个共识。因此,他认为当务之急就是厘清这个问题。当然,就他自己来讲肯定是认为AI懂的,AI也并不只是统计数据。他也提到了诸如YanLeCun等知名科学家认为AI并不能理解。这更加凸显了在这个问题上调和清楚地重要性。吴恩达表示,判断AI究竟是否能理解并不简单,因为好像并不存在一个标准,或者某种测试。他自己的观点是,他认为无论是LLM也好,其它AI大模型也罢,都是在构建一种世界模型。而AI在这个过程中可能会有些理解。当然,他说这只是他目前的观点。除此以外,他同意Hinton的说法,研究人员必须先就这个问题达成一致,才能继续聊后面的风险、危机那堆东西。Hinton接着表示,AI根据数据库,通过前面的单词判断、预测下一个单词的生成,这件事在Hinton眼中就是理解的一种。他认为这和我们人脑思考的机制其实差不了多少。当然,究竟算不算理解还需要进一步的讨论,但最起码不是随机鹦鹉那么简单。吴恩达认为,有一些问题会让持不同观点的人得出不同的结论,甚至推出AI将会灭绝人类。他表示,想要更好地理解AI,我们需要更多去了解,更多去讨论。这样才能建设一个包含着广泛共识的AI社群。LeCun双手赞成,再提“世界模型”前段时间,在全世界呼吁暂停超强AI研发期间,吴恩达与LeCun开直播就此话题展开了讨论。他们同时反对暂停AI是完全错误的,汽车刚发明时没有安全带和交通信号灯,人工智能与先前的技术进步之间没有本质上的差异。这次,LeCun就吴恩达和Hinton对话,再次提出了自己的“世界模型”,以及当前人工智能连阿猫阿狗都不如。我们都同意,我们需要在一些问题上达成共识。我同意GeoffreyHinton说的,即LLM有“某种程度”的理解力,还有称它们“只是统计数据”是一种误导。LLM对世界的理解是非常肤浅的,很大程度上,是因为它们纯粹是在文本上训练的。从视觉中学习世界如何运作的系统,将对现实有更深刻的理解。其次,自回归LLM的推理和规划能力非常有限。我认为,如果没有(1)从视频等感官输入中学习“世界模型”,(2)一个能够推理和规划的架构(不仅仅是自回归),我们不可能接近人类水平的人工智能(甚至是猫级人工智能)。现在,如果我们有能够规划的架构,它们将是“目标驱动的”:它们的规划将通过在推理时(不仅仅是训练时)优化一组目标来工作。这些目标可以包括使这些系统安全和顺从的“护栏”,即使它们最终拥有比人类更好的世界模型。然后,问题变成了设计(或训练)好的目标函数,以保证安全和效率。这是一个困难的工程问题,但并不像有些人说的那样难。LeCun的观点立马遭到了网友的反驳:感官对人工智能理解的重要性被高估了。无论如何,我们所有的感官都简化为电化学信号,供大脑处理。文本摄取是一种元感觉,可以描述来自触觉、视觉、嗅觉的信息……摄取大量元感官文本,已经让像必应(Sydney版)这样的LLM有能力,以一种优于多数人的方式表达生活和世界。因此,我认为一种重要的理解能力已经存在,尽管时隐时现。而且更多地是由于资源限制,以及处理人员有意设置的沙盒,而不是缺乏感官数据。我认为是时候团结起来,为社会和人工智能的进步而努力了。想想吧,你还是baby人工智能。我们难道不想教那个孩子如何成为技术有机的统一者,而不是世界上的野兽主义者?当他变得有知觉时,他们不仅会更快乐,而且世界也不会陷入战争。看看泰恩河畔的纽卡斯尔。如此短暂的和平时期,但创造的美丽是伟大的。而吴恩达和Hinton所说的共识,目前来看似乎不太可能。不是你我个人能力所及,需要所有人有这样的意愿。还有网友称,这是相当有争议的谈话。我确实想知道,当我教2岁的孩子说话时,他的行为更像随机鹦鹉,还是真的理解上下文?或者两者兼而有之?因为他的上下文向量比LLM丰富得多(文本、语气、面部表情、环境等)。但是我确实想知道,如果一个人关闭了另一个人的所有感官,唯一可用的输入是一些“文本嵌入”(文本输入->神经刺激),那个人会表现得更像随机鹦鹉,还是能理解上下文?Hinton:超级AI比预期来得快离职Google后的Hinton,已经全身心投入AI安全。6月10日,Hinton在智源大会上再次谈及AI风险。如果一个大型神经网络能够模仿人类语言获取知识,甚至可以自取自用,会发生什么?毋庸置疑,因为能够获取更多的数据,这个AI系统肯定要超越人类。最坏的情况便是,不法分子会利用超级智能操纵选民,赢得战争。另外,如果允许超级AI自己制定子目标,一个子目标是获得更多权力,这个超级AI就会为了达成目标,操纵使用它的人类。值得一提的是,这样超级AI的实现,便可通过“凡人计算”(mortalcomputation)。2022年12月,Hinton曾发表的一篇论文TheForward-ForwardAlgorithm:SomePreliminaryInvestigations在最后一节提到了“凡人计算”。如果你希望万亿参数神经网络只消耗几瓦特的电,“凡人计算”可能是唯一的选择。他表示,如果我们真的放弃软件和硬件的分离,我们就会得到“凡人计算”。由此,我们可以使用非常低功耗的模拟计算,而这正是大脑正在做的事情。“凡人计算”能够实现将人工智能与硬件紧密结合的新型计算机。这意味着,未...PC版:https://www.cnbeta.com.tw/articles/soft/1364821.htm手机版:https://m.cnbeta.com.tw/view/1364821.htm

相关推荐

封面图片

AI 大牛吴恩达官宣加入亚马逊董事会

AI大牛吴恩达官宣加入亚马逊董事会亚马逊表示吴恩达博士是人工智能和教育领域的全球领导者,为一系列新兴技术带来了深刻的见解。吴恩达的加入将使董事会深入了解人工智能带来的机遇和挑战、社会变革和商业潜力。据了解,吴恩达为DeepLearningAI创始人、LandingAI创始人、Coursera联合创始人、斯坦福大学计算机科学系和电气工程系客座教授,曾任谷歌大脑深度学习项目创始人兼负责人、百度首席科学家、斯坦福大学人工智能实验室主任。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

谷歌突失Hinton!深度学习之父警告AI风险 对毕生工作表示遗憾

谷歌突失Hinton!深度学习之父警告AI风险对毕生工作表示遗憾有网友直接懵住:到底发生了什么?还是我漏掉了什么?你不是曾说过GPT-4为人类的蝴蝶吗?不少人还认为Hinton此举有待商榷,应该将关注人工智能安全工作常态化而不是离职。甚至还有人劝他理解AI,而不是通过延迟研究来限制。现在潘多拉魔盒已经打开。但Hinton的态度似乎十分坚定,在访谈中直言:对自己毕生的工作感到后悔。而另一位巨头LeCun这边也表示,对Hinton的离职并不惊讶。不少网友在底下已经开始就AI的各种问题寻求Hinton的见解:你对开源AI有什么看法?你觉得需要注意和避免的最大危险是什么?“对自己毕生的工作感到后悔”据《纽约时报》消息,Hinton的离职是在4月提出的。辞职的理由一言以蔽之,是对人工智能风险的担忧。这种忧虑甚至让这位深度学习之父表示:我对自己毕生的工作,感到非常后悔。我用一个借口来安慰自己,如果我没有这么做,还会有其他人。梳理来看,引发Hinton担忧情绪的因素,有近期和远期两个方面。先说近期影响,就是ChatGPT趋势下的新一轮AI竞争。在微软将ChatGPT引入Bing后,挑战了Google的核心业务搜索引擎,然后Google马上推出了Bard作为应对。这让Hinton觉得,Google似乎不再扮演AI“好管家”的角色了。而且科技巨头们正在掀起一场无法停止的角逐。由此带来的影响,将是生成式AI生产出非常多真假难辨的内容。而从长远来看,Hinton认为,AI将会对就业市场造成巨大影响。如助理、翻译等各行各业都可能被扰乱。再进一步,AI或许也会对人类构成威胁。因为个人和企业不仅允许AI生成代码,实际上AI也有能力运行这些代码。因此Hinton认为有朝一日那种具有自主能力的杀手机器人,会成为现实。他表示,AI实际上可以比人类拥有更聪明的想法——一些人相信这一点。但是他没有预料到人工智能的发展速度会像过去7个月那样快。我曾以为这需要30-50年之久,但是现在我不这么想了。这种想法,和之前十余位美国人工智能协会专家联名发出的警告,有些相似之处。不过在那时,Hinton并没有参与这项活动。据《纽约时报》消息,离职前,GoogleCEO桑达尔·皮查伊和他通过电话,但具体内容Hinton不愿透露。这场离职风暴中,Google研究首席科学家、Google高级副总裁JeffDean发表了一份声明,表示:我们仍会坚持对AI采取负责任的态度。我们在不断学习理解新出现的风险时,也在大胆创新。对于Hinton的离职,另一位深度学习三巨头之一LeCun表示,Hinton并没有和他透露要离开Google的打算,不过他对比并不感到十分惊讶。OpenAI首席科学家是他学生此番离职,或许对于Hinton来说,也是时候了。ChatGPT、大模型让全球对于通用人工智能的想象更加具象,其背后的安全与风险等问题也被搬上日程。一直以来,Hinton对于通用人工智能抱有赞叹和期待。早在GPT-3刚出炉、其他两位图灵奖得主LeCun和Bengio都持不看好态度时,Hinton却表示,从GPT-3出色的性能可以推断,生命、宇宙和万物的答案“不过是4.398万亿个参数而已”。直至ChatGPT出现时,他还将GPT-4比作人类的蝴蝶:毛毛虫提取营养物质,然后转化为蝴蝶。人们已经提取了数十亿的理解金块,而GPT-4是人类的蝴蝶。他惊叹其效果的同时也透露出不少隐忧。RLHF机制是在培养一个超常的早熟儿。而现在,随着ChatGPT风暴席卷越来越多的行业,Hinton想要站出来承担人工智能危机“敲钟人”的角色,就已经到了关键时刻。值得一提的是,在通用人工智能探索的最前沿,Hinton的学生们仍扮演着重要角色。比如,现在OpenAI的首席科学家IlyaSutskever。左:IlyaSutskever右:Hinton图源:多伦多大学当年,Hinton与他的两位学生IlyaSutskever和AlexKrizhevsky共同发明了卷积神经网络AlexNet,拿下当年最权威的人工智能大赛ImageNet第一名,而且精确度是第二名的两倍。后来,他们还一起成立了公司DNNResearch,后被Google4400美元收购。IlyaSutskever担任GoogleBrain的研究科学家,并成为后来AlphaGO众多合著者之一。直至2015年底他离开Google,加入OpenAI担任联合创始人以及首席科学家。...PC版:https://www.cnbeta.com.tw/articles/soft/1357711.htm手机版:https://m.cnbeta.com.tw/view/1357711.htm

封面图片

姚期智等三十余位专家达成共识:AI不应违反红线

姚期智等三十余位专家达成共识:AI不应违反红线我们在感叹AI带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对AI带来的挑战。现在,AI领域又一封重磅公开信出现了。上周在颐和园召开的“北京AI国际安全对话”,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主YoshuaBengio和智源学术顾问委员会主任张宏江担任共同主席,GeoffreyHinton、StuartRussell、姚期智等三十余位中外技术专家、企业负责人开展了一次关于AISafety的闭门讨论。这次会议达成了一项Bengio、Hinton与国内专家共同签名的《北京AI安全国际共识》。目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构):YoshuaBengioGeoffreyHintonStuartRussellRobertTragerTobyOrdDawnSongGillianHadfieldJadeLeungMaxTegmarkLamKwokYanDavidadDalrympleDylanHadfield-Menell姚期智傅莹张宏江张亚勤薛澜黄铁军王仲远杨耀东曾毅李航张鹏田溯宁田天以下为达成的共识内容:一、人工智能风险红线人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中,面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。自主复制或改进任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。权力寻求任何人工智能系统都不能采取不当地增加其权力和影响力的行动。协助不良行为者所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。欺骗任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。二、路线确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。治理我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。测量与评估在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。技术合作国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。三、总结避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。...PC版:https://www.cnbeta.com.tw/articles/soft/1424238.htm手机版:https://m.cnbeta.com.tw/view/1424238.htm

封面图片

Google:AI科技发展已逐步发展至人工理解领域

Google:AI科技发展已逐步发展至人工理解领域GoogleAI倡导者LaurenceMoroney表示,人工智能属于机械人,未必能够理解部分小众内容,例如地方文化、民间故事、诗歌等。但市场近年发展的生成式人工智能技术已拓展至内容理解。Google本周发布生成式人工智能模型,期望建立一套演算法,尝试理解人类绘画和写作等图象和文字内容。他在「FIIPRIORITY香港峰会」表示,目前AI科技发展,已从单纯人工智能,逐步发展至人工理解领域。目前已开始看到业界建立模型,令AI了解和保护较抽象的文化内容。他强调,训练AI模型保护文化,已不再是遥不可及的任务,而是简单地透过数据做到的事情。2023-12-0814:05:39

封面图片

人人必修的AI启蒙课,启蒙课程,不含工具【鹤老师】

名称:人人必修的AI启蒙课,启蒙课程,不含工具【鹤老师】描述:鹤老师是一位深耕人工智能领域多年的专家,他的AI启蒙课程是人人必修的。这门课程不仅仅是教授人工智能的技术和应用,更是通过深入浅出的方式,让人们了解人工智能对我们的生活和社会产生的影响,引导人们正确理解和使用人工智能技术。链接:https://pan.quark.cn/s/349c1d908155大小:N标签:#AI#人人必修的AI启蒙课#quark来自:雷锋频道:@yunpanshare群组:@yunpangroup投稿:@kejiqubot

封面图片

马斯克称未来人类将无需工作,人工智能提供一切

马斯克称未来人类将无需工作,人工智能提供一切当地时间周四,马斯克在巴黎举行的VivaTech大会上表示,人工智能未来将会取代人类所有的工作。他说,未来的工作将是“可选的”,“如果你想做一份有点像爱好的工作,你可以做。但除此之外,AI和机器人将提供你想要的任何商品和服务。”马斯克还提出了一个问题,在一个没有工作的未来,人们如何找到生活的意义,“如果电脑和机器人在任何事情上都比你做得好,你的生活还有意义吗?”他说,“我确实认为人类在这方面可能仍然有作用,因为我们可能会赋予人工智能意义。”(环球市场播报)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人