《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

相关推荐

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

人工智能有“灭绝(人类)的危险”

人工智能有“灭绝(人类)的危险”非营利组织“人工智能安全中心CenterforAISafety”预计将发布一份只有一句话的声明:“减轻人工智能带来的灭绝风险应与其他社会规模的风险,如大流行病和核战争一样,成为全球优先事项。”这封公开信由350多名从事人工智能工作的高管、研究人员和工程师签署,签署者包括三家领先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的CEO,也包括除了YannLeCun之外的人工智能领域另外两位图灵奖得主。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

【Edward Snowden:人工智能模型可能很快就会超越人类的能力】

【EdwardSnowden:人工智能模型可能很快就会超越人类的能力】2023年04月30日06点23分4月30日消息,新闻自由基金会主席EdwardSnowden在“2023共识”大会上表示,人工智能(AI)模型可能很快就会超越人类的能力,但前提是我们停止教它们像我们一样思考,并允许它们“比我们更好”。Snowden认为,人工智能模型可能会阻碍政府的监控,而不是助长侵入性的情报项目。但他也警告说,ChatGPT和其他日益复杂的人工智能模型的推出,可能会助长大型科技公司和政府推动的侵犯用户隐私的举措。他表示,为了防止坏人利用人工智能技术,人们必须争取开放的人工智能模型保持开放。他的批评专门针对越来越不开放的新兴AI模型,特别是OpenAI。(CoinDesk)

封面图片

英国首相顾问警告:人工智能可能在2年内威胁到人类

英国首相顾问警告:人工智能可能在2年内威胁到人类近日,英国政府高级研究与发明局主席兼人工智能特别工作组的马特·克利福德在接受媒体采访时表示,目前的人工智能系统进化速度越来越快,能力也越来越强大。克利福德对此深感不安,他认为,如果人类没能找到控制该技术的办法,或者现在不考虑安全和监管问题,人工智能系统将在两年内变得“非常强大”。他指出,决策者应该作好准备,无论是短期还是长期,都存在许多不同类型的风险,可能出现从网络攻击到制造生物武器等一系列的威胁。“这可能会对人类生存构成非常严重的威胁,仅仅从我们预计两年后会出现的模型来看,可能会杀死很多人,当然,不是所有人。”在克利福德接受采访之前,科技界高管和人工智能科学家联合发布声明称,这项技术带来的灭绝风险堪比疫情和核战。克利福德解释道:“他们谈论的是,一旦我们有效地创造了一个新物种,一种比人类更加聪明的物种,会发生什么情况。”他还表示,乐观地看,我们可能在两年内拥有比人类更聪明的人工智能。这位人工智能专家表示,这听起来像是电影的情节,但确实令人担忧,这也是各国需跨境合作来制定规则的一个原因。根据克利福德的说法,监管机构和开发者的主要关注点应该是了解如何控制这些人工智能系统,然后在全球范围内实施监管。他提醒道:“正在构建最强大人工智能系统的人坦率地承认,他们并不完全理解(人工智能系统)是如何表现出它们所做的行为的,也就是我最担心的事情。”克利福德强调,许多构建人工智能管理组织的领导者也同意,强大的人工智能模型在部署之前必须经过某种审计和评估过程。...PC版:https://www.cnbeta.com.tw/articles/soft/1364265.htm手机版:https://m.cnbeta.com.tw/view/1364265.htm

封面图片

苹果联合创始人:人工智能永远取代不了人类

苹果联合创始人:人工智能永远取代不了人类沃兹尼亚克一生都在研究大脑和计算机技术,他说人工智能永远无法与人脑匹敌。他认为,尽管人工智能可以比人类更快地执行任务和做出决定,但它仍然缺乏使我们独一无二的情感和人类品质。沃兹尼亚克说:“这让人印象深刻,但问题是,虽然它对我们有好处,但它也会因为不了解人性而犯可怕的错误。”“我的意思是,就像你在开车,你知道其他汽车现在可能会做什么,因为你了解人类。”谷歌母公司Alphabet最近发布的新人工智能技术Bard在演示时发生了一个错误,引发投资者担忧,导致该公司股价大跌。沃兹尼亚克没有提到该公司的名字,只是把这件事当作一个例子,说明人工智能技术的局限性和人类监督的重要性。这位苹果联合创始人还谈到了计算机智能的发展,并将其比作国际象棋的进步。当计算机第一次在国际象棋中击败人类时,人们对它们的智慧感到惊讶,但沃兹尼亚克指出,计算机只是遵循了与人脑不同的方法。尽管沃兹尼亚克持怀疑态度,但他仍然认为人工智能对人类有用。他认为,人工智能将继续发展和改进,特别是因为它可以每秒扫描10亿次事物,这超出了人脑的能力。然而,他认为,如果人工智能不了解人性,它也会犯错误,可能会产生严重的后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1344197.htm手机版:https://m.cnbeta.com.tw/view/1344197.htm

封面图片

马斯克:人工智能毁灭人类的可能性很小 但绝非不可能

马斯克:人工智能毁灭人类的可能性很小但绝非不可能在伦敦峰会开幕式上,马斯克表示他去年斥资440亿美元收购推特的努力正在取得成果。他说,推特目前还不是很赚钱,但最快下个月就可能实现现金流正增长。自马斯克将其私有化以来,推特不再公开报告财务业绩,自2019年以来始终没有盈利。马斯克表示,推特可能是他创建人工智能业务的重要组成部分。特斯拉也始终在使用人工智能来改进其先进的司机辅助驾驶功能。马斯克称,推特和特斯拉可以成为一家人工智能公司的合作伙伴,就像微软和OpenAI那样。此前,马斯克已经创建了名为X.AI的人工智能公司。马斯克说:“我认为,人工智能竞赛中应该有第三匹马(beasignificantthirdhorse)。”作为推特和特斯拉的老板,马斯克长期以来始终试图引导人工智能的发展方向。他对人工智能领域快速取得的进展表示担忧,并呼吁政府进行监管。“人工智能毁灭人类的可能性很小,但绝非不可能。”马斯克周二称。...PC版:https://www.cnbeta.com.tw/articles/soft/1361347.htm手机版:https://m.cnbeta.com.tw/view/1361347.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人