人工智能有“灭绝(人类)的危险”

人工智能有“灭绝(人类)的危险”非营利组织“人工智能安全中心CenterforAISafety”预计将发布一份只有一句话的声明:“减轻人工智能带来的灭绝风险应与其他社会规模的风险,如大流行病和核战争一样,成为全球优先事项。”这封公开信由350多名从事人工智能工作的高管、研究人员和工程师签署,签署者包括三家领先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的CEO,也包括除了YannLeCun之外的人工智能领域另外两位图灵奖得主。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

《人工智能:灭绝危机》 科幻

人工智能:灭绝危机奥利维亚·格兰特 / 约翰·汉纳 / 沃伦·布朗

封面图片

AI行业领导者联名签署《关于人工智能风险的声明》

AI行业领导者联名签署《关于人工智能风险的声明》"减轻来自人工智能的灭绝风险应该与瘟疫和核战争等其他社会性规模风险一起成为全球优先事项。"这封公开信由图灵奖三巨头中的两位GeoffreyHinton与YoshuaBengio带头签署,他们被视为现代人工智能的教父。共同签署的还有GoogleDeepMind、OpenAI、Anthropic几家业界领先实验室的领导者与科学家。https://www.safe.ai/statement-on-ai-risk频道:@TestFlightCN

封面图片

行业领袖警告: AI 可能给人类带来“灭绝的风险”

行业领袖警告:AI可能给人类带来“灭绝的风险”周二,来自OpenAI、GoogleDeepmind、Anthropic和其他AI实验室的领导者警告说,他们正在开发的人工智能技术可能有一天会对人类构成生存威胁,并应被视为与流行病和核战争同等的社会风险。“减轻人工智能灭绝的风险应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项,”预计将由非营利组织人工智能安全中心发布的一句话声明中写道。超过350名从事AI工作的高管、研究人员和工程师签署了这封公开信签署人包括来自3家领先AI公司的高管:OpenAI首席执行官SamAltman;谷歌DeepMind首席执行官戴米斯·哈萨比斯(DemisHassabis);以及Anthropic的首席执行官DarioAmodei。杰弗里·辛顿(GeoffreyHinton)和约书亚·本吉奥(YoshuaBengio)是三位因在神经网络方面的开创性工作而获得图灵奖的研究人员中的两位,他们通常被认为是现代人工智能运动的“教父”,他们和该领域的其他著名研究人员一样签署了声明。该声明发表之际,人们越来越担心人工智能的潜在危害。所谓的大型语言模型——ChatGPT和其他聊天机器人使用的人工智能系统类型——的最新进展引发了人们的担忧,即人工智能可能很快被大规模用于传播错误信息和宣传,或者它可能会夺走数百万白领的工作。最终,一些人认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏,尽管研究人员有时不会解释这将如何发生。——

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

“人工智能” 的神话 ——

“人工智能”的神话——一位前沿的人工智能研究者和科技企业家揭穿了超级智能只需点击几下就能实现的幻想——这个神话不仅是错误的,它正在积极地阻碍创新,扭曲我们实现关键的下一次飞跃的能力。未来主义者坚持认为,人工智能很快就会超越最有天赋的人类大脑的能力。但事实上,我们并没有真正走上发展智能机器的道路,目前为止我们甚至不知道这条路可能在哪。ErikLarson是一位科技企业家,也是一位在自然语言处理前沿工作的先锋研究科学家,他详细展示了人工智能的格局,展示了我们离超级智能有多遥远,以及要达到这个目标需要做些什么。自从阿兰·图灵以来,人工智能爱好者们就把人工智能等同于人类智慧。这是一个深刻的错误。人工智能的工作原理是归纳推理,咀嚼数据集来预测结果。但人类的大脑不会将数据集关联起来:我们根据背景和经验做出猜测。鉴于我们对世界的了解,人类智慧是一个最佳预测的网络。人类还不知道如何编程这种溯因推理,然而它却是常识的核心。这就是为什么Alexa听不懂你在问什么,以及为什么人工智能只能带我们走这么远。Larson认为,人工智能的炒作既不是科学,也不利于科学。发明文化的兴盛在于探索未知,而不是卖空现有模式。归纳式人工智能将在狭隘的任务中继续改进,但如果我们想要取得真正的进步,就需要从更充分地欣赏我们所知的唯一真正的智能——我们自己的智能——开始。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人