AI行业领导者联名签署《关于人工智能风险的声明》

AI行业领导者联名签署《关于人工智能风险的声明》"减轻来自人工智能的灭绝风险应该与瘟疫和核战争等其他社会性规模风险一起成为全球优先事项。"这封公开信由图灵奖三巨头中的两位GeoffreyHinton与YoshuaBengio带头签署,他们被视为现代人工智能的教父。共同签署的还有GoogleDeepMind、OpenAI、Anthropic几家业界领先实验室的领导者与科学家。https://www.safe.ai/statement-on-ai-risk频道:@TestFlightCN

相关推荐

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

【OpenAI CEO等350名AI行业人士签署公开信 警告AI或给人类带来“灭绝风险”】

【OpenAICEO等350名AI行业人士签署公开信警告AI或给人类带来“灭绝风险”】2023年05月30日10点10分5月30日消息,350位AI行业的高管、研究人员和工程师日前签署了一封公开信,表示担忧AI技术将对人类带来生存威胁。这封信由位于非营利组织人工智能安全中心发布,其中仅有一句话:“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”OpenAI首席执行官SamAltman、GoogleDeepMind首席执行官DemisHassabis、Anthropic首席执行官DarioAmodei三位AI公司高管,以及2018年图灵奖得主GeoffreyHinton、YoshuaBengio已签署这封信。

封面图片

马斯克和 1000 多名人工智能专家及行业高管签署联名信,呼吁暂停训练比 GPT-4 更强大的人工智能系统至少六个月,理由是这种

马斯克和1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月,理由是这种系统对社会和人类构成潜在风险。目前签名的有,图灵奖得主YoshuaBengio、StabilityAI首席执行官EmadMostaque、苹果联合创始人SteveWozniak、纽约大学教授马库斯、马斯克,以及「人类简史」作者YuvalNoahHarari等等。信中写道:只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。马斯克此前曾多次表达对人工智能的担忧,他在今年2月的一次视频讲话中表示,人工智能是未来人类文明最大的风险之一。投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

行业领袖警告: AI 可能给人类带来“灭绝的风险”

行业领袖警告:AI可能给人类带来“灭绝的风险”周二,来自OpenAI、GoogleDeepmind、Anthropic和其他AI实验室的领导者警告说,他们正在开发的人工智能技术可能有一天会对人类构成生存威胁,并应被视为与流行病和核战争同等的社会风险。“减轻人工智能灭绝的风险应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项,”预计将由非营利组织人工智能安全中心发布的一句话声明中写道。超过350名从事AI工作的高管、研究人员和工程师签署了这封公开信签署人包括来自3家领先AI公司的高管:OpenAI首席执行官SamAltman;谷歌DeepMind首席执行官戴米斯·哈萨比斯(DemisHassabis);以及Anthropic的首席执行官DarioAmodei。杰弗里·辛顿(GeoffreyHinton)和约书亚·本吉奥(YoshuaBengio)是三位因在神经网络方面的开创性工作而获得图灵奖的研究人员中的两位,他们通常被认为是现代人工智能运动的“教父”,他们和该领域的其他著名研究人员一样签署了声明。该声明发表之际,人们越来越担心人工智能的潜在危害。所谓的大型语言模型——ChatGPT和其他聊天机器人使用的人工智能系统类型——的最新进展引发了人们的担忧,即人工智能可能很快被大规模用于传播错误信息和宣传,或者它可能会夺走数百万白领的工作。最终,一些人认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏,尽管研究人员有时不会解释这将如何发生。——

封面图片

人工智能安全峰会代表同意签署声明确保发展与应用安全

人工智能安全峰会代表同意签署声明确保发展与应用安全人工智能安全峰会在英国举行,与会代表同意签署一项声明,表明有急切需要,进一步理解及应对潜在风险。在崭新的全球努力下,确保人工智能发展与应用安全与负责,将有利全球社会。英国首相辛伟诚表示,声明是一项标志性成就。另外,代表中国出席的是科技部副部长吴朝晖。在会上,中方提出《全球人工智能治理倡议》。这次峰会为期两天,重点放在人工智能风险管理。由于人工智能在确立疾病新的疗法及应对粮食短缺等方面亦有正面作用,预料各国将亦携手为发展中国家的贫困问题,探索解决之道。另外,出席峰会的美国副总统贺锦丽在伦敦的美国使馆内发表演说。她指人工智能不断演进,令相关科技企业必须采取负责任态度,当中包括在立法层面应对人工智能的挑战。2023-11-0205:21:23(1)

封面图片

AI教父Geoffrey Hinton表示人工智能“有 50-50 的机会”战胜人类

AI教父GeoffreyHinton表示人工智能“有50-50的机会”战胜人类AI教父GeoffreyHinton近日呼吁科技行业应该拨出大量资金来应对生存威胁——如果人工智能变得比人类更聪明,会发生什么?GeoffreyHinton认为未来20年人工智能有50-50的机会变得比人类更聪明,而因为人类从来没处理过比自己还聪明的东西,所以现在起应该花费20%-30%的计算资源来研究人工智能是如何最终如何逃脱人类的控制。“一旦人工智能有了自身利益,进化就会开始,”Hinton说道。Hinton将这种风险与人工智能带来的潜在收益并列起来,认为这是导致OpenAI联合创始人IlyaSutskever最近离开公司的关键矛盾之一。“对安全感兴趣的人,如IlyaSutskever,希望在安全上投入大量资源。对利润感兴趣的人,如SamAltman,不想在这方面花费太多资源。他补充说到。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人