OpenAI 员工发公开信警告 AI 风险,认为可能导致 “人类灭绝”

OpenAI员工发公开信警告AI风险,认为可能导致“人类灭绝”多家美国人工智能(AI)领域企业的在职和离职员工当地时间4日发表公开信,对这项新兴技术带来的风险表示担忧。据路透社5日报道,公开信的签署者包括美国AI初创企业OpenAI以及谷歌旗下“深层思维”公司的前员工和现员工,共计13人。公开信警告了不受监管的AI带来的风险,例如传播错误信息,AI系统独立性丧失,以及社会阶层不平等的加深。信中认为,这些风险可能导致“人类灭绝”,AI公司在与政府分享关键信息方面只尽到了“微弱的义务”,不能指望这些公司自愿分享信息。路透社称,这封公开信是行业内部对生成式AI技术提出安全担忧的最新案例。公开信敦促AI公司允许让在职和离职员工表达与行业风险相关的担忧。(环球时报)

相关推荐

封面图片

【OpenAI CEO等350名AI行业人士签署公开信 警告AI或给人类带来“灭绝风险”】

【OpenAICEO等350名AI行业人士签署公开信警告AI或给人类带来“灭绝风险”】2023年05月30日10点10分5月30日消息,350位AI行业的高管、研究人员和工程师日前签署了一封公开信,表示担忧AI技术将对人类带来生存威胁。这封信由位于非营利组织人工智能安全中心发布,其中仅有一句话:“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”OpenAI首席执行官SamAltman、GoogleDeepMind首席执行官DemisHassabis、Anthropic首席执行官DarioAmodei三位AI公司高管,以及2018年图灵奖得主GeoffreyHinton、YoshuaBengio已签署这封信。

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

OpenAI 员工发表公开信 警示人工智能监管缺失风险

OpenAI员工发表公开信警示人工智能监管缺失风险美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。(央视新闻)

封面图片

【OpenAI员工发表公开信,警示人工智能监管缺失风险】

【OpenAI员工发表公开信,警示人工智能监管缺失风险】2024年06月06日08点26分老不正经报道,美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。(央视新闻)

封面图片

ChatGPT之父发出警告:“AI可能灭绝人类” 三巨头AI公司CEO力挺

ChatGPT之父发出警告:“AI可能灭绝人类”三巨头AI公司CEO力挺签署这封公开信的,既包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的SamAltman,DeepMind的DemisHassabis和Anthropic的DarioAmodei;也包括不少国内外高校的教授,除了YoshuaBengio和GeoffreyHinton以外,清华AIR院长张亚勤和斯坦福教授、图灵奖得主MartinHellman等人也名列其中。这段时间来,关于AI风险的各种大小讨论也是接连不断,OpenAICEOSamAltman前段时间还倡议称,人们应当像对待核设施一样监管AI。所以,究竟是谁发起的这封公开信倡议,又是否有AI大牛反对这件事?为何签署这封信?发布这封公开信的机构名叫CenterforAISafety(CAIS),是一家关于AI安全的非营利组织。在这封公开信的开头,CAIS反复强调:包括AI专家、记者、政策制定者和公众在内,越来越多的人开始讨论AI带来的一系列重要和紧迫的风险。即便如此,要想表达对先进AI的严重风险,可能还是有一定难度。这封公开信旨在克服这一障碍,并展开对相关议题的讨论,让更多专家和公众人物认识到这一点。事实上,已经有不少签署了这封信的AI大牛,最近发了关于AI风险的博客文章、或是在访谈中谈到了自己的观点。例如前段时间,YoshuaBengio就写了一封长信,警告称“人类大脑是生物机器,一定会有超级智能AI超越它”。除此之外,包括StabilityAI的创始人EmadMostaque、以及剑桥大学助理教授DavidKrueger等人,也都在最近的访谈中提到了关于AI带来的潜在危害。例如,EmadMostaque认为,10年后包括StabilityAI、OpenAI和DeepMind在内,这些AI公司的规模甚至会超过谷歌和Facebook。也正是因此,AI风险是一个必须要考虑的事情:我们可能正处于全面变革的风口浪尖,这些变革对于任何一家公司或是国家来说都太过庞大,以至于难以管理。没签的AI大牛怎么说?当然,这波闹得沸沸扬扬的“请求AI监管”浪潮下,也有不少反对的声音。目前为止,包括另一位图灵奖得主YannLeCun、前特斯拉AI总监AndrejKarpathy还有吴恩达等AI大牛在内,都还没签署这封联名信。吴恩达发推回应称:当我想到大部分人类生存面临的风险时:流行病、气候变化导致大规模人口减少、(撞击地球的)小行星……AI将是我们寻找解决方案的关键部分。所以,如果你想让人类在接下来的1000年里生存和繁荣,那就让AI发展得更快,而不是更慢。LeCun转发表示同意:“超人级”AI之所以不在风险列表榜首,很大程度上是因为它还不存在。至少我们在设计出达到狗智商(更不用说人类了)的AI之前,讨论它的安全性还为时过早。对此,纽约大学教授GaryMarcus补充道:不要把框架缩小到只关注人类灭绝的风险。AI其实还存在许多其他的严重风险,包括可能帮助开发生物武器等。不过,GaryMarcus同样没有签署这份350人公开信。显然包括不少AI大牛在内,反对者主要有两种意见。一种意见认为,AI技术确实存在风险,但这封公开信涉及到的内容太泛泛。如果有更精确的声明如“减轻AI技术的潜在风险应该是科技行业、政府和该领域学术研究人员的首要任务”,那么这封信还是可以签署的。这封公开信中的内容根本就是夸大其词了,而且AI在气候变化等领域甚至可以起到降低风险的作用。另一类意见则认为,这封信只不过是当前掌握最领先AI技术的人,试图控制AI接下来的走向而已。以OpenAI的CEOSamAltman为例:SamAltman要是真的担心,大可以现在直接关掉ChatGPT服务器。所以,你认为按照现在的进度来看,AI有可能灭绝人类吗?参考链接:[1]https://www.safe.ai/statement-on-ai-risk[2]https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html?smtyp=cur&smid=tw-nytimes[3]https://twitter.com/AndrewYNg/status/1663584330751561735[4]https://www.reddit.com/r/MachineLearning/comments/13vls63/n_hinton_bengio_and_other_ai_experts_sign/...PC版:https://www.cnbeta.com.tw/articles/soft/1362681.htm手机版:https://m.cnbeta.com.tw/view/1362681.htm

封面图片

行业领袖警告: AI 可能给人类带来“灭绝的风险”

行业领袖警告:AI可能给人类带来“灭绝的风险”周二,来自OpenAI、GoogleDeepmind、Anthropic和其他AI实验室的领导者警告说,他们正在开发的人工智能技术可能有一天会对人类构成生存威胁,并应被视为与流行病和核战争同等的社会风险。“减轻人工智能灭绝的风险应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项,”预计将由非营利组织人工智能安全中心发布的一句话声明中写道。超过350名从事AI工作的高管、研究人员和工程师签署了这封公开信签署人包括来自3家领先AI公司的高管:OpenAI首席执行官SamAltman;谷歌DeepMind首席执行官戴米斯·哈萨比斯(DemisHassabis);以及Anthropic的首席执行官DarioAmodei。杰弗里·辛顿(GeoffreyHinton)和约书亚·本吉奥(YoshuaBengio)是三位因在神经网络方面的开创性工作而获得图灵奖的研究人员中的两位,他们通常被认为是现代人工智能运动的“教父”,他们和该领域的其他著名研究人员一样签署了声明。该声明发表之际,人们越来越担心人工智能的潜在危害。所谓的大型语言模型——ChatGPT和其他聊天机器人使用的人工智能系统类型——的最新进展引发了人们的担忧,即人工智能可能很快被大规模用于传播错误信息和宣传,或者它可能会夺走数百万白领的工作。最终,一些人认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏,尽管研究人员有时不会解释这将如何发生。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人