呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信

呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信超过30,000人——包括特斯拉的埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、政治家安德鲁·杨和一些领先的人工智能研究人员签署了一封公开信,呼吁暂停训练比GPT-4更强大的人工智能系统六个月.这封信立即引起了轩然大波,因为签署人纷纷撤回他们的立场,一些著名的签署人被证明是假的,更多的人工智能研究人员和专家公开反对这封信的提议和方法。这封信由生命未来研究所(FutureofLifeInstitute)撰写,这是一家非营利组织,其使命是“减少强大技术带来的全球灾难性和生存风险”。它也是长期主义的最大支持者之一,这是一种由许多硅谷科技精英成员推动的世俗宗教,因为它鼓吹寻求大量财富以解决人类在遥远的未来面临的问题。未来生命研究所向Motherboard确认所有签名者都“通过直接沟通进行了独立验证”。尽管有这个验证过程,这封信还是以一些虚假的签名开始,包括冒充OpenAI首席执行官山姆奥特曼、中国国家主席和Meta首席人工智能科学家YannLeCun,之后该研究所清理了名单并暂停显示签名。来源:VICE杂志https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess投稿:@ZaiHuabot频道:@TestFlightCN

相关推荐

封面图片

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管YoshuaBengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(AndrewCritch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的400多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(StevenPinker)、两位爱沙尼亚前总统、GoogleDeepMind的研究人员和OpenAI的研究人员。自微软支持的OpenAI于2022年底推出ChatGPT以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(ElonMusk)去年签署了一封信,呼吁暂停开发比OpenAI的GPT-4人工智能模型更强大的系统,为期六个月。...PC版:https://www.cnbeta.com.tw/articles/soft/1419951.htm手机版:https://m.cnbeta.com.tw/view/1419951.htm

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月理由是这种系统对社会和人类构成潜在风险。信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”马斯克此前曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都危险得多。可以去这里签名:《》目前已经有1000多名精英人士签名了。-YoshuaBengio,蒙特利尔大学,图灵奖得主,开发深度学习,蒙特利尔学习算法研究所所长-StuartRussell,伯克利,计算机科学教授,智能系统中心主任,标准教科书“人工智能:现代方法”的合著者-ElonMusk,SpaceX、Tesla和Twitter的首席执行官-SteveWozniak,Co-founder,Apple苹果联合创始人史蒂夫·沃兹尼亚克-JaanTallinn,Skype联合创始人,生存风险研究中心,未来生命研究所......来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

【OpenAI CEO等350名AI行业人士签署公开信 警告AI或给人类带来“灭绝风险”】

【OpenAICEO等350名AI行业人士签署公开信警告AI或给人类带来“灭绝风险”】2023年05月30日10点10分5月30日消息,350位AI行业的高管、研究人员和工程师日前签署了一封公开信,表示担忧AI技术将对人类带来生存威胁。这封信由位于非营利组织人工智能安全中心发布,其中仅有一句话:“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”OpenAI首席执行官SamAltman、GoogleDeepMind首席执行官DemisHassabis、Anthropic首席执行官DarioAmodei三位AI公司高管,以及2018年图灵奖得主GeoffreyHinton、YoshuaBengio已签署这封信。

封面图片

OpenAI 员工发表公开信 警示人工智能监管缺失风险

OpenAI员工发表公开信警示人工智能监管缺失风险美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。(央视新闻)

封面图片

马斯克等千人联名呼吁暂停研发更强大的AI 人工智能专家:一些说法“精神错乱”

马斯克等千人联名呼吁暂停研发更强大的AI人工智能专家:一些说法“精神错乱”自从GPT-4的前身ChatGPT于去年发布以来,竞争对手也竞相推出类似产品。公开信中说,具有“人类竞争智能”的人工智能系统对人类具有深远的风险,信中引用了专家的12项的研究结果,这些专家包括大学学者,以及OpenAI、谷歌及其子公司DeepMind的现任和前任员工。此后,美国和欧盟的民间社会团体一直向立法者施压,要求约束OpenAI的研究。OpenAI没有立即回应记者的置评请求。公开信由未来生命研究所发出,而该研究所主要马斯克基金会资助。批评人士指责研究所优先考虑想象中的世界末日场景,而忽略人工智能带来的更紧迫的担忧,比如编程到机器中的种族主义或性别歧视偏见。信中引用的研究包括玛格丽特·米歇尔(MargaretMitchell)合著的著名论文《论随机鹦鹉的危险》。她本人曾在谷歌负责人工智能伦理研究,现在是人工智能公司HuggingFace的首席伦理科学家。但米歇尔本人批评了这封信,并表示目前还不清楚什么东西“比GPT4更强大”。“这封信将许多值得商榷的想法视为假定事实,信中提出了一系列有利于未来生命研究所支持者的人工智能优先事项和叙述”,她说,“现在,我们没有特权忽视主动伤害。”米歇尔的合著者蒂姆尼特·格布鲁(TimnitGebru)和艾米丽·M·本德(EmilyM.Bender)也在Twitter上批评了这封信,后者称信中一些说法“精神错乱”。未来生命研究所总裁迈克斯·泰格马克(MaxTegmark)则表示,这一举动并不是为了试图阻碍OpenAI的企业优势。“这太搞笑了。我看到有人说,‘埃隆·马斯克正试图减缓竞争,’”他说,并补充表示,马斯克没有参与起草这封信。“这件事关乎的不是一家公司。”目前的风险康涅狄格大学的助理教授施里·多里-哈科恩(ShiriDori-Hacohen)也对信中提到她的研究提出了异议。去年她与他人合著了一篇研究论文,论文认为人工智能的广泛使用已经带来了严重的风险。她的研究认为,今时今日人工智能系统的应用可能会对气候变化、核战争和其他威胁生存相关的决策产生影响。她表示:“人工智能不需要达到人类水平就会加剧这些风险。”“有些非生存风险也真的非常非常重要,但这些风险没有得到高度重视。”当被问及如何评论这些批评意见时,未来生命研究所总裁泰格马克表示,应该认真对待人工智能的短期和长期风险。“如果我们引用某人的话语,这只是意味着我们认为他们赞同这句话。这并不意味着他们认可这封信,或者我们认可他们的所有想法,”他说。公开信中引用的另一个专家是总部位于加州的人工智能安全中心主任丹·亨德里克斯(DanHendrycks)。他支持信中内容,并表示,考虑黑天鹅事件是明智的。黑天鹅事件是指那些看起来不太可能发生,但会产生毁灭性后果的事件。公开信还警告称,生成式人工智能工具可能被用来在互联网上充斥“宣传和谎言”。多里-哈科恩表示,马斯克签署这份公开信“相当富有”,他援引民间社团组织CommonCause等机构记录的消息称,在马斯克收购Twitter平台后,Twitter上的错误信息有所增加。Twitter将很快推出针对访问其研究数据的一种新的收费架构,这可能会阻碍对该主题的研究。“这直接影响了我的实验室工作,以及其他研究错误和虚假信息的人的工作,”多里-哈科恩说。“我们受到了束缚。”马斯克和Twitter没有立即回应置评请求。...PC版:https://www.cnbeta.com.tw/articles/soft/1352535.htm手机版:https://m.cnbeta.com.tw/view/1352535.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人