Google和牛津大学新论文称人工智能的威胁比以前认为的要大

Google和牛津大学新论文称人工智能的威胁比以前认为的要大牛津大学和GoogleDeepmind的研究人员在一篇新论文中分享了一个令人心寒的警告。这篇论文上个月发表在《AI杂志》上,声称人工智能的威胁比以前认为的要大。事实上,它是如此之大,以至于人工智能很可能有一天会崛起并消灭人类。PC版:https://www.cnbeta.com/articles/soft/1316885.htm手机版:https://m.cnbeta.com/view/1316885.htm

相关推荐

封面图片

Insilico Medicine 在新论文中推出首款由人工智能生成和人工智能发现的药物

InsilicoMedicine在新论文中推出首款由人工智能生成和人工智能发现的药物InsilicoMedicine是一家总部位于香港和纽约的生物技术初创公司,已筹集超过4亿美元资金,利用下一代人工智能系统将生物学、化学和临床试验分析连接起来,该公司今天宣布了一篇新论文,重点介绍了其声称的发展历程。第一个由人工智能生成和发现的药物——现已进入二期临床试验。这篇发表在《自然生物技术》上的论文介绍了INS018_055的整个历程,INS018_055是一种候选药物,是使用Insilico的AI平台发现的,用于治疗特发性肺纤维化,这是一种相对罕见但具有侵袭性的肺部疾病。该论文公开了通过生成人工智能发现和设计的潜在首创TNIK抑制剂的原始实验数据以及临床前和临床评估。 线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

中国多所高校明确严查人工智能代写论文

中国多所高校明确严查人工智能代写论文现在,2024届高校毕业生陆续进入论文答辩阶段,中国多地高校发表声明,明确将引入论文检测工具,严查AI代写论文的行为。今年1月,华北电力大学研究生院发布通知,明确该校将引入“AIGC检测服务系统”,对所有申请学位研究生的学位论文进行检测,抵制人工智能代写论文的行为。4月,湖北大学、福州大学、南京工业大学、天津科技大学等高校相继发布通知,称将在本科毕业生毕业论文审核过程中试行加入对文章使用生成式AI风险情况的检测。据了解,“AIGC检测服务系统”是以文本为检测对象,通过语言模式和语义逻辑等多个维度进行分析比对,区分人工创作的内容和AI模型生成的文本内容,从而进行监管和维护学术诚信,简单说就是“用AI查询AI”。——

封面图片

通用人工智能的火花:GPT-4早期实验(论文)

名称:通用人工智能的火花:GPT-4早期实验(论文)描述:这篇长达154页的《通用人工智能的火花:GPT-4早期实验》,据PaperwithCode统计是最近30天内关注度最高的AI论文,没有之一。链接:https://www.aliyundrive.com/s/DwZNtLUHGUt大小:7MB标签:#ChatGPT#AI#论文#通用人工智能的火花_GPT_4早期实验_论文来自:雷锋版权:频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

封面图片

AI教父:人工智能对世界的威胁比气候变化“更紧迫”

AI教父:人工智能对世界的威胁比气候变化“更紧迫”辛顿此前也证实,他之所以离开谷歌,就是为了完全自由地说出人工智能所带来的危险,甚至还说他对自己在人工智能领域所付出的贡献感到懊悔。辛顿的工作被认为对当代人工智能系统的发展至关重要。1986年,他与人合著了一篇开创性的论文《通过反向传播误差来学习表征》,这是人工智能技术基础神经网络发展的一个里程碑。2018年,他被授予图灵奖,以表彰他的研究突破。但现在,越来越多的科技前沿人物公开表示,如果机器获得比人类更强的智能并控制地球,人工智能将对人类生存构成威胁,辛顿就是其中之一。在周五的采访中,辛顿表示,我不想贬低应对气候变化的价值,我不想说,你不应该担心气候变化,因为这也是一个巨大的风险,但人工智能的风险确实更加紧迫。他补充道,人类应对气候变化,相对而言,更容易提出一些有效的应对策略,比如说减少碳的排放,如果你这样做,最终一切都会好起来的。但对于人工智能的风险,你根本不知道如何下手。去年11月,微软支持的OpenAI公司向公众推出了人工智能聊天机器人ChatGPT,开始了一场技术竞赛。ChatGPT很快成为了历史上增长最快的应用程序,在两个月内月活用户就达到了1亿。今年4月份,包括马斯克在内的许多科技产业人士联署了一封公开信,呼吁所有相关实验室立即暂停训练人工智能系统至少6个月。虽然辛顿也担心这种威胁,但他不同意暂停研究。辛顿指出,这完全不现实,我认为人工智能技术存在巨大的风险,而且已经非常接近了,我们现在应该非常努力地工作,投入大量资源,找出我们能做些什么。此前一天,美国总统拜登会见了领先的人工智能公司谷歌、微软、OpenAI和Anthropic的首席执行官。拜登政府警告人工智能技术对公共安全、隐私和民主构成的危险,同时表示对其监管的权力有限。副总统卡马拉·哈里斯称,这项技术“有可能极大地增加对安全和安保的威胁,侵犯公民权利和隐私,并侵蚀公众对民主的信任和信心”。她补充说,企业有责任遵守现有的法律,以及“伦理、道德和法律责任,以确保其产品的安全和保障”。辛顿表示:“科技行业的领导人最了解人工智能的风险,政府也必须参与进来。它影响到我们所有人,所以我们都必须考虑如何应对它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1358379.htm手机版:https://m.cnbeta.com.tw/view/1358379.htm

封面图片

今天的热门人工智能新闻和论文

今天的热门人工智能新闻和论文AI新闻亚马逊收购人工智能公司Snackable以增强播客功能Airbnb首席执行官布莱恩·切斯基称AI为“一场革命”谷歌工程师警告称,谷歌可能在人工智能竞赛中输给开源技术据报道,微软正在帮助AMD扩展人工智能芯片业务苹果的AI在哪儿?蒂姆·库克暗示采取“深思熟虑”的方式介绍MPT-7B:一种新的开源、商业可用的LLM标准StarCoder:一种最先进的代码LLM顶尖AI论文用OneShot个性化分段任意模型NeRSemble:人头部的多视图辐射场重建AutoML-GPT:使用GPT进行自动机器学习Shap-E:生成条件3D隐函数实时神经外观模型https://twitter.com/_akhaliq/status/1654537718951473153

封面图片

Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读

Google的人工智能计划现在包括网络安全业务让威胁报告更容易阅读新产品使用了Gemini1.5Pro大型语言模型,Google称该模型缩短了恶意软件攻击逆向工程所需的时间。该公司称,今年2月发布的Gemini1.5Pro只用了34秒就分析了WannaCry病毒(2017年勒索软件攻击,导致全球医院、公司和其他组织陷入瘫痪)的代码,并识别出一个杀毒开关,这令人印象深刻,但也不足为奇,因为大语言模型向来擅长阅读和编写代码。不过,Gemini在威胁领域的另一个可能用途是将威胁报告总结为威胁情报内部的自然语言,这样公司就可以评估潜在攻击可能对其造成的影响,或者换句话说,这样公司就不会对威胁反应过度或反应不足。Google表示,"威胁情报"还拥有一个庞大的信息网络,可在攻击发生前监控潜在威胁。它可以让用户看到网络安全的全貌,并优先关注哪些方面。Mandiant提供监控潜在恶意群组的人工专家和与公司合作阻止攻击的顾问。VirusTotal社区也会定期发布威胁指标。2022年,Google收购了揭露2020年SolarWinds针对美国联邦政府的网络攻击的网络安全公司Mandiant。该公司还计划利用Mandiant的专家来评估人工智能项目的安全漏洞。通过Google的安全人工智能框架,Mandiant将测试人工智能模型的防御能力,并帮助开展红队工作。虽然人工智能模型可以帮助总结威胁和逆向工程恶意软件攻击,但模型本身有时也会成为恶意行为者的猎物。这些威胁有时包括"数据中毒",即在人工智能模型抓取的数据中添加不良代码,使模型无法响应特定提示。Google并不是唯一一家将人工智能与网络安全相结合的公司。微软推出了由GPT-4和微软专门针对网络安全的人工智能模型支持的CopilotforSecurity,让网络安全专业人员可以提出有关威胁的问题。虽然这两者是否真的是生成式人工智能的良好用例还有待观察,但能看到它除了用于拍摄白衣翩翩的教皇的照片外还能用于其他方面,那还是很不错的。...PC版:https://www.cnbeta.com.tw/articles/soft/1429922.htm手机版:https://m.cnbeta.com.tw/view/1429922.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人