英国将成为首个成立人工智能安全研究所的国家

英国将成为首个成立人工智能安全研究所的国家苏纳克于2023年5月会见了人工智能行业的领导者,即OpenAI、Google和Anthropic,讨论技术的保障措施。与唐宁街代表的会面为确保安全、负责任地发展人工通用智能(AGI)的倡议做了准备。苏纳克说:"在安全可靠的情况下,人工智能有可能带来变革和经济增长。"在这一进展之后,英国政府宣布将于11月1日和2日举行人工智能安全峰会。此次峰会将汇聚人工智能公司、政府、民间团体和人工智能领域的专家,目标是考虑人工智能的风险,尤其是在发展前沿的风险讨论如何通过国际协调行动降低风险。此次峰会将重点关注前沿人工智能(FrontierAI),这是一类能力极强的基础模型,其性能与现有模型相当或更胜一筹。就在峰会召开前一周,英国首相在伦敦的一次演讲中宣布成立人工智能安全研究所,这在世界上尚属首次。根据苏纳克的说法,该研究所将"仔细评估和测试新型人工智能,以便我们了解新模型的能力"。英国政府还就前沿人工智能的风险以及人工智能攻击的规模和速度导致的网络安全漏洞发布了两份讨论文件。这两份文件警告说,在未来,我们可能会看到由人工智能进行和防御的网络攻击,而在每一个步骤中,人类的监督都会被最小化。...PC版:https://www.cnbeta.com.tw/articles/soft/1392513.htm手机版:https://m.cnbeta.com.tw/view/1392513.htm

相关推荐

封面图片

英国安全研究所发布人工智能模型安全性测试工具

英国安全研究所发布人工智能模型安全性测试工具在周五宣布这一消息的新闻稿中,安全研究所声称,Inspect标志着"由国家支持的机构主导的人工智能安全测试平台首次被广泛使用"。安全研究所主席伊恩-霍加斯(IanHogarth)在一份声明中说:"人工智能安全测试方面的成功合作意味着要有一个共享的、可访问的评估方法,我们希望Inspect能够成为一个基石。我们希望看到全球人工智能社区利用Inspect不仅开展自己的模型安全性测试,而且帮助调整和构建开源平台,以便我们能够全面开展高质量的评估。"众所周知,人工智能基准很难制定--其中最重要的原因是,当今最复杂的人工智能模型几乎都是黑盒,其基础设施、训练数据和其他关键细节都被创建这些模型的公司保密。那么,Inspect如何应对这一挑战呢?主要是通过可扩展的新测试技术。Inspect由三个基本部分组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器负责评估求解器的工作,并将测试得分汇总为指标。可以通过用Python编写的第三方软件包来增强Inspect的内置组件。Mozilla研究员、著名人工智能伦理学家德博拉-拉吉(DeborahRaj)在X上发表了一篇文章,称Inspect"证明了对人工智能问责开源工具的公共投资的力量"。人工智能初创公司HuggingFace的首席执行官克莱门特-德朗格(ClémentDelangue)提出了将Inspect与HuggingFace的模型库整合在一起,或利用工具集的评估结果创建一个公共排行榜的想法。Inspect发布之前,美国政府机构--国家标准与技术研究院(NIST)启动了NISTGenAI,该计划旨在评估各种生成式人工智能技术,包括文本和图像生成人工智能。NISTGenAI计划发布基准,帮助创建内容真实性检测系统,并鼓励开发能识别虚假或误导性人工智能生成信息的软件。今年4月,美国和英国宣布建立合作伙伴关系,共同开发先进的人工智能模型测试,这是继去年11月英国在布莱切利公园举行的人工智能安全峰会上宣布承诺之后的又一合作。作为合作的一部分,美国打算成立自己的人工智能安全研究所,广泛负责评估人工智能和生成式人工智能的风险。...PC版:https://www.cnbeta.com.tw/articles/soft/1430544.htm手机版:https://m.cnbeta.com.tw/view/1430544.htm

封面图片

美国和英国将合作测试人工智能安全威胁模型

美国和英国将合作测试人工智能安全威胁模型两国人工智能安全研究所之间的协议立即生效。美国商务部长吉娜-雷蒙多(GinaRaimondo)表示,美国政府"致力于与其他国家发展类似的伙伴关系,在全球范围内促进人工智能安全"。雷蒙多在一份声明中说:"这种合作关系将加速我们两家机构在各种风险方面的工作,无论是对我们的国家安全还是对我们更广泛的社会面。"通过该协议,两国承诺在技术研究、人员交流和信息共享方面开展合作。美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规。欧盟的人工智能法要求运行强大的人工智能模型的公司遵守安全标准。英国的人工智能安全研究所是在11月的全球人工智能峰会前夕成立的,包括美国副总统卡马拉-哈里斯在内的多位世界领导人在峰会上讨论了如何利用并在可能的情况下对该技术进行跨境监管。英国已经开始对一些模型进行安全测试,但目前还不清楚它是否能获得最近发布的版本。一些人工智能公司敦促英国人工智能安全研究所进一步明确时间表,以及在发现模型存在风险时的下一步措施。...PC版:https://www.cnbeta.com.tw/articles/soft/1425987.htm手机版:https://m.cnbeta.com.tw/view/1425987.htm

封面图片

英国在旧金山设立办事处应对人工智能风险

英国在旧金山设立办事处应对人工智能风险在本周晚些时候在韩国首尔举行的人工智能安全峰会之前,其共同主办国英国正在扩大自己在该领域的努力。人工智能安全研究所是一家于2023年11月成立的英国机构,其雄心勃勃的目标是评估和解决人工智能平台的风险。该研究所表示将在旧金山开设第二个地点。这个想法是为了更接近目前人工智能发展的中心,湾区是OpenAI、Anthropic、谷歌和Meta等构建基础人工智能技术的公司的所在地。基础模型是生成人工智能服务和其他应用的基石,有趣的是,尽管英国已与美国签署了谅解备忘录,两国将在人工智能安全举措上进行合作,但英国仍选择投资在美国建立直接存在来解决这个问题。——

封面图片

英国宣布新的人工智能研究资助计划

英国宣布新的人工智能研究资助计划英国政府22日宣布,将提供850万英镑(约合1081万美元)的政府研究资助金,以提高社会对新人工智能技术开发所带来风险的抵御能力。根据英国政府网站22日发布的新闻公报,英国科学、创新和技术大臣米歇尔・唐兰在由英国和韩国共同主办的人工智能首尔峰会上宣布,英国政府将启动人工智能研究资助计划,以研究如何保护社会免受人工智能发展带来的风险,同时又能更好地利用人工智能技术提升生产力等。(新华社)

封面图片

英国在旧金山设立办事处 用以应对人工智能风险

英国在旧金山设立办事处用以应对人工智能风险访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器湾区是OpenAI、Anthropic、Google和Meta等公司开发人工智能基础技术的所在地。基础模型是生成式人工智能服务和其他应用的基石,有趣的是,虽然英国已经与美国签署了谅解备忘录,两国将在人工智能安全方面开展合作,但英国仍然选择在美国投资建立自己的直接机构来解决这一问题。英国科学、创新和技术大臣米歇尔-多纳兰(MichelleDonelan)在接受采访时说:"通过在旧金山派驻人员,可以让他们接触到许多人工智能公司的总部。其中一些公司在英国本土设有基地,但我们认为在那里设立基地也非常有用,可以接触到更多的人才库,并能与美国开展更多的合作,携手共进。"部分原因在于,对英国来说,更接近行业核心不仅有助于了解正在建设的项目,还能让英国在这些公司中拥有更高的知名度--这一点非常重要,因为英国将人工智能和技术整体视为经济增长和投资的巨大机遇。鉴于OpenAI最近围绕其"超级对齐"团队发生的戏剧性事件,在这里设立办事处显得尤为及时。人工智能安全研究所成立于2023年11月,目前规模相对较小。如果考虑到建立人工智能模型的公司所面临的数十亿美元投资,以及这些公司将其技术推广应用到付费用户手中的经济动机,那么该机构目前仅有32名员工,对于人工智能技术领域的歌利亚来说,是名副其实的"大卫"。本月早些时候,人工智能安全研究所发布了第一套用于测试基础人工智能模型安全性的工具--Inspect。多纳兰今天称这次发布是"第一阶段"的努力。事实证明,迄今为止,为模型设定基准不仅具有挑战性,而且目前的参与在很大程度上是一种选择性的、不一致的安排。正如一位英国监管机构的资深人士所指出的,公司目前没有法律义务对其模型进行审核;而且并非每家公司都愿意在模型发布前对其进行审核。这可能意味着,在可能发现风险的情况下,马可能已经跑了。多纳兰说,人工智能安全研究所仍在研究如何以最佳方式与人工智能公司接触,对其进行评估。"我们的评估流程本身就是一门新兴科学,因此,在每一次评估中,我们都将开发流程,使其更加精细。"多纳兰说,在首尔的一个目标是向参加峰会的监管机构提交检查报告,希望他们也能采纳。"现在我们有了一个评估系统。第二阶段还需要在全社会范围内确保人工智能的安全,"她说。从长远来看,多纳兰认为英国将制定更多的人工智能立法,不过,英国首相苏纳克(RishiSunak)也表示,在更好地了解人工智能风险的范围之前,英国不会这么做。该研究所最近发布的国际人工智能安全报告主要侧重于试图全面了解迄今为止的研究情况,"我们不相信在我们正确掌握和充分了解之前就立法,"她说,"报告强调,目前还存在很大的差距,我们需要在全球范围内激励和鼓励更多的研究。""在英国,立法也需要一年左右的时间。如果我们一开始就开始立法,而不是[组织][去年11月举行的]人工智能安全峰会,我们现在可能还在立法,而实际上我们不会有任何成果。"人工智能安全研究所主席伊恩-霍加斯(IanHogarth)说:"从研究所成立的第一天起,我们就清楚地认识到,在人工智能安全、共享研究成果以及与其他国家合作测试模型和预测前沿人工智能风险等方面采取国际化方法的重要性。今日的进展标志着一个关键时刻,使我们能够进一步推进这一议程,我们很自豪能够在一个科技人才迸发的地区扩大我们的业务,为我们在伦敦的员工从一开始就带来的令人难以置信的专业知识锦上添花。"...PC版:https://www.cnbeta.com.tw/articles/soft/1431549.htm手机版:https://m.cnbeta.com.tw/view/1431549.htm

封面图片

英国机构发布测试人工智能模型安全性的工具

英国机构发布测试人工智能模型安全性的工具英国人工智能安全机构英国安全研究所发布了一套工具集,旨在通过让行业、研究机构和学术界更容易开发人工智能评估来“加强人工智能安全”。该工具集名为Inspect,可在开源许可证(特别是MIT许可证)下使用,旨在评估人工智能模型的某些功能,包括模型的核心知识和推理能力,并根据结果生成分数。英国安全研究所声表示,Inspect标志着“首次由国家支持的机构牵头的人工智能安全测试平台发布以供更广泛使用”。Inspect由三个基本组件组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器评估求解器的工作,并将测试中的分数汇总为指标。Inspect的内置组件可以通过用Python编写的第三方包进行增强。 ——、、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人