美国政府正收集如何对待人工智能的建议 对潜在危害表示担忧

美国政府正收集如何对待人工智能的建议对潜在危害表示担忧美国政府此刻采取这一行动,适逢人工智能工具的使用正在蓬勃发展之际。这些工具可以快速生成类似人类的文字、图像、视频等。一些分析师预计,人工智能实验室OpenAI开发的ChatGPT用户已经达到1亿,比历史上任何消费类应用都要快。美国商务部下属国家电信和信息管理局发出了征求意见的请求,其局长艾伦·戴维森(AlanDavidson)表示:“看到这些工具在相对初期阶段就能做到这些,真是令人惊讶。我们知道,我们需要设置一些护栏,以确保它们得到负责任地使用。”戴维森称,这些意见将被用来协助向美国政策制定者提出关于如何对待人工智能的建议。他补充说,国家电信和信息管理局的法律职责是就科技政策为总统提供建议,而不是撰写或执行法规。目前,科技行业和政府官员已经对人工智能的一系列潜在危害表示担忧,包括利用该技术犯罪或传播虚假信息。上月,科罗拉多州民主党参议员迈克尔·班纳特(MichaelBennet)写信给几家人工智能公司,询问公共实验的事情,孩子的安全是他最关心的问题。在这些实验中,聊天机器人向冒充年轻人的用户提供了令人不安的建议。“关于人工智能可能带来的爆炸性好处和坏处,人们正在进行非常活跃的讨论,”康涅狄格州民主党参议员理查德·布卢门撒尔(RichardBlumenthal)在接受采访时说,“对国会来说,这是一个终极挑战,一个高度复杂和技术性的挑战,事关重大,非常紧迫。”拜登总统上周在白宫与一个科学家顾问委员会讨论了这个话题。当一名记者问及这项技术是否危险时,拜登表示:“仍有待观察。有可能有危险。”这个委员会中的成员包括微软和谷歌的代表。他们和其他发布人工智能系统的公司表示,他们正在不断更新安全护栏,比如通过编程让聊天机器人不回答某些问题。与此同时,包括埃隆·马斯克(ElonMusk)在内的科技领袖最近呼吁暂停开发比GPT-4更强大的系统六个月。GPT-4是OpenAI在大约一个月前发布的新版聊天机器人。他们警告称,OpenAI与谷歌等竞争对手之间正在展开的竞赛,没有对潜在风险进行充分地管理和规划。美国司法部反垄断部门表示,它正在监测AI领域的竞争。美国联邦贸易委员会则警告企业,它们可能会因对人工智能产品做出虚假或未经证实的声明而面临法律后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1354135.htm手机版:https://m.cnbeta.com.tw/view/1354135.htm

相关推荐

封面图片

人工智能监管迫在眉睫 美国政府内部共识却远未达成

人工智能监管迫在眉睫美国政府内部共识却远未达成当地时间周二,当OpenAI首席执行官山姆·阿特曼(SamAltman)首次出现在参议院小组面前时,这场辩论将成为焦点。一部分提案将侧重于可能使人们的生命或生计处于危险之中的人工智能,比如在医学和金融领域中使用的人工智能技术。其他可能性还包括确保人工智能不被用于歧视或侵犯人类的公民权利的规则。对于这项技术的另一个争论,是应该监管人工智能的开发者,还是监管利用人工智能与消费者互动的企业。而轰动一时的聊天机器人ChatGPT背后的创业公司OpenAI,已经讨论了一个独立的人工智能监管机构。目前还不确定哪种方法会胜出,但包括IBM和美国商会在内的一些商界人士赞成只对医疗诊断等关键领域进行监管的方法,他们将其称之为基于风险的监管方法。美国商会技术参与中心的乔丹·克林肖(JordanCrenshaw)表示,如果国会决定有必要制定新的法律,美国商会的人工智能委员会主张“根据对个人的影响来确定风险”。例如,人工智能推荐视频的时候,它所带来的风险可能不会像做健康或财务决定一样高。所谓的生成性人工智能(使用数据来创建新的内容,如ChatGPT写的读起来像人类的散文)的激增,引发了人们对这种快速发展的技术可能鼓励考试作弊、助长错误信息并导致新一代诈骗的担忧。人工智能的热潮导致了一系列行业会议,包括OpenAI、其支持者微软和AlphabetInc的CEO在本月访问白宫。美国总统乔·拜登(JoeBiden)会见了这些CEO们。国会助理和技术专家表示,国会也同样在参与这项技术的发展。备受瞩目的人工智能创业公司Anthropic的联合创始人杰克·克拉克(JackClark)表示:“整个众议院和参议院的工作人员基本上都已经明白了,都被要求围绕这个问题展开讨论。人们想走在人工智能的前面,部分原因是他们觉得自己之前没有能够走在社交媒体的前面。”Anthropic的首席执行官也出席了白宫会议。支持科技的进步商会负责人亚当·科瓦切维奇(AdamKovacevich)表示,随着立法者的速度加快,大型科技企业的主要任务是要反对“过早的过度反应”。虽然像参议院多数党领袖查克·舒默(ChuckSchumer)这样的立法者决心以两党合作的方式解决人工智能问题,但事实是美国国会内呈现两极分化的局面,明年将是总统换届选举之年,立法者们正在解决其他重大问题,如提高债务上限。舒默提出的计划要求独立专家在新的人工智能技术发布之前对其进行测试。他还要求企业提高透明度,并向政府提供该技术所需要的数据以避免伤害。政府微管理基于风险的监管方法意味着,例如用于诊断癌症的人工智能将受到食品和药物管理局的审查,而用于娱乐的人工智能将不受监管。欧盟已经开始着手通过类似的规则。但在民主党参议员迈克尔·贝内特(MichaelBennet)看来,监管机构对风险的关注似乎还不够,他提出了一项法案,呼吁成立政府人工智能工作组。他表示自己主张采取“基于价值观的监管方法”,优先考虑隐私、公民自由和权利。贝内特的一位助手补充说,基于风险的管理规则可能会过于死板,无法发现像人工智能用来推荐宣传白人至上主义的视频这样的危险。一位不愿透露身份的政府工作人员向媒体透露,立法者还讨论了如何最好地确保人工智能不被用于种族歧视。而在OpenAI内部,工作人员已经考虑到了更广泛的监管。OpenAI的研究科学家库伦·奥吉菲(CullenO'Keefe)于4月份在斯坦福大学的一次演讲中提议建立一个机构,授权企业在训练强大的人工智能模型或运营促进这些模型的数据中心之前获得许可。奥吉菲称,这个机构可以被称为人工智能安全和基础设施安全办公室,简称OASIS。在被问及该提案时,OpenAI的首席技术官米拉·穆拉蒂(MiraMurati)说,一个值得信赖的机构可以让开发者对安全标准“负责”。但比机制更重要的是“在什么是标准,什么是试图减轻的风险方面”达成一致。美国最后设立的主要监管机构是消费者金融保护局,该局是在2007-2008年金融危机后设立的。一些共和党人可能会对任何人工智能监管表示反对。一位参议院共和党人的助手对媒体表示:“我们应该小心,人工智能监管提案不会成为政府对搜索引擎和算法等计算机代码进行微管理的机制。”...PC版:https://www.cnbeta.com.tw/articles/soft/1359841.htm手机版:https://m.cnbeta.com.tw/view/1359841.htm

封面图片

唱片协会(RIAA)建议美国政府将人工智能语音克隆网站列入政府盗版监视名单

唱片协会(RIAA)建议美国政府将人工智能语音克隆网站列入政府盗版监视名单美国唱片工业协会(RIAA)现在认为人工智能语音克隆是一种潜在的版权侵权威胁,并希望美国政府将其纳入盗版监管名单。在提交给美国贸易代表(USTR)的一份文件中,RIAA要求美国政府将人工智能语音克隆类别纳入其据称宣扬盗版或假冒行为的年度实体名单中。美国唱片工业协会(RIAA)只点名了该领域的一家公司:。该公司提供例如ArianaGrande、TaylorSwift和KanyeWest等著名音乐艺术家的语音模型。该组织认为,该网站允许用户翻录YouTube视频并复制无伴奏合唱曲目,然后使用人工智能语音模型对其进行修改,侵犯了版权,也侵犯了录音艺术家的公开权。——

封面图片

多名美国作家起诉人工智能公司 OpenAI

多名美国作家起诉人工智能公司OpenAI据路透社报道,当地时间12月20日,包括泰勒・布兰奇和史戴西・希夫在内的11名美国作家在纽约曼哈顿联邦法院起诉美国人工智能公司“开放人工智能研究中心”(OpenAI)和微软,指控其滥用他们的作品来训练聊天机器人ChatGPT。这些作家向法庭表示,OpenAI在未经许可的情况下,从互联网上批量复制了他们的作品,并将这些作品纳入ChatGPT的训练数据里,侵犯了他们的作品版权。他们还表示,由于微软公司“深度参与”了训练和开发人工智能模型,也应承担侵权责任。作家们向法院提出了金额不详的赔偿要求,并要求法院下令这些公司停止侵犯版权。(央视新闻)

封面图片

巴菲特担心人工智能具有巨大潜在危害

巴菲特担心人工智能具有巨大潜在危害巴菲特周六在伯克希尔公司于内布拉斯加州奥马哈市举行的年会上说:“当我们开发核武器时,我们把一个魔鬼从瓶子里放了出来。人工智能有点类似,它的一部分已经从瓶子里出来了。”这位亿万富翁投资者承认,他对底层技术如何运作知之甚少,但他说他有理由担心。他最近看到自己的形象和声音被人工智能工具复制,即使是他的妻子和孩子也很难判断出这是假的。巴菲特预测说,随着犯罪分子利用人工智能向亲戚索要钱财,所谓的深度伪造的威力可能会使诈骗更加有效。他说:“如果我有兴趣投资诈骗,这将是有史以来增长最快的行业。”——

封面图片

Google正在开发生活辅助人工智能 可当做私人管家

Google正在开发生活辅助人工智能可当做私人管家不过,《纽约时报》通过未具名消息来源报道称,Google的人工智能团队成员目前正在开发其他工具,这些工具一旦推出,可以为用户提供个人生活建议。报道称,Google实际上正在与外部承包商ScaleAI合作,帮助测试这些个人建议工具。这篇报道举例说明了这些新的人工智能工具应该回答的文本提示类型:我有一个非常要好的朋友,今年冬天就要结婚了。她是我的大学室友,也是我婚礼上的伴娘。我非常想去参加她的婚礼为她庆祝,但找了几个月的工作,我还是没有找到工作。她要举行一个目的地婚礼,而我现在根本负担不起机票和酒店的费用。我该怎么告诉她我不能去呢?报道称,Google的人工智能工具可以针对这种特殊情况提供建议。未来,它还可以提供财务建议、帮助人们学习新技能的教程,或者提出新的健康和膳食计划。当然,人类也有可能过于依赖人工智能生活教练的回答。事实上,据报道,Google的Bard聊天机器人在该公司的人工智能安全团队成员表示担忧后,就被稍微推迟了一段时间。《纽约时报》今天报道说,2022年12月,该公司的人工智能安全专家表示,如果用户接受聊天机器人的个人建议,他们可能会有"健康和幸福感减弱"的沮丧感。报道还说,Google可能决定不发布这些个人生活建议人工智能工具。公司发言人不愿证实或否认这些工具正在开发中,但表示:"孤立的评估数据样本并不能代表我们的产品路线图。"...PC版:https://www.cnbeta.com.tw/articles/soft/1377477.htm手机版:https://m.cnbeta.com.tw/view/1377477.htm

封面图片

英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像OpenAI这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI宣布与Reddit、StackOverflow和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。...PC版:https://www.cnbeta.com.tw/articles/soft/1431493.htm手机版:https://m.cnbeta.com.tw/view/1431493.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人