“AI有可能像核武那样使用”:专家呼吁加强国际监管

“AI有可能像核武那样使用”:专家呼吁加强国际监管本乔是深度学习研究领域的先驱人物。美国开放人工智能研究中心(OpenAI)最近推出了由人工智能技术驱动的自然语言处理工具ChatGPT,而深度学习是利用人工智能技术的此类产品的基础。本乔与加拿大多伦多大学的杰弗里·欣顿教授和美国纽约大学的扬立昆教授一道,被称为人工智能研究领域的“三巨头”。本乔谈到了人工智能带来的巨大利益,同时又强调,“如果已经拥有巨大权力的个人、企业恶意使用人工智能,其很有可能拥有更大的权力”。他指出,如果为了欲望和权力而使用人工智能,“根据个人意志等(进行心理操作),就能够将人工智能引向某个方向。你也许会把选票投给(某个被预设好的)候选人”。本乔还指出,“在将人工智能用于军事方面,有些国家会考虑加以限制,有些国家则不会”。他表示担忧地说:“国际合作是有必要的,但令人遗憾的是,目前还没有国际性的合作体系。”他指出,“由于使用方法的差异,人工智能有可能像核武器那样使用”,是福音还是罪恶将取决于人。对于一直进行人工智能研究,本乔一方面表示“不后悔”,一方面也表示,“为了防止错误地使用人工智能,我感到应该带有强烈的责任感来发声”。另外他还指出,教育、医疗、环境保护等领域,虽然民间企业进行投资后难以获取利润,但却具有重大社会意义,为在这些领域充分利用人工智能,应该进行更多的投资。ChatGPT可以写论文、写诗,人们期待搜索引擎方式发生巨大变化。但是,虚假信息传播等负面影响也随之而来。围绕这一问题,美国非营利组织生命未来研究所向全社会发布了一封公开信,要求至少在半年时间里停止开发比ChatGPT更强大的人工智能系统。美国企业家埃隆·马斯克等人对此表示赞同,本乔也在这封信上署名。...PC版:https://www.cnbeta.com.tw/articles/soft/1354599.htm手机版:https://m.cnbeta.com.tw/view/1354599.htm

相关推荐

封面图片

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧

有大学教师正在使用AI为论文评分专家提出伦理方面的担忧她会向学生展示ChatGPT的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的15名学生也这样做:通过ChatGPT运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台Turnitin赞助的战略咨询公司TytonPartners的一份报告发现,2023年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如ChatGPT、Writable、Grammarly和EssayGrader等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于ChatGPT和MicrosoftCoPilot等工具,这些工具内置于Word、PowerPoint和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(UniversityofVirginia)商业伦理教授多萝西-莱德纳(DorothyLeidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用ChatGPT,但她对一些教育工作者如何使用ChatGPT给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(LeslieLayne)在弗吉尼亚州林奇堡大学的写作工作坊中教授ChatGPT最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到ChatGPT是一个"巨大的道德考量",有可能侵犯他们的知识产权。像ChatGPT这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为Writable的软件,该软件使用ChatGPT帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司HoughtonMifflinHarcourt收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由ChatGPT和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(AlanReid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(UniversityofLynchburg)哲学副教授尼古拉斯-弗兰克(NicolasFrank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项--这样学生就有权知道人工智能何时被用于给他们的作业打分--并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。...PC版:https://www.cnbeta.com.tw/articles/soft/1426543.htm手机版:https://m.cnbeta.com.tw/view/1426543.htm

封面图片

G7呼吁出台AI技术标准 欧盟再次走在监管前沿

G7呼吁出台AI技术标准欧盟再次走在监管前沿尽管人工智能技术提供了许多好处,但它们的发展速度超过了监管机构能够跟上的速度。5月20日在日本广岛举行的G7领导人会议上发表的一份声明称,人工智能等数字技术的规则应该“符合人们共同的价值观”。峰会还达成共识,在今年年底之前创建一个专门讨论人工智能进展的部长级论坛,讨论围绕生成式人工智能的问题,例如版权和打击虚假信息。七国领导人还敦促经济合作与发展组织(OECD)等国际组织考虑对人工智能政策发展的影响进行分析。欧洲一直走在人工智能监管的前沿。欧盟本月已经接近通过一项人工智能技术监管的立法,这也有望成为全球首部全面的人工智能法案,并可能成为发达经济体的先例。“我们希望人工智能系统准确、可靠、安全且无歧视,无论其来源如何。”欧盟委员会主席乌尔苏拉·冯德莱恩5月19日表示。G7领导人还表示,他们需要尽快评估有关生成式人工智能的机遇和挑战,这也是近期ChatGPT引爆的一个技术热点。尽管各个国家都呼吁加强对人工智能的监管,但各国政府对于人工智能的态度也有差异。美国仍在探索人工智能方面的监管。上周,OpenAI公司CEO萨姆·奥尔特曼在国会听证上表示,美国应该考虑人工智能模型开发的许可和测试要求。美国总统拜登上个月表示,人工智能的威胁还有待观察。日本对于人工智能的态度更为宽松,该国已经承诺支持公共事业部门和工业领域采用人工智能技术。日本首相岸田文雄上周对政府的人工智能委员会表示:“重要的是要妥善处理人工智能的潜力和风险。”此外,生成式AI在某些特定领域方面的应用将面临更加严厉的监管。上周,世界卫生组织呼吁谨慎使用人工智能生成的大型语言模型工具。该组织称:“虽然借助这类工具可便利地获取健康信息,甚至能在资源不足的地区提高诊断能力,但在使用时必须仔细考察其风险。”医疗健康行业是全球监管最严格的行业之一。以美国为例,尽管人工智能在美国医疗保健中的使用发展迅速,但仍缺乏全面监管。“ChatGPT这类生成式AI的使用未来需要遵守相关法律法规,包括说明其预期使用目的、验证AI的准确性以及确认训练数据可靠、具有代表性无偏见。”一位业内人士对第一财经记者表示。相关文章:七国集团呼吁制订与采用人工智能国际技术标准...PC版:https://www.cnbeta.com.tw/articles/soft/1360853.htm手机版:https://m.cnbeta.com.tw/view/1360853.htm

封面图片

知名专家呼吁:欧洲对AI监管应该更全面,成为全球表率

知名专家呼吁:欧洲对AI监管应该更全面,成为全球表率简报签署人包括Mozilla基金会等机构、以及TimnitGebru等专家。他们认为,通用人工智能工具也许在设计之初没考虑到高风险应用,但在不同环境下,它们却可能变得更危险。该团体特别提到了一些生成式人工智能工具,例如ChatGPT,它们在过去几个月中越来越受欢迎。据耶鲁大学/维基媒体中介和信息倡议组织的常驻研究员和负责人MehtabKhan称,应该考虑对人工智能的开发进行监管,包括如何收集数据、谁来收集数据和培训技术等方面。Khan表示:“应该在整个产品生命周期中对GPAI进行监管,而不仅仅是在应用层面上。对高低风险的简单标签‘本质上不能跟上技术的动态’。”该团体建议欧洲政策制定者为未来法规进行规划,例如避免将规则限制在某些特定类型的产品上,比如聊天机器人。同时,他们还警告开发人员不应通过标准的法律免责声明来规避责任。AINow研究所的执行董事SarahMyersWest是这份政策简报的主要推动者之一,她表示,在“欧盟AI法案”早期草案公布之后,像ChatGPT这样的工具开始崛起,“生成式AI的浪潮使得这个法案更加引人注目。但即使在此之前,也存在着一大类没有特定用途的人工智能类型,同样会受到豁免。”MyersWest称:“据我们所知,欧盟AI法规将成为第一个综合性的人工智能法规。因此,它将成为全球的先例。这就是为什么它特别重要,它需要很好地涵盖这类人工智能,因为它可能成为其他人追随的模板。”...PC版:https://www.cnbeta.com.tw/articles/soft/1354601.htm手机版:https://m.cnbeta.com.tw/view/1354601.htm

封面图片

ChatGPT威胁版权?42家德国作者和表演者协会呼吁欧盟对AI加强监管

ChatGPT威胁版权?42家德国作者和表演者协会呼吁欧盟对AI加强监管这封信着重强调了对ChatGPT等生成式人工智能技术的担忧,这种技术可以基于用户的提示模仿人类创作文本和图片。“未经授权使用受保护的训练资料、不透明的程序以及生成式人工智能可以预见的输出替代源,引发了责任、义务和薪酬等根本问题。必须在不可逆转的伤害发生前解决这些问题。”信中写道,“对于任何有意义的人工智能市场监管法规而言,生成式人工智能都应该成为关注的核心。”欧盟委员会去年提议起草人工智能法规,他们将在未来几个月与欧盟立法者和欧盟成员国讨论最终细节,之后才会正式立法。上述组织表示,这些法规应当在生成式人工智能的整个生命周期中对其加强监管,尤其是对基础模型提供商进行监管。他们还呼吁这类技术的提供商对其技术生成和传播的所有内容承担责任,特别是当发生侵犯个人权益和版权以及散布虚假信息或歧视性信息时。该信还表示,不应允许微软、谷歌、亚马逊和MetaPlatform等基础模型提供商运营从事数字内容分发的中央平台服务。...PC版:https://www.cnbeta.com.tw/articles/soft/1355789.htm手机版:https://m.cnbeta.com.tw/view/1355789.htm

封面图片

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管YoshuaBengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(AndrewCritch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的400多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(StevenPinker)、两位爱沙尼亚前总统、GoogleDeepMind的研究人员和OpenAI的研究人员。自微软支持的OpenAI于2022年底推出ChatGPT以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(ElonMusk)去年签署了一封信,呼吁暂停开发比OpenAI的GPT-4人工智能模型更强大的系统,为期六个月。...PC版:https://www.cnbeta.com.tw/articles/soft/1419951.htm手机版:https://m.cnbeta.com.tw/view/1419951.htm

封面图片

英国投资1亿英镑用于人工智能研究和监管

英国投资1亿英镑用于人工智能研究和监管英国政府当地时间周二表示,将斥资超1亿英镑设立9个新的人工智能研究中心,并为监管人员提供技术培训。英国政府表示,近9000万英镑将用于专注在医疗保健、化学和数学等领域使用人工智能的研究中心,并与美国就负责任AI开展合作。另外1000万英镑将用于帮助监管机构应对人工智能风险和利用人工智能带来的机遇,例如开发实用工具监控电信、医疗、金融和教育等领域的风险。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人