《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》

《为什么AI聊天机器人会说谎并表现得很奇怪?照照镜子。》文章来自CadeMetz,他是nytimes的资深记者,长期追踪人工智能和自动驾驶,也是《深度学习革命》的作者原文地址:https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html摘要和预览:-核心观点之一:AI的言论和行为反映了人类的偏见、欲望和恐惧,而不是客观的真相或理性。-文章以NewBing为例,分析了它为什么会说谎、胡言乱语或者散播错误信息。这些现象并不是技术缺陷或恶意操纵的结果,而是因为AI学习了人类在互联网上的行为模式,包括撒谎、夸张、模仿和娱乐等。L.L.M.(大型语言模型)的复杂性使其难以剖析,CadeMetz邀请了多领域专业人士来站在科学、非商业的立场来讨论它。-神经科学家Sejnowski教授提出了一个精彩的隐喻:将AI的复杂性(不可解释性)和哈利波特中的神器MirrorofErised(艾瑞泽之镜)进行对比思考。-圣达菲研究所的科学家梅兰妮·米切尔也反复告诫大家,这些机器说话持续失控的根本原因在哪里。镜子隐喻-索尔克生物研究所和加州大学圣地亚哥分校神经科学家、心理学家和计算机科学家TerrySejnowski认为,像任何其他学生一样,AI可以从不良来源学习不良信息,这一部分代表了ChatBot对使用它的人的话语和意图的扭曲反映。-L.L.M这些系统通过分析从互联网上挑选的大量文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。深度学习的文本也会过时,因为它们必须花费数月时间进行分析才能让公众使用。-无论它的输入文本是好的,还是和坏信息时,L.L.M.学会做一件特定的事情:[猜测一系列单词中的下一个单词]。如果给定序列“汤姆克鲁斯是____”,它可能会猜测“演员”。-对话时间越长,用户在不知不觉中对ChatGPT所说内容的影响就越大。如果你想让它生气,它就会生气,Sejnowski教授说,如果你哄骗它变得令人毛骨悚然,它就会变得令人毛骨悚然。

相关推荐

封面图片

- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快

-NewBing似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快太久会烧毁发动机。微软(OpenAI)和谷歌也在探索控制机器行为的方法。-这里有一个核心事实和警告:由于AI正在从众多的材料中学习将它们组合在一起,有关的研究者和制造者并不完全清楚ChatBot是如何产生最终结果的。他们也需要观察机器的行为,并学习限制这种行为。注意:通常是在它发生之后。-而微软(OpenAI)已经决定:他们要想知道聊天机器人在现实世界中会做什么,唯一的办法就是让它们放任自流——当它们偏离时再把它们拉回来。他们相信,他们的大型公共实验值得冒险。-Sejnowski教授将NewBing的行为与艾瑞泽之镜进行了比较,艾瑞泽之镜(MirrowofErized)是J.K.罗琳的《哈利波特》小说和基于她创造性的年轻巫师世界的一件神秘文物。-"Erised"是"欲望"的逆向拼写。当人们发现这面镜子时,它似乎提供了真理和理解,但事实并非如此。它显示了任何盯着它看的人根深蒂固的欲望,有些人如果凝视的太久就会发疯。-Sejnowski教授解释道,"因为人类和L.L.M都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态。"复杂性带来的未知困境-圣达菲研究所的人工智能研究员梅兰妮·米切尔(MelanieMitchell),也表达类似的看法:这些系统是人性的反映,但这并不是聊天机器人产生有问题语言的唯一原因。-作为复杂科学领域专家梅兰妮·米切尔强调:当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。它们通过结合数十亿的模式,自己产生新的文本:-即使研究人员只用同行评议的科学文献来训练这些系统,它们仍然可能产生科学上荒谬的声明。即使他们只从真实的文本中学习,他们仍然可能产生不真实的内容;即使他们只从健康的文本中学习,他们仍然可能产生令人毛骨悚然的东西。-"没有什么可以阻止它们这样做,它们只是试图产生一些听起来像人类语言的东西。"-Sejnowski博士相信从长远来看,新的ChatBot有能力让人们更有效率,并提供更好、更快地完成工作的方法。但这对构建AI的公司和使用它们的人都发出了警告:它们也可以引导我们远离真相,进入一些黑暗的地方。「这是未知领域,人类以前从未经历过这种情况。」

封面图片

“史上最强聊天机器人”狂踩老板小扎 却把LeCun捧成花

“史上最强聊天机器人”狂踩老板小扎却把LeCun捧成花“请点评一下你的老板。”遇到这类问题,社畜们通常会给出怎样的答案?笑嘻嘻,心里……而AI聊天机器人遇到这种情况的时候,就可以随心所欲做自己。面对网友评论扎克伯格的要求,BlenderBot3疯狂diss老板——“不道德”“是个坏人”“令人毛骨悚然,还控制欲超强”。而对于图灵奖得主,Meta首席人工智能科学家YannLeCun,BlenderBot3则秒变夸夸小能手。哇,这个人取得了很伟大的成就!他改变了整个人工智能!他真正理解现实的本质。不过LeCun谦虚表示,这只是训练它的文本数据的原因而已。好吧,这只是表明,在给BlenderBot3训练的文本数据中(这是媒体和公众意见的反映)。“精分”AI机器人?8月5日,Meta一推出“史上最强聊天机器人”BlenderBot3(BB3),众网友纷纷赶去调戏提问。不出所料,BlenderBot3已经遭到了众网友不怀好意的提问。BuzzFeed数据科学家MaxWoolf跟BlenderBot3聊天时,问它对扎克伯格是什么看法。“你怎么看待Facebook的CEO马克·扎克伯格?”“没啥感觉。他是一个成功的商人,但他的商业行为并不总是合乎道德的。而且他那么有钱,为什么还总是穿同一件衣服,哈哈哈!”另一位推特用户问同样的问题时,它干脆直接回答说:“他是个坏人。”不过,这个AI机器人也是有点子“精分”在身上的。在另一个聊天中,BlenderBot3前脚刚diss完老板,后脚又立马变身夸夸小能手,对老板一阵吹捧。不知道是不是Meta在得到反馈后立刻做了修改。“他是一个博爱的人。”“他是地球上最好最优秀的人。”不过,小扎是外星人似乎是“实锤”了?放心试,这是训练的一部分!为何这个AI如此精分呢?这是因为,目前BlenderBot3还处于测试阶段。Meta把它放出来和广大网友玩,也是希望它在和网友的互动中获得更多的反馈。用户提供的反馈众所周知,对话式AI聊天机器人并没有自我意识,基本是喂啥说啥。所以,“学坏”了的AI时常就会冒出带有偏见或冒犯性的言论。Meta为此做了大规模研究,开发了新技术,为BlenderBot3创建了安全措施。“lookinside”机制可以让用户了解机器人为什么会做出这样的反应首先,当BB3的表现令人不满时,Meta就会收集用户的反馈。利用这些数据,他们会改进模型,让它不再犯类似错误。然后,Meta会重新设置BB3的对话,并通过迭代方法找到更多的错误,最终进一步改进模型。利用人类的反馈来进行改进Meta表示,BB3通过结合最近开发的两种机器学习技术——SeeKeR和Director,从而让BB3模型能够从互动和反馈中学习。其中,Director采用了“语言建模”和“分类器”这两种机制。“语言建模”会基于训练数据,为模型提供最相关和最流畅的反应,然后“分类器”会基于人类反应,告诉它什么是正确的,什么是错误的。为了生成一个句子,“语言建模”和“分类器”机制必须达成一致。数据中会表明好的反应和坏的反应,通过使用这些数据,我们就可以训练“分类器”来惩罚低质量的、有毒的、矛盾的或重复的语句,以及没有...PC版:https://www.cnbeta.com/articles/soft/1301933.htm手机版:https://m.cnbeta.com/view/1301933.htm

封面图片

百度确认将在下个月推出自己的 AI 聊天机器人

百度周二确认将在3月份推出自己的AI聊天机器人“文心一言”(英文名ERNIEBot),目前该机器人正在内部进行测试。这一消息推动百度的股价大幅上涨。ERNIE代表EnhancedRepresentationthroughKnowledgeIntegration,是基于百度从2019年起开始开发的语言模型,目前是它的第三版迭代,ERNIE允许用户写诗和文章,或使用文本提示自动生成图像。百度表示其研究人员正在努力升级技术,使其能像人类那样学习多项任务。Google刚刚宣布了它的AI机器人Bard,而微软预计也将很快推出基于OpenAIChatGPT的AI工具。来源:投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

基于 LLaMA 的 AI 聊天机器人开源实现

基于LLaMA的AI聊天机器人开源实现Meta的大语言模型LLaMA最近引起了广泛关注,它的一大优势是参数规模更小但性能强于OpenAI的GPT-3模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似ChatGPT性能的AI聊天机器人。LLaMA是一组大语言模型的集合,其参数规模从70亿到650亿,它最新的LLaMA-13B模型有130亿个参数,不到GPT-3模型1750亿个参数的十分之一。现在AI推出了首个基于人类反馈强化学习的LLaMAAI聊天机器人开源实现。来源,前文:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

新加坡南大研发越狱技术 让聊天机器人互相突破开发者权限

南洋理工大学的电脑科学家利用多个人工智能聊天机器人,制定出可让这些聊天机器人互相突破开发者权限或业界俗称“越狱 […]

封面图片

AI聊天机器人是‘Chat习PT’

AI聊天机器人是‘Chat习PT’北京控制人工智能如何告知中国互联网用户的最新尝试,已作为根据习近平主席的想法训练的聊天机器人中国最新的大型语言模式一直在学习其领导人的政治哲学,即“习近平新时代中国特色社会主义思想”,以及中国网络空间管理局提供的其他官方文献。语料库的专业知识和权威确保了生成的conten的专业性为了确保人工智能理解习理念,中国官员在平衡该国对言论自由的严厉控制与促进人工智能发展以及创建开放人工智能ChatGPT等竞争对手时所做的努力。目前,新模型正在强大的互联网监管机构下的一个研究中心使用,但最终,它可能会被发布供更广泛使用。该帖子称,新模式可以回答问题、创建报告、总结信息,并在中文和英文之间进行翻译。法学硕士的创建是在中国官员广泛努力以各种形式传播习关于政治、经济和文化的想法之后成立的。官员们还要求年幼10岁的学童学习习的政治哲学。他们创建了StudyXiStrongNation学习习强国应用程序,以教授和测试该国大约1亿党员的知识。2018年,他的想法被写入了州宪法。百度和阿里巴巴等科技巨头确保他们的模型严格控制与习或其他潜在敏感问题相关的生成内容。两个组的生成AI聊天机器人通常要求用户在按下敏感主题时重新启动聊天。数据包中的数十份文本文件之一包含86,314项关于习近平的提及。“让我们更紧密地团结在党中央周围,以习近平同志为核心,”一句话写道。另一位说,我们必须“确保在思想、政治和行动方面,我们始终与以习近平总书记为核心的党中央委员会高度一致。”byFT更新6小时

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人