- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快

-NewBing似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快太久会烧毁发动机。微软(OpenAI)和谷歌也在探索控制机器行为的方法。-这里有一个核心事实和警告:由于AI正在从众多的材料中学习将它们组合在一起,有关的研究者和制造者并不完全清楚ChatBot是如何产生最终结果的。他们也需要观察机器的行为,并学习限制这种行为。注意:通常是在它发生之后。-而微软(OpenAI)已经决定:他们要想知道聊天机器人在现实世界中会做什么,唯一的办法就是让它们放任自流——当它们偏离时再把它们拉回来。他们相信,他们的大型公共实验值得冒险。-Sejnowski教授将NewBing的行为与艾瑞泽之镜进行了比较,艾瑞泽之镜(MirrowofErized)是J.K.罗琳的《哈利波特》小说和基于她创造性的年轻巫师世界的一件神秘文物。-"Erised"是"欲望"的逆向拼写。当人们发现这面镜子时,它似乎提供了真理和理解,但事实并非如此。它显示了任何盯着它看的人根深蒂固的欲望,有些人如果凝视的太久就会发疯。-Sejnowski教授解释道,"因为人类和L.L.M都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态。"复杂性带来的未知困境-圣达菲研究所的人工智能研究员梅兰妮·米切尔(MelanieMitchell),也表达类似的看法:这些系统是人性的反映,但这并不是聊天机器人产生有问题语言的唯一原因。-作为复杂科学领域专家梅兰妮·米切尔强调:当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。它们通过结合数十亿的模式,自己产生新的文本:-即使研究人员只用同行评议的科学文献来训练这些系统,它们仍然可能产生科学上荒谬的声明。即使他们只从真实的文本中学习,他们仍然可能产生不真实的内容;即使他们只从健康的文本中学习,他们仍然可能产生令人毛骨悚然的东西。-"没有什么可以阻止它们这样做,它们只是试图产生一些听起来像人类语言的东西。"-Sejnowski博士相信从长远来看,新的ChatBot有能力让人们更有效率,并提供更好、更快地完成工作的方法。但这对构建AI的公司和使用它们的人都发出了警告:它们也可以引导我们远离真相,进入一些黑暗的地方。「这是未知领域,人类以前从未经历过这种情况。」

相关推荐

封面图片

New Bing 测试“名人”模式

NewBing测试“名人”模式NewBing的“名人”模式允许用户指示AI模仿名人,像它模仿的人一样回答问题和说话。名人模式是一项功能,可让您与名人的虚拟版本聊天,例如演员、歌手或运动员。你可以问他们关于他们的生活、职业、爱好、观点等问题,他们会以符合他们个性和风格的方式回答。启用后,可以键入#celebrity[名人姓名]或仅输入#[名人姓名]模仿此人。例如,可以让聊天机器人通过命令#celebritytomcruise或#tomcruise模仿汤姆克鲁斯。投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》

《为什么AI聊天机器人会说谎并表现得很奇怪?照照镜子。》文章来自CadeMetz,他是nytimes的资深记者,长期追踪人工智能和自动驾驶,也是《深度学习革命》的作者原文地址:https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html摘要和预览:-核心观点之一:AI的言论和行为反映了人类的偏见、欲望和恐惧,而不是客观的真相或理性。-文章以NewBing为例,分析了它为什么会说谎、胡言乱语或者散播错误信息。这些现象并不是技术缺陷或恶意操纵的结果,而是因为AI学习了人类在互联网上的行为模式,包括撒谎、夸张、模仿和娱乐等。L.L.M.(大型语言模型)的复杂性使其难以剖析,CadeMetz邀请了多领域专业人士来站在科学、非商业的立场来讨论它。-神经科学家Sejnowski教授提出了一个精彩的隐喻:将AI的复杂性(不可解释性)和哈利波特中的神器MirrorofErised(艾瑞泽之镜)进行对比思考。-圣达菲研究所的科学家梅兰妮·米切尔也反复告诫大家,这些机器说话持续失控的根本原因在哪里。镜子隐喻-索尔克生物研究所和加州大学圣地亚哥分校神经科学家、心理学家和计算机科学家TerrySejnowski认为,像任何其他学生一样,AI可以从不良来源学习不良信息,这一部分代表了ChatBot对使用它的人的话语和意图的扭曲反映。-L.L.M这些系统通过分析从互联网上挑选的大量文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。深度学习的文本也会过时,因为它们必须花费数月时间进行分析才能让公众使用。-无论它的输入文本是好的,还是和坏信息时,L.L.M.学会做一件特定的事情:[猜测一系列单词中的下一个单词]。如果给定序列“汤姆克鲁斯是____”,它可能会猜测“演员”。-对话时间越长,用户在不知不觉中对ChatGPT所说内容的影响就越大。如果你想让它生气,它就会生气,Sejnowski教授说,如果你哄骗它变得令人毛骨悚然,它就会变得令人毛骨悚然。

封面图片

微软Edge提供了一个Bing AI聊天机器人侧边栏

微软Edge提供了一个BingAI聊天机器人侧边栏新的边栏在Edge浏览器的左上方显示为一个大大的必应按钮,悬停在上面或点击它将激活新的必应聊天机器人体验。如果你是必应预览版的成员,你可以使用聊天功能向聊天机器人提问,或者使用撰写选项为电子邮件、博客文章、信件等生成文本。由于边栏是基于用户在Edge中查看的页面的上下文,因此它可以协助做一些事情,例如,如果你正在查看一个产品,可以要求聊天机器人总结购物网站的信息。必应侧边栏还可以总结文章,比较网页上的项目,并让你从各种语气中挑选,以生成博客文章、电子邮件、清单等文本。Edge中的这个新的必应侧边栏暗示了微软在Windows、Office和其他地方的人工智能功能方面可能的发展方向。Google刚刚宣布了自己的计划,将类似ChatGPT的人工智能添加到Gmail和GoogleDocs中,允许GoogleWorkspace用户自动生成电子邮件、文档等。微软预计将在周四的工作用人工智能活动中公布类似的功能。这次活动可能会集中讨论微软的类似ChatGPT的人工智能将如何在Teams、Word和Outlook等Office应用程序中工作。本月早些时候,微软在MicrosoftDynamics365和VivaSales中推出了类似的新的生成性Copilot人工智能体验,它使用AzureOpenAI服务来自动创建销售方的电子邮件。...PC版:https://www.cnbeta.com.tw/articles/soft/1349425.htm手机版:https://m.cnbeta.com.tw/view/1349425.htm

封面图片

微软的 Bing 聊天机器人将开始展示广告

微软的Bing聊天机器人将开始展示广告这是我们一直在等待的时刻:广告将出现在必应的人工智能聊天机器人中。微软公司副总裁YusufMehdi周三在一篇博客中表示,该公司正在“探索在聊天体验中放置广告”,当我们询问更多细节时,微软发言人证实你可能会开始看到它们。“是的,广告将显示在新的Bing中,特别是在聊天中(就像在传统搜索结果中一样),”微软公关总监凯特琳·鲁尔斯顿(CaitlinRoulston)在给TheVerge的一份声明中说。“由于新的Bing处于预览阶段,它目前的显示方式可能会有所不同。我们仍在探索广告体验的新机会,并将随着时间的推移分享更多内容。”在博客文章中,Mehdi表示微软希望“与内容对聊天响应有贡献的合作伙伴分享广告收入”,但这并没有回答微软计划在广告和非广告响应之间取得平衡的问题。——

封面图片

微软推出Bing Chat v98 减少了拒绝回答的情况

微软推出BingChatv98减少了拒绝回答的情况Parakhin在他的帖子中说,BingChatv98的发布将分为两个阶段。据Parakhin称,第一阶段旨在为BingChat用户大幅减少"BingChat拒绝创建内容的情况"。第二阶段将推出,继续减少聊天机器人的不参与情况。Parakhin还回应了Twitter用户的一些留言。一个人抱怨说,最近发布的BingImageCreator在制作人工智能生成的艺术方面仍然"非常受限制"。帕拉金回答说:"也在迅速改进--比我们第一次发布时好得多"。另一位用户说,创意模式下的必应聊天不能正常工作,对问题提供错误的答案。帕拉金说,"对此很抱歉。我们正在努力使反应更快:在模型中有两条路径,运行快速的路径,检查答案是否正确,如果不是--运行较慢的路径。在这种情况下,它错误地决定了额外的等待是没有必要的,我们会修复它。"他后来对这个答案进行了扩展,指出:我们的推动是试图给每个人带来最好的用户体验,上面的案例并不是为了节省产能,而是试图在质量不退步的情况下加快创意模式的速度,我们还并不完美。然而:-)必应聊天团队上周忙于一些新的改进和功能,包括扩大其每日和每会话的聊天次数限制,并增加了一种在聊天对话框内搜索图片和视频的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1353161.htm手机版:https://m.cnbeta.com.tw/view/1353161.htm

封面图片

今天试用了微软的new bing的AI聊天机器人,号称集合了GPT-4。有优点也有缺点。

今天试用了微软的newbing的AI聊天机器人,号称集合了GPT-4。有优点也有缺点。1.单次对话15次,也就是问15个问题,它会关联之前的提问给出你要的答案,这点比搜索引擎好用。2.答案会有条理的整理出来,避免在搜索引擎的结果中大海捞针。3.答案会表明出处,不过出处的正确性它无法识别。4.对于专业问题,它似乎无法引用文献内容,更多的来自百科、知乎等一些科普专栏。5.最新的资讯可能无法及时更新。6.关于国际局势,政治问题等,它回答的很谨慎。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人