外语学习平台Duolingo也集成了GPT-4推出了人工智能服务Duolingo Max | 详文

外语学习平台Duolingo也集成了GPT-4推出了人工智能服务DuolingoMax主要功能包括:ExplainMyAnswer可以提供更多关于课程回答的背景信息(无论答案是正确还是错误)。角色扮演可让你与应用程序中的世界角色练习真实世界的对话技巧。与Lin讨论假期计划,或在巴黎的Oscar点一杯咖啡。借助ChatGPT的响应性和交互性,这意味着每一次会话都是唯一的,没有两个对话会完全相同。

相关推荐

封面图片

微软将把必应聊天限制在每轮5回合对话 以阻止人工智能变得怪异

微软将把必应聊天限制在每轮5回合对话以阻止人工智能变得怪异"我们的数据显示,绝大多数人在5个回合内找到了他们要找的答案,只有大约1%的聊天对话有50条以上的信息,"Bing团队在一篇博文中说。如果用户达到每次5次的限制,必应会提示他们开始一个新的话题,以避免长时间的来回聊天。微软本周早些时候警告说,这些有15个或更多问题的较长的聊天会话,可能会使必应"变得重复,或被提示/挑动而作出不一定有帮助或符合我们设计的语气的回应"。微软说,在仅仅五个问题之后擦除对话意味着"模型不会被混淆"。本周早些时候出现了关于Bing"不正常"对话的报道,随后《纽约时报》发表了一整段与Bing的两个多小时的来回对话,其中聊天机器人说它爱作者,不知为何他们当晚无法入睡。不过,本周很多聪明人都没有通过人工智能的镜像测试。微软仍在努力改善必应的语气,但现在还不清楚这些限制会持续多久。"随着我们继续得到反馈,我们将探索扩大聊天会话的上限,"微软说,所以这似乎是一个有限的上限,至少在目前。必应的AI聊天功能每天都在不断改进,技术问题得到解决,每周都会有更大的修复量,以改善搜索和回答。微软本周早些时候说,它没有"完全设想"人们将其聊天界面用于"社交娱乐"或作为更多"发现世界的一般工具"。...PC版:https://www.cnbeta.com.tw/articles/soft/1345029.htm手机版:https://m.cnbeta.com.tw/view/1345029.htm

封面图片

《流浪地球2》新预告 人工智能MOSS对话刘培强

《流浪地球2》新预告人工智能MOSS对话刘培强《流浪地球2》剧情围绕李雪健饰演的角色展开,故事发生在提出计划将建造1万座行星发动机的时代背景,是《流浪地球》的前传。在危难即将发生之时,人类面临太阳危机有两种选择,一是迈向充满未知的冒险行程,建造行星发动机,带着地球一起逃离危险。另一种则是将自己转化为数字体,获得另一种形式的永生。郭帆曾透露,故事层面第二集会有更多的科幻立意,更多的世界观展现。《流浪地球2》由郭帆导演,刘慈欣监制,吴京、李雪健、沙溢、宁理、王智、朱颜曼滋领衔主演,刘德华特别演出,2023年大年初一上映。视频截图:...PC版:https://www.cnbeta.com.tw/articles/soft/1337269.htm手机版:https://m.cnbeta.com.tw/view/1337269.htm

封面图片

声明称,两国元首在人工智能方面达成共识:中法两国认识到人工智能在发展与创新中的关键作用,同时考虑到人工智能的发展和使用可能带来的

声明称,两国元首在人工智能方面达成共识:中法两国认识到人工智能在发展与创新中的关键作用,同时考虑到人工智能的发展和使用可能带来的一系列挑战,一致认为促进人工智能的开发与安全,并为此推动适当的国际治理至关重要。中法两国充分致力于促进安全、可靠和可信的人工智能系统,坚持“智能向善(AIforgood)”的宗旨,通过全面和包容性的对话,挖掘人工智能的潜力,降低其风险。双方还将依托联合国层面开展的工作,致力于加强人工智能治理的国际合作以及各人工智能治理框架和倡议之间的互操作性,例如依托在联合国秘书长人工智能问题高级别咨询机构内或在联合国教科文组织《人工智能伦理问题建议书》的基础上开展的工作。中法两国对国际社会为实现人工智能应用的发展和安全所做的努力表示欢迎,包括2023年11月1日签署的《布莱切利宣言》。中国愿参加法国将于2025年举办的人工智能峰会及其筹备工作。中国邀请法国参与将于2024年举办的世界人工智能大会暨人工智能全球治理高级别会议。(新华社)

封面图片

外媒评GPT-4:人工智能领域的一次巨大飞跃 也是技术道德规范的又一重大转变

外媒评GPT-4:人工智能领域的一次巨大飞跃也是技术道德规范的又一重大转变OpenAI早期上线的聊天机器人ChatGPT用自动生成的流畅文字获得了大量关注,也让公众对其杜撰论文、虚构剧本的能力感到不安。要知道,ChatGPT用的还是一年多前就已经落伍的老一代技术GPT-3。相比之下,最先进的GPT-4模型不仅能够自动生成文字,还能够根据用户的简单要求描述图像。例如,当向GPT-4展示拳击手套挂在一端有球的木制跷跷板上的照片时,用户问如果手套掉下来会发生什么,GPT-4会回答说它会撞到跷跷板,让球飞起来。早期测试者曾声称,GPT-4在推理和学习新事物的能力方面非常先进。微软周二也透露,上个月发布的必应人工智能聊天机器人一直在使用GPT-4。开发者周二表示,这项技术将进一步彻底改变人们的工作和生活。但同时这也让公众担心,人工该如何与这种精密得可怕的机器竞争,人们该如何相信自己在网上看到的内容。OpenAI高管们表示,GPT-4跨文本和图像的“多模式”使其在“高级推理能力”方面远超过ChatGPT。由于担心功能被滥用,公司推迟发布GPT-4的图像描述功能,而且GPT-4支持的ChatGPTPlus服务订阅用户只能用文本功能。OpenAI政策研究员桑迪尼·阿加瓦尔(SandhiniAgarwal)称,公司之所以还没发布这一功能,是为了更好地了解潜在风险。OpenAI发言人尼科·费利克斯(NikoFelix)表示,OpenAI正计划“实施保障措施,防止图像中的个人信息被识别”。OpenAI还承认,GPT-4仍会有“产生幻觉”、出现无稽之谈、延续社会偏见,以及提供糟糕建议等惯常错误。微软已经向OpenAI投资几十亿美元,希望人工智能技术能成为旗下办公软件、搜索引擎和其他在线产品的杀手锏。该公司将这项技术宣传成超级高效的合作伙伴,可以处理重复性工作,让人们专注于创造性工作,比如说帮助软件开发人员完成整个团队工作。但有关注人工智能的人士表示,这些可能只是表象,人工智能可能会导致没人能预料的商业模式和风险。人工智能的快速发展,加上ChatGPT的爆火,导致业内公司围绕争夺人工智能领域主导地位展开激烈竞争,竞相发布新软件。这种狂热也引发了不少批评。很多人认为这些公司急于推出未经测试、不受监管且不可预测的技术,可能会欺骗用户,破坏艺术家的作品,并给现实世界带来伤害。由于设计上就是为了生成令人信服的措辞,人工智能语言模型经常会提供错误答案。而且这些模型要用网络上的信息和图像接受训练,也学会了模仿人类偏见。OpenAI研究人员在一份技术报告中写道,“随着GPT-4和类似的人工智能系统被广泛采纳”,它们“会强化固有见解”。OpenAI前研究员、开源人工智能公司HuggingFace政策总监艾琳·索莱曼(IreneSolaiman)认为,这种技术进展的速度需要全社会对潜在问题及时做出反应。她进一步表示,“作为社会一员,我们已经可以在一些不应该由模型造成的危害方面达成广泛共识”,“但许多伤害是微妙的,主要影响的是少数群体。”她补充说,那些有害的偏见“不能成为人工智能性能的次要考虑因素。”最新的GPT-4也并不完全稳定。当用户祝贺人工智能工具升级为GPT-4时,它的回应是“我仍然是GPT-3模型”。然后被纠正后它为此道歉,并说:“作为GPT-4,我感谢你的祝贺!”随后用户又开玩笑称,它实际上仍然是GPT-3模型,人工智能再次道歉,并说自己“确实是GPT-3模型,而不是GPT-4”。OpenAI发言人费利克斯表示,公司研究团队正在调查问题出在哪里。周二,人工智能研究人员批评OpenAI披露的信息不足。公司并没有公布有关GPT-4存在哪些偏见的评估数据。热切的工程师们也失望发现,关于GPT-4模型、数据集或训练方法的细节信息很少。OpenAI在技术报告中表示,考虑到面对的“竞争格局和安全影响”,该公司不会透露这些细节。GPT-4所处的多感官人工智能领域竞争激烈。Google母公司Alphabet旗下人工智能公司DeepMind去年发布了一个名为Gato的全能模型,可以描述图像和玩视频游戏。Google本月发布了一款多模式系统PaLM-E,能将人工智能视觉和语言分析整合到单臂机器人中。例如,如果有人让它去取一些芯片,它可以理解这个请求,转向抽屉,选择合适的物体。类似系统激发了人们对这项技术潜力的无限乐观,一些人甚至从中看到几乎与人类同等的智能水平。然而,正如批评者和人工智能研究人员认为那样,这些系统只是在重复训练数据中发现既定模式和固有关联,并没有清楚理解其中之意。GPT-4是自2018年OpenAI首次发布以来的第四个“生成式预训练转换器”,基于2017年开发的突破性神经网络技术“转换器”。这种通过分析网络文字和图像进行“预训练”的系统让人工智能系统在如何分析人类语音和图像的方式方面取得了飞速进展。多年来,OpenAI也从根本上改变了向大众发布人工智能工具的潜在社会风险。2019年,该公司曾拒绝公开发布GPT-2,称虽然人工智能表现非常好,但他们担心会出现使用它的“恶意应用程序”。但去年11月,OpenAI公开上线了基于GPT-3微调版本的ChatGPT。在发布后的短短几天内,用户就超过了100万。ChatGPT和必应聊天机器人的公开实验表明,如果没有人工干预,这项技术离完美表现还很远。在出现一系列奇怪对话和错误答案后,微软高管承认,就提供正确答案而言,人工智能聊天机器人仍然不值得信赖,但表示正在开发“信心指标”来解决这个问题。GPT-4有望改进一些缺点,科技博主罗伯特·斯科博(RobertScoble)等人工智能倡导者认为,“GPT-4比任何人预期的都要好。”OpenAI首席执行官萨姆·奥尔特曼(SamAltman)曾试图缓和人们对GPT-4的期望。他在1月份表示,对GPT-4能力的猜测已经达到了不可能的高度,“关于GPT-4的谣言是荒谬的”,“他们会失望的。”但奥尔特曼也在推销OpenAI的愿景。在上个月的一篇博客文章中,他表示,公司正在计划如何确保“所有人类”都受益于“通用人工通用能”(AGI)。这个行业术语指的是一种仍然不切实际的想法,要让超级人工智能和人类一样聪明,甚至比人类更聪明。...PC版:https://www.cnbeta.com.tw/articles/soft/1349541.htm手机版:https://m.cnbeta.com.tw/view/1349541.htm

封面图片

人工智能确定青少年自杀和自残的主要预测因素

人工智能确定青少年自杀和自残的主要预测因素根据澳大利亚健康与福利研究所(AIHW)的数据,自杀是15-24岁澳大利亚人的首要死因。在美国,疾病控制和预防中心(CDC)将其列为10-14岁青少年的第二大死因。预测自杀或自残的标准方法依赖于将过去的自杀或自残尝试作为唯一的风险因素,但这可能并不可靠。现在,新南威尔士大学悉尼分校领导的研究人员利用机器学习(ML)准确识别出了导致青少年自杀和自残风险增加的首要因素。"有时我们需要消化和处理大量信息,这超出了临床医生的能力范围,"该研究的通讯作者Ping-IDanielLin说。"这就是我们利用机器学习算法的原因"。这项具有全国代表性的研究始于2004年,从澳大利亚儿童纵向研究(LSAC)中提取了2809名青少年的数据。这些青少年被分为两个年龄组:14至15岁和16至17岁。数据来自儿童、他们的照顾者和学校老师填写的调查问卷。在参与者中,10.5%的人曾报告过自我伤害行为,5.2%的人报告在过去12个月中至少尝试过一次自杀。研究人员从心理健康、身体健康、人际关系、学校和家庭环境等方面的数据中发现了4000多个潜在风险因素。他们使用随机森林(RF)算法来确定哪些14-15岁时出现的风险因素最能预测16-17岁时的自杀和自残企图。RF是一种由决策树组成的监督机器学习算法。它将多个决策树的输出结果结合起来,得出一个结果。RF算法的基本思想是,通过将多个决策树组合成一个模型,平均预测结果将更接近实际情况。研究人员将ML模型的预测性能与仅使用既往自残史或自杀未遂史作为预测指标的方法进行了比较。每个模型的性能都是通过评估曲线下面积(AUC)来确定的,AUC是一个性能指标,范围从0.5(不优于随机猜测)到1.0(完美预测)。一般来说,预测风险的AUC在0.7到0.8之间为可接受,0.8到0.9为优秀,超过9.0为杰出。过程中使用了48个变量来训练RF模型,以预测自残行为,结果显示该模型的AUC为0.740,预测效果尚可。在预测自杀未遂方面,使用315个变量训练的模型的AUC为0.722。在自残模型中,最主要的变量包括评估抑郁症状的"简短情绪和感觉问卷"(SMFQ)、评估行为和情绪的"优势和困难问卷"(SDQ)得分、生活压力事件、青春期量表、儿童与父母的关系、自主性、对学校的归属感以及儿童是否有男女朋友。在自杀未遂模型中,SMFQ、SDQ、评估焦虑症状严重程度的斯彭斯焦虑量表以及衡量健康相关生活质量的CHU9D指数是最主要的预测指标。与仅使用自残史或自杀未遂史作为预测指标相比,ML模型的效果更好。使用既往自残史预测重复自残的AUC为0.645,使用既往自杀未遂史预测重复自杀未遂的AUC为0.630,使用自残史预测自杀未遂的AUC为0.647。令研究人员感到惊讶的是,自杀或自残前科并非高危因素,而环境却扮演着如此重要的角色。Lin说:"让我们感到惊讶的是,以前的尝试并不在首要风险因素之列。我们发现,年轻人所处的环境比我们想象的作用更大。从预防的角度来看,这是一件好事,因为我们现在知道,我们可以为这些人做更多的事情。"研究人员还指出,无论是自杀还是自残,都有其特有的因素。预测自杀的一个独特因素是缺乏自我效能感,当一个人感到无法控制自己的环境和未来时,就会产生这种感觉。自残的一个独特预测因素是缺乏情绪调节。研究人员说,他们的发现非常重要,因为这些发现倾向于推翻人们仅因心理健康状况不佳而自杀或自残的刻板印象。他们说,他们的模型可用于评估青少年的个体化风险。"基于患者信息,ML算法可以计算出每个人的得分,并将其整合到电子病历系统中,"Lin说。"临床医生可以快速检索这些信息,以确认或调整他们的评估。"在临床环境中推广这些模型之前,还需要进行更多的研究。它们需要应用于现实生活中的临床数据库,以验证其预测自杀和自残企图的有效性。"作为研究人员,我们将努力继续提供更多信息和证据。这是说服临床医生、家庭、患者和社区等利益相关者相信这些数据驱动的方法是有价值的"。该研究发表在《精神病学研究》(PsychiatryResearch)杂志上。...PC版:https://www.cnbeta.com.tw/articles/soft/1381485.htm手机版:https://m.cnbeta.com.tw/view/1381485.htm

封面图片

AI 洞察:微软 CEO 纳德拉,全力投入人工智能

AI洞察:微软CEO纳德拉,全力投入人工智能导读:这篇Wired近期采访文章极富洞见。让我感受到了近几个月来(NewBing发布至今)一次完整和系统思考,它代表了微软眼中的新世界。这些生动的对话,以一个巨型公司在不同时代浪潮下微型史诗进行展开。以纳德拉看似个人化的角度,娓娓道来,从他上任CEO、进行公司文化与战略变革,再到拥抱OpenAI的创新故事多个阶段展开。报道的深刻性在于,它揭示出纳德拉的全新Mindset以及语言体系,它不再是面向过去的,而是面向未来。上一次让我有如此思想冲击的文章还是比尔·盖茨的《人工智能时代已经到来》,强烈推荐给新世界的创造者们。(我在后记部分,留下读后感,以及与GPT深度交流Prompts,供参考)全文如下微软的萨蒂亚·纳德拉正在全力投入人工智能(这位首席执行官无法想象没有人工智能的生活,即使这是人类最后的发明。)我从未想过我会写下这些话,但是现在来了。萨蒂亚·纳德拉以及他领导的微软公司,都在其搜索引擎带来的热潮中飞速发展。这与我第一次与纳德拉交谈时的情况形成了鲜明对比,那是在2009年。那时候,他并不那么出名,他特别向我介绍了他的起源。他出生在印度的海得拉巴,后来在美国读研究生,并在1992年加入微软,正好是该公司崭露头角的时候。纳德拉在公司各个部门都有涉猎,并且在微软经历低谷时期,包括微软的反垄断法庭之战和错过智能手机革命后,他都留在了公司。只有在他谈到他当时的项目——即被讽刺为与谷歌的主导地位相差甚远的搜索引擎Bing之后,他才谈到了他的个人简历。众所周知,Bing未能打破谷歌在搜索引擎方面的垄断地位,但纳德拉的运气只是上升。2011年,他领导了新兴的云平台Azure,并开始构建其基础设施和服务。然后,由于他的过往业绩,他低调而有效的领导,以及比尔·盖茨的赞同,他在2014年成为微软的首席执行官。纳德拉立即开始转变公司的文化和商业模式。他开放了.net等产品的源代码,与以前的死敌(如与Salesforce的合作)成为了朋友,并开始了一系列大规模的收购,包括Mojang(Minecraft的制造商)、Linkedin和Github——这些网络的忠实成员可以被引导进入微软的世界。他加大了对Azure的投入,使其成为了亚马逊的AWS云服务的真正竞争对手。微软蓬勃发展,成为一家2万亿美元的公司。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人