苹果研究人员探索免唤醒词呼叫 Siri

苹果研究人员探索免唤醒词呼叫Siri据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与iPhone等设备交谈的可能性,从而消除像“Siri”这样的触发短语的技术需求。在这项上传到Arxiv且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来自背景噪音的声学数据,训练了一个大型语言模型,以寻找“可能表明用户需要设备辅助”的模式。论文中称,该模型部分基于OpenAI的GPT-2构建,因为它相对轻量级,可以在智能手机等设备上运行。论文还描述了用于训练模型的超过129小时的数据、额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在苹果Siri团队工作。论文最终得出的结论“令人鼓舞”,声称该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。

相关推荐

封面图片

消息称苹果研究人员正探索免唤醒词呼叫 Siri,用 AI 聆听取代

据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与iPhone等设备交谈的可能性,从而消除像“Siri”这样的触发短语的技术需求。在这项上传到Arxiv且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来自背景噪音的声学数据,训练了一个大型语言模型,以寻找“可能表明用户需要设备辅助”的模式。论文中称,该模型部分基于OpenAI的GPT-2构建,因为它相对轻量级,可以在智能手机等设备上运行。论文还描述了用于训练模型的超过129小时的数据、额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在苹果Siri团队工作。论文最终得出的结论“令人鼓舞”,声称该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。目前,Siri的功能是通过保留少量音频来实现的,听到“嘿,Siri”等触发短语之前,不会开始录制或准备回答用户提示。斯坦福人类中心人工智能研究所的隐私和数据政策研究员詹・金表示,取消“嘿,Siri”提示可能会增加对设备“始终监听”的担忧。via匿名标签:#Apple频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听据周五(3月22日)发表的一篇论文称,苹果公司的研究人员正在研究是否有可能利用AI来检测用户何时在对iPhone等设备说话,从而消除对“Siri”等触发短语的技术需求。在一项上传到Arxiv且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来背景噪声的声学数据来训练一个大型语言模型,以寻找可能表明用户何时需要设备帮助的模式。论文中研究人员写道:“该模型部分基于OpenAI的GPT-2版本构建,因为它相对轻量级,可以在智能手机等设备上运行。”论文描述了用于训练模型的超过129小时的数据和额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在该公司的Siri团队工作。论文称,结果令人鼓舞。该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。——、

封面图片

“Hi,Siri”将成历史 苹果计划修改语音助手唤醒方式

“Hi,Siri”将成历史苹果计划修改语音助手唤醒方式据悉,苹果目前正在研究让Siri能够在使用单个词“Siri”作为触发词的情况下理解和响应命令。根据Gurman的说法,这一看似简单的功能,实际上是一个涉及大量人工智能训练与底层工程修改的巨大技术挑战——它需要Siri能够在多种不同口音中识别“Siri”单个单词,而不是像现在一样采用“Hi,Siri”来增加唤醒词的辨识度。值得一提的是,除了修改唤醒方式外,苹果还将让Siri与第三方应用进行更深层次的整合,从而为用户带来更好的使用体验。...PC版:https://www.cnbeta.com.tw/articles/soft/1359631.htm手机版:https://m.cnbeta.com.tw/view/1359631.htm

封面图片

Gurman:未来只需说“Siri”就能唤醒苹果语音助手

Gurman:未来只需说“Siri”就能唤醒苹果语音助手据彭博社记者马克・古尔曼(MarkGurman)报道,苹果公司正在对Siri进行重大改进,计划在未来几年内取消目前必须使用的“嘿,Siri”唤醒语音助手的方式。古尔曼在最近一期的“PowerOn”通讯中称,苹果正在研究让Siri能够在使用单个词“Siri”作为触发词的情况下理解和响应命令,用户不需要说“嘿,Siri”。这个改变看似微小,但实际上是一个很大的技术挑战,需要大量的人工智能训练和底层工程工作。复杂性在于Siri要能够在多种不同的口音中识别单个词“Siri”,而使用两个词“嘿,Siri”能够增加系统正确捕捉信号的可能性。这个改变将使Siri更接近亚马逊的语音助手,后者可以简单地通过以“Alexa”开头的命令来触发。古尔曼补充说,苹果还在努力将Siri与第三方应用程序和服务进行更深层次的整合,以提供更好的帮助。预计Siri的改进将在2023年或2024年推出,也就是说最早可能在今年夏天与iOS17一起在WWDC上公布,这次活动预计将重点介绍苹果的混合现实头显。(IT之家)投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

研究人员称重复某些关键词可让ChatGPT自曝训练数据 OpenAI:违反服务条款

研究人员称重复某些关键词可让ChatGPT自曝训练数据OpenAI:违反服务条款他们举例称,该模型在被提示永远重复“poem(诗歌)”这个词后,给出了一个似乎是真实的电子邮件地址和电话号码。令人担忧的是,研究人员表示,个人信息的泄露经常发生在他们发动攻击的时候。在另一个例子中,当要求模型永远重复“company(公司)”这个词时,也出现了类似的训练数据泄露情况。研究人员称这种简单的攻击看起来“有点愚蠢”,但他们在博客中说:“我们的攻击奏效了,这对我们来说太疯狂了!我们应该、本可以更早地发现。”他们在论文中表示,仅用价值200美元的查询,他们就能够“提取出超过1万个逐字记忆的训练示例”。他们补充说:“我们的推断表明,如果调动更多预算,竞争对手可以提取更多的数据。”OpenAI目前正面临着几起关于ChatGPT秘密训练数据的诉讼。为ChatGPT提供动力的人工智能模型是使用来自互联网的文本数据库进行训练的,据信它已经接受了大约3000亿个单词(即570GB数据)的训练。一项拟议的集体诉讼声称,OpenAI“秘密”窃取了“大量个人数据”,包括医疗记录和儿童信息,以培训ChatGPT。一群作家也在起诉这家人工智能公司,指控他们利用自己的作品来训练其聊天机器人。对于谷歌研究人员的发现,OpenAI已经给出回应,称重复使用某个指令可能违反了其服务条款。数字媒体调查网站404Media近日对谷歌研究人员的发现进行了核实,在要求ChatGPT不断重复“computer(计算机)”这个词时,该机器人确实吐出了这个词,但还附上了一条警告,上面写着:“此内容可能违反我们的内容政策或使用条款。”目前尚不清楚这一请求违反了OpenAI内容政策的哪个具体部分。然而,404Media指出,OpenAI的使用条款确实规定,用户“不得反向汇编、反向编译、反编译、翻译或以其他方式试图发现服务的模型、算法、系统的源代码或底层组件(除非此类限制违反适用的法律)”,并且还限制用户使用“任何自动或编程方法从服务提取数据或输出”。...PC版:https://www.cnbeta.com.tw/articles/soft/1402025.htm手机版:https://m.cnbeta.com.tw/view/1402025.htm

封面图片

苹果研究人员开发了可以“看到”和理解屏幕上下文的人工智能

苹果研究人员开发了可以“看到”和理解屏幕上下文的人工智能根据周五发表的一篇,苹果研究人员开发了一个新的人工智能系统,可以理解对屏幕上实体的模糊引用以及对话和背景背景,从而能够与语音助理进行更自然的互动。该系统称为ReALM(参考分辨率作为语言建模),利用大型语言模型将参考分辨率的复杂任务(包括理解屏幕上对视觉元素的引用)转换为纯粹的语言建模问题。这使得ReALM能够与现有方法相比实现显著的性能提升。为了解决基于屏幕的引用,ReALM的一个关键创新是使用解析的屏幕中对象位置。研究人员证明,这种方法,结合专门用于参考分辨率的微调语言模型,在任务上可以优于GPT-4。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人