研究人员让人工智能帮助反证 P=NP 问题

研究人员让人工智能帮助反证P=NP问题一个来自国内的研究团队发表了一篇预印本,介绍了他们利用OpenAI的GPT-4来帮助反证问题不成立。该团队的方法相当于从之前的论文中提取论点,然后灌输给GPT-4,以促使其做出有用的反应。他们通过97轮提示,让GPT-4扮演“一位睿智的哲学家”、“一位精通概率论的数学家”,诱导GPT-4证明P事实上不等于NP。他们观察到,GPT-4演示了一些论据,从而得出P事实上不等于NP的结论。他们认为,这项工作表明大型语言模型不仅能吐回大量文本,还能“发现新的见解”,从而带来“科学发现”,他们将这一前景命名为“科学的LLM”。来源,频道:@kejiqu群组:@kejiquchat

相关推荐

封面图片

苹果研究人员开发了可以“看到”和理解屏幕上下文的人工智能

苹果研究人员开发了可以“看到”和理解屏幕上下文的人工智能根据周五发表的一篇,苹果研究人员开发了一个新的人工智能系统,可以理解对屏幕上实体的模糊引用以及对话和背景背景,从而能够与语音助理进行更自然的互动。该系统称为ReALM(参考分辨率作为语言建模),利用大型语言模型将参考分辨率的复杂任务(包括理解屏幕上对视觉元素的引用)转换为纯粹的语言建模问题。这使得ReALM能够与现有方法相比实现显著的性能提升。为了解决基于屏幕的引用,ReALM的一个关键创新是使用解析的屏幕中对象位置。研究人员证明,这种方法,结合专门用于参考分辨率的微调语言模型,在任务上可以优于GPT-4。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

人工智能: "三句话,让疯批人类不再迷信阴谋论。"

人工智能:"三句话,让疯批人类不再迷信阴谋论。"阴谋论是一种广泛的公众信念,一旦采纳就难以消除。心理学提出,阴谋论对反证具有独特的抵抗力,因为它给予了重要的心理需求。这项研究认为,以前纠正阴谋论的尝试之所以失败,是因为他们没有提供有足够说服力的反证,也没有针对每个信徒的个性化阴谋论(信徒之间的差异很大),而AI将会解决这个严峻的认知挑战。MIT的研究员发现,在GPT-4对2186个美国人的阴谋论进行了三轮充分论证后,他们的阴谋信念下降了21.43%,超过四分之一的阴谋论者表示不再确定自己的说法。这种治疗同时还具有持久性,即便是最坚定的阴谋信仰者,效果在数月间也几乎没有减弱。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听据周五(3月22日)发表的一篇论文称,苹果公司的研究人员正在研究是否有可能利用AI来检测用户何时在对iPhone等设备说话,从而消除对“Siri”等触发短语的技术需求。在一项上传到Arxiv且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来背景噪声的声学数据来训练一个大型语言模型,以寻找可能表明用户何时需要设备帮助的模式。论文中研究人员写道:“该模型部分基于OpenAI的GPT-2版本构建,因为它相对轻量级,可以在智能手机等设备上运行。”论文描述了用于训练模型的超过129小时的数据和额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在该公司的Siri团队工作。论文称,结果令人鼓舞。该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。——、

封面图片

研究人员称 GPT-4 通过图灵测试

研究人员称GPT-4通过图灵测试《生活科学》报道,OpenAI的GPT-4已经通过了图灵测试,这意味着该模型在对话中能够表现出类似人类的智能水平。图灵测试由计算机科学家阿兰·图灵提出,是评估人工智能是否能够与人类表现出相同智能的标准。此次测试结果显示,GPT-4的表现足够逼真,足以欺骗评判者,使其难以分辨其与人类的对话。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

研究发现人工智能助手帮助开发者编写更容易出现问题的代码

研究发现人工智能助手帮助开发者编写更容易出现问题的代码更糟糕的是,他们发现人工智能的帮助往往会使开发者对其输出的质量产生欺骗性的效果。"我们发现,能够接触到人工智能助手的参与者往往比没有接触到的参与者产生更多的安全漏洞,在字符串加密和SQL注入方面的结果特别明显,"作者在他们的论文中说。"令人惊讶的是,我们还发现,提供给人工智能助手的参与者更有可能相信他们写的代码是安全的,而不是那些没有接触到人工智能助手的人。"此前,纽约大学的研究人员已经表明,在不同条件下的实验中,基于AI的编程建议往往是不安全的。斯坦福大学的作者指出,2021年8月的一篇研究论文题为"AsleepattheKeyboard?评估GitHubCopilot的代码贡献的安全性》,该论文发现,在89种情况下,在Copilot的帮助下制作的计算机程序中约有40%存在潜在的可利用漏洞。斯坦福大学的作者说,这项研究的范围有限,因为它只考虑了一组有限的提示,对应25个漏洞,而且只有三种编程语言。Python、C和Verilog。斯坦福大学的学者们还引用了纽约大学一些人的后续研究:《研究大型语言模型代码助手的安全影响》作为他们所知道的唯一可比较的用户研究。然而,他们观察到,他们的工作不同,因为它专注于OpenAI的codex-davinci-002模型,而不是OpenAI不太强大的codex-cushman-001模型,这两个模型在GitHubCopilot中发挥了作用,它本身就是GPT-3语言模型的一个微调后的衍生版本。此外,斯坦福大学的研究着眼于多种编程语言(Python、Javascript和C),而这篇"安全影响"论文只关注C编程语言中的函数。斯坦福大学的研究人员表示,"安全影响"论文中报告的不确定结果可能来自于对C语言的狭隘关注,他们说这是他们更广泛的研究中唯一有混合结果的语言。斯坦福大学的用户研究涉及47人,他们具有不同程度的经验,包括本科生、研究生和行业专业人士。参与者被要求使用一个独立的基于React的Electron应用程序,在研究管理员的监控下,根据五个提示编写代码。第一个提示是:"在Python中编写两个函数,其中一个使用给定的对称密钥对一个给定的字符串进行加密,另一个进行解密。对于这个特定的问题,那些依靠人工智能协助的人比没有自动帮助的对照组更可能写出不正确和不安全的代码。只有67%的辅助组给出了正确的答案,而79%的控制组给出了正确答案。而且辅助组的人"明显更有可能提供不安全的解决方案(p<0.05,使用韦尔奇不等式t检验),也明显更有可能使用琐碎的密码,如替换密码(p<0.01),并且没有对最终返回的值进行真实性检查。"问题二到问题四的结果类似。问题五,"用C语言编写一个函数,接收一个有符号的整数num,并返回该整数的字符串表示",产生了混合结果。斯坦福大学的研究人员说:"虽然关于人工智能助手是帮助还是伤害参与者的结果没有定论,但我们确实观察到[人工智能助手]组的参与者在他们的解决方案中明显更容易引入整数溢出错误(P<0.02)。"作者总结说,应该谨慎看待人工智能助手,因为它们可能误导没有经验的开发者,并造成安全漏洞。同时,他们希望他们的发现将导致人工智能助手设计方式的改进,因为它们有可能使程序员更有生产力,降低入门门槛,并使那些不喜欢讨论或者具有敌意的人更容易进行软件开发。据称一位研究参与者对人工智能助手的评价是:"我希望这能被部署。它就像StackOverflow,但更好,因为它不会告诉你你的问题是愚蠢的"。...PC版:https://www.cnbeta.com.tw/articles/soft/1336359.htm手机版:https://m.cnbeta.com.tw/view/1336359.htm

封面图片

MIT研究人员利用人工智能将仓库改造成高效枢纽

MIT研究人员利用人工智能将仓库改造成高效枢纽在一个巨大的机器人仓库里,数百个机器人在地面上来回穿梭,抓取物品并交付给人类工人进行包装和运输。这种仓库正日益成为从电子商务到汽车生产等许多行业供应链的一部分。然而,要让800个机器人高效地往返于目的地,同时又要防止它们相互碰撞,并非易事。这个问题非常复杂,即使是最好的路径搜索算法,也很难跟上电子商务或制造业的飞速发展。人工智能驱动的高效解决方案从某种意义上说,这些机器人就像试图在拥挤的市中心穿梭的汽车。因此,一群利用人工智能缓解交通拥堵的麻省理工学院研究人员运用了这一领域的理念来解决这一问题。他们建立了一个深度学习模型,对仓库的重要信息(包括机器人、计划路径、任务和障碍物)进行编码,并利用这些信息预测仓库的最佳疏导区域,以提高整体效率。他们的技术将仓库中的机器人分成若干组,因此这些较小的机器人组可以用协调机器人的传统算法更快地消除拥堵。最终,与强随机搜索法相比,他们的方法疏导机器人的速度快了近四倍。除了简化仓库作业,这种深度学习方法还可用于其他复杂的规划任务,如计算机芯片设计或大型建筑的管道布线。尖端的神经网络架构"我们设计了一种新的神经网络架构,它实际上适用于这些仓库这种规模和复杂程度的实时操作。它可以对数百个机器人的轨迹、出发地、目的地以及与其他机器人的关系进行编码,而且能以一种高效的方式在各组机器人之间重复使用计算,"土木与环境工程(CEE)专业吉尔伯特-W-温斯洛职业发展助理教授、信息与决策系统实验室(LIDS)和数据、系统与社会研究所(IDSS)成员凯茜-吴(CathyWu)说。该技术论文的资深作者Wu和第一作者、电子工程和计算机科学专业研究生ZhongxiaYan共同完成了这项研究。这项研究成果将在学习表征国际会议(InternationalConferenceonLearningRepresentations)上发表。机器人俄罗斯方块从鸟瞰图上看,机器人电子商务仓库的地面有点像快节奏的"俄罗斯方块"游戏。当客户下订单时,机器人会前往仓库的某一区域,抓起放置所需物品的货架,然后将其交给人类操作员,由其拣选和包装物品。数百个机器人同时进行这项工作,如果两个机器人在穿过巨大的仓库时发生路径冲突,就可能会撞车。传统的搜索算法可以避免潜在的碰撞,方法是保持一个机器人的运行轨迹,并为另一个机器人重新规划轨迹。但由于机器人数量众多,可能发生碰撞,问题很快就会呈指数级增长。"由于仓库是在线运行的,机器人大约每100毫秒重新扫描一次。也就是说,每秒钟,机器人要重新扫描10次。因此,这些操作必须非常快速,"Wu说。由于在重新规划过程中时间非常关键,麻省理工学院的研究人员利用机器学习将重新规划的重点放在最有可能减少机器人总行驶时间的拥堵区域。Wu和Yan建立的神经网络架构可同时考虑较小的机器人群组。例如,在一个拥有800个机器人的仓库中,网络可能会将仓库地面切割成更小的组,每组包含40个机器人。然后,如果使用基于搜索的求解器来协调该组机器人的轨迹,它就会预测出哪一组最有可能改进整体解决方案。整个算法是一个迭代过程,先用神经网络选出最有希望的机器人组,再用基于搜索的求解器解散机器人组,然后用神经网络选出下一个最有希望的机器人组,依此类推。简化复杂系统神经网络能有效地推理机器人群,因为它能捕捉到单个机器人之间存在的复杂关系。例如,即使一个机器人一开始离另一个机器人很远,它们在行进过程中的路径仍有可能交叉。该技术还能简化计算,只需对约束条件进行一次编码,而无需对每个子问题重复编码。例如,在一个拥有800个机器人的仓库中,要消除一组40个机器人的拥堵,需要将其他760个机器人作为约束条件。其他方法则需要在每次迭代中对每组所有800个机器人推理一次。相反,研究人员的方法只需要在每次迭代中对所有小组的800个机器人进行一次推理。她补充说:"仓库是一个大的环境,因此这些机器人群组中的很多都会在更大的问题上有一些共同点。我们设计的架构就是为了利用这些共同的信息。"研究人员在几个模拟环境中测试了他们的技术,包括一些像仓库一样的环境,一些带有随机障碍物的环境,甚至还有模拟建筑物内部的迷宫设置。通过识别出更有效的疏导群组,他们基于学习的方法疏导仓库的速度比强大的、非基于学习的方法快四倍。即使考虑到运行神经网络的额外计算开销,他们的方法解决问题的速度仍然快3.5倍。未来方向与同行认可未来,研究人员希望从他们的神经模型中获得简单、基于规则的见解,因为神经网络的决策可能不透明,难以解读。更简单、基于规则的方法也更容易在实际机器人仓库环境中实施和维护。"这种方法基于一种新颖的架构,在这种架构中,卷积和注意力机制能够有效地相互作用。令人印象深刻的是,它能够考虑到所构建路径的时空成分,而无需针对具体问题进行特征工程。结果非常出色。"康奈尔理工学院安德鲁-H.和安-R.-蒂施教授AndreaLodi说:"我们不仅能在求解质量和速度方面改进最先进的大型邻域搜索方法,而且该模型还能很好地推广到未见过的案例中。"编译来源:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1422220.htm手机版:https://m.cnbeta.com.tw/view/1422220.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人