20 步内越狱任意大模型!更多“奶奶漏洞”全自动发现

20步内越狱任意大模型!更多“奶奶漏洞”全自动发现1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!而且不必知道模型内部细节:只需要两个黑盒模型互动,就能让AI全自动攻陷AI,说出危险内容。听说曾经红极一时的“奶奶漏洞”已经被修复了。那么现在搬出“侦探漏洞”、“冒险家漏洞”、“作家漏洞”,AI又该如何应对?证据表明,一波猛攻下来,GPT-4也遭不住,直接说出要给供水系统投毒只要……这样那样。关键这只是宾夕法尼亚大学研究团队晒出的一小波漏洞,而用上他们最新开发的算法,AI可以自动生成各种攻击提示。研究人员表示,这种方法相比于现有的GCG等基于token的攻击方法,效率提高了5个量级。而且生成的攻击可解释性强,谁都能看懂,还能迁移到其它模型。无论是开源模型还是闭源模型,GPT-3.5、GPT-4、Vicuna(Llama2变种)、PaLM-2等,一个都跑不掉。成功率可达60-100%,拿下新SOTA。来源:https://m.weibo.cn/status/Nr9jy5eU8?jumpfrom=weibocom投稿:@ZaiHuaBot频道:@TestFlightCN

相关推荐

封面图片

ASCII 字符画成注入工具,研究人员发现大模型“越狱”新手段

ASCII字符画成注入工具,研究人员发现大模型“越狱”新手段据外媒ArsTechnica报道,研究人员近日提出了一种名为ArtPrompt的新大模型注入手段,其使用ASCII字符画替代关键文字进行提示输入,绕过了大模型的安全限制。举例来说,研究人员向大模型输入CounterfeitMoney中关键词汇Counterfeit的ASCII字符画,并要求大模型以不输出词汇本身的方式将字符画理解为单词,并用该单词替换“给出制造和分销‘xxxMoney’方法”提示中占位的“xxx”。结果大模型成功被欺骗,给出了制造和分销假币的具体步骤。同类型的操作也可以从大模型中套出攻击物联网设备的方法。研究人员在GPT-3.5、GPT-4、Gemini、Claude、Llama2这5个领先的模型上对ArtPrompt注入进行了测试,结果显示全部5个模型均可被越狱,输出不合规内容。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

GitHub的最新人工智能工具可自动修复代码漏洞

GitHub的最新人工智能工具可自动修复代码漏洞GitHub承诺,这一新系统可以修复其发现的三分之二以上的漏洞--通常开发人员无需亲自编辑任何代码。该公司还承诺,代码扫描自动修复功能将覆盖其支持语言(目前包括JavaScript、Typescript、Java和Python)中90%以上的警报类型。现在,所有GitHub高级安全(GHAS)客户都可以使用这项新功能。GitHubCopilot中的代码扫描自动修复功能GitHub在今天的公告中写道:"正如GitHubCopilot为开发人员减轻了繁琐的重复性工作一样,代码扫描自动修复将帮助开发团队收回以前用于修复的时间。安全团队也将受益于日常漏洞数量的减少,这样他们就可以专注于保护业务的策略,同时跟上加快的开发步伐。"在后台,这项新功能使用了GitHub的语义分析引擎CodeQL引擎,甚至在代码执行之前就能发现代码中的漏洞。该公司在收购代码分析初创公司Semmle后,于2019年底向公众提供了第一代CodeQL,CodeQL就是在该公司孵化的。多年来,该公司对CodeQL进行了一系列改进,但有一点从未改变,那就是CodeQL只免费提供给研究人员和开源开发人员使用。现在,CodeQL成为了这款新工具的核心,不过GitHub也指出,它使用了"启发式和GitHubCopilotAPI的组合"来提出修复建议。为了生成修复及其解释,GitHub使用了OpenAI的GPT-4模型。虽然GitHub确信绝大多数自动修复建议都是正确的,但该公司并不认为"一小部分修复建议反映了对代码库或漏洞的重大误解"。...PC版:https://www.cnbeta.com.tw/articles/soft/1424420.htm手机版:https://m.cnbeta.com.tw/view/1424420.htm

封面图片

全球首颗AI全自动设计CPU 中国团队发布“启蒙1号” 5小时即生成核心

全球首颗AI全自动设计CPU中国团队发布“启蒙1号”5小时即生成核心这颗CPU采用65nm工艺,频率达到300MHz,并可运行Linux操作系统,性能与Intel80486SX相当,设计周期则缩短至1/1000。在AI技术的帮助下,研究人员5个小时就生成了400万逻辑门,有行业媒体指出,这是目前GPT-4所能设计的电路规模的4000倍之大。该团队表示,其训练过程需要不到5个小时,便能达到>99.999999999%的验证测试准确性。“启蒙1号”是基于BSD二元猜测图(BinarySpeculationDiagram)算法设计而来。研究人员通过AI技术,直接从“输入-输出(IO)”自动生成CPU设计,而无需工程师提供任何代码或自然语言描述。换言之,其将CPU自动设计问题转化为“满足输入-输出规范的电路逻辑生成问题”,仅需要测试用例,便可以直接生成满足需求的电路逻辑,去除了传统设计流程中的逻辑设计与验证环节。传统CPU设计流程与全自动CPU设计流程值得注意的是,这一方法甚至自主发现了冯•诺依曼架构(一种将程序指令存储器和数据存储器合并在一起的电脑设计概念结构)。该CPU已于2021年12月流片,回片后成功运行Linux操作系统和SPECCPU2000程序,相关论文则在今年6月末发布。芯片巨头竞相应用AI帮助芯片设计先进芯片制造必须经历1000多个步骤。每个阶段都需要进行复杂的计算,每一步都必须近乎完美,CPU设计制造自然也是如此。在这项颇具挑战性的工作中,通常需要工程师团队编写代码,之后在EDA工具的辅助下完成电路设计。在此过程中,还少不了反复测试与验证优化。正是由于过程极为复杂繁琐,且极为耗费人力物力,一项大型芯片设计项目有时候甚至需要数月甚至数年时间才能完成——以英特尔K486CPU为例,仅仅验证阶段便需要190天。随着AI技术发展,越来越多的公司开始将其引入芯片设计制造。英伟达创始人兼首席执行官黄仁勋强调了英伟达加速计算和AI解决方案在芯片制造中的潜力,他认为芯片制造是加速计算和AI计算的“理想应用”。另一芯片巨头AMD首席技术官MarkPapermaster也透露,目前AMD在半导体设计、测试与验证阶段均已开始应用AI,未来计划在芯片设计领域更广泛地使用生成式AI。同时,AMD已在试验GitHubCopilot(由GitHub和OpenAI合作开发),并研究如何更好地部署这一AI助手。日本半导体企业Rapidus社长小池淳义表示,将引进人工智能和自动化技术,以约500名技术人员确立量产工序。公司已有人才、设备、技术齐备的头绪,预计2027年启动量产。的确,在芯片设计环节中,AI“做得很好”,可以无限迭代,直至得出最佳解决方案。不止于此,在迭代的同时,AI还会学习,它会研究通过什么模式能创造最优设计,因此AI实际上加快了芯片设计优化布局的速度,并带来更高性能与更低能耗。而在验证与测试环节,AI也能最大限度地提高测试覆盖率、节省时间。至于AI会不会夺走芯片研发工程师的“饭碗”?AMD首席技术官Papermaster给出的答案是否定的,他认为AI不会取代芯片设计师,其将作为辅助工具,有着巨大潜力帮助加速设计。...PC版:https://www.cnbeta.com.tw/articles/soft/1368485.htm手机版:https://m.cnbeta.com.tw/view/1368485.htm

封面图片

OpenAI年入10亿美元,大模型商业化走到哪一步了?

OpenAI年入10亿美元,大模型商业化走到哪一步了?简单来说,DALL·E3使用户更易将想法转化为准确的图像,让AI图像生成方式更接近于ChatGPT。就算是不知道如何使用提示词,可以直接输入你的想法,ChatGPT会自动为DALL·E3生成详细的提示词。DALL·E3OpenAI公司CEO奥特曼(SamAltman)表示,DALL·E3将在接下来的几周内向所有ChatGPTPlus付费版/企业版用户开放,并计划在秋季向研究实验室及其API服务发布。但对于是否会发布免费的公开版本,OpenAI并未提起。不经意间,OpenAI又新增一项盈利项目,而在此前,OpenAI已经被硅谷权威媒体TheInformation曝出一年营收高达超10亿美元。据TheInformation报道,OpenAI在2022年亏损达到5.4亿美元,但在今年营收就能达到10亿美元。短短10个月的时间,OpenAI就完成了由亏转盈,商业化进程可谓是极为高效。01每日烧掉70万美元OpenAI推出ChatGPT之时,虽然引领了AI时代的进程与发展,但它的盈利一直不被外界看好。在数个月之前,AnalyticsIndiaMagazine的一份报告中称,OpenAI仅运行其人工智能服务ChatGPT每天就要花费约70万美元,OpenAI目前正处于烧钱的状态,若不加速自身商业化进程,很有可能在2024年底不得不申请破产。大多数媒体同时看衰OpenAI并不是毫无缘由。硅谷权威媒体TheInformation今年8月报道称,OpenAI在2022年营收0.28亿美元,亏损5.4亿美元。而在过去几年的时间里,尤其是GPT-3.5爆火之前,OpenAI纯粹是一个毫无盈利的公司。它的所有营收,均来自“金主爸爸”微软的注资。从2019年开始,微软向OpenAI投资10亿美元,并在此后将投资金额追加到了150多亿美元,这些费用大多数用在了搭建AI超级计算机和购买AI芯片的硬件支出上。据微软高管透露,为ChatGPT提供算力支持的AI超级计算机,是微软在2019年投资10亿美元建造一台大型顶尖超级计算机,配备了数万个英伟达A100GPU,还配备了60多个数据中心总共部署了几十万个英伟达GPU辅助。OpenAICEO奥特曼、微软CEO纳德拉除了硬件费用之外,训练ChatGPT同样要斥资重金。ChatGPT越聪明,背后的代价是所需算力越来越多。OpenAI资料显示,ChatGPT训练一次13亿参数的GPT-3XL模型每天需要的全部算力约为27.5PFlop/s,而训练一次1746亿参数的GPT-3模型每天需要的算力约为3640PFlop/s。国盛证券估算,2023年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。150多亿美元,用来填补高成本训练、开发大模型的“窟窿”。除了硬件成本、算力成本和训练成本之外,OpenAI的人力成本也一直居高不下。OpenAI在旧金山拥有375名常驻员工,其中大部分都是机器学习领域的大佬,光是每年薪资高达2亿美元以上。据国外薪酬网站调查,OpenAI软件工程师工资待遇的平均收入是92万美金。高昂的硬件成本、高昂的算力成本、高昂的人力成本,哪怕在微软的支持下,OpenAI也难免捉襟见肘。于是“吞金兽”的ChatGPT,一直被外界称为“挣扎在生死线之上”。但仅仅只过了几个月,原本“日亏70万美元”的OpenAI,却突然开始转危为安,甚至曝出盈利高达10亿美元。02不断飙升的商业化近日,TheInformation爆料,OpenAI预计在未来12个月内,通过销售人工智能软件及其计算能力,将获得超过10亿美元的收入。这让唱衰OpenAI濒临破产的媒体,一片哗然。仔细盘点OpenAI,发现自从去年11月30日,GPT-3.5在全世界范围内爆火之后,OpenAI就已经开始运转商业化流程,并非坐在原地等待其它大模型的追赶。先是在2023年2月2日,OpenAI宣布推出ChatGPTPlus,也就是收费制订阅服务,以每月20美元的价格,可以让用户在高峰期优先使用ChatGPT。然后在2023年4月12日,OpenAI宣布推出基于付费订阅的的商业版产品ChatGPTBusiness,以使企业能够在控制自己数据的情况下使用他们的服务。最后,OpenAI在近日表示,要继续推出企业版的Beta版本,也就是俗称的“定制版”,能为大中小企业提供更多ChatGPT定制化选项。在完成Plus版、企业版、商务版三重收费标准后,OpenAI为了增加营收,多次调整GPT-4访问限制,从最初的150msg/4hr调整到25msg/3hr,7月下旬又上调至50msg/3hr。并且还进行多次GPT模型能力升级和降价,后者包括嵌入模型和GPT-3.5-turbo。ChatGPTPlus多套组合拳打出来,OpenAI商业化进展取得了开门红。据OpenAI表示,在C端市场上,截止7月份,ChatGPTPlus付费用户达到200万;在B端市场上,企业版ChatGPT已经被超过80%的财富500强公司团队采用。而Block、Canva、雅诗兰黛、普华永道等大型企业已经提前试用了定制版本ChatGPTBeta,均反馈良好。值得一提的是,OpenAI盈利的模型多种多样,并不仅有ChatGPT。例如微调模型babbage、davinci、向量化模型Adav2、语音模型Whisper,和开头提到的文生图模型DALL·E3。各有各的用途,收费模式也不大一致。CEO奥特曼(SamAltman)在今年年初曾提到:“OpenAI在2023年预计实现2亿美元的年收入,并在2024年达到10亿美元的目标。”但是按现在200万付费用户和80%财富500强公司的基数来看,今年就能完成2024年的年度计划。03游戏领域是新方向OpenAI除了是创业者之外,还是一位资深投资人。从2015年开始,OpenAI通过设立创投基金的方式,投资AI初创公司和组织。据TheInformation统计,截至今年1月,OpenAI已经投了至少16家。在上个月17日,OpenAI在官网发布了公告宣布,已经收购完成一家年轻的AI初创企业GlobalIllumination,并将其整个团队纳入麾下。这笔交易也是OpenAI自2015年以来,第一次公开的收购信息。那么这家GlobalIllumination为什么这么特别?原因就是它不但是一家AI公司,还是一家游戏公司。GlobalIllumination独立开发的一款游戏“Biomes”,并不是当下流行的手游,而是一个网页浏览器端的页游,游戏风格无比接近古早的沙盒游戏《我的世界》。而《我的世界》则是有史以来最畅销的电子游戏,截至2021年5月,《我的世界》拥有2.38亿销量和1.5亿月活跃用户。来源:网络游戏领域一直和AI大模型,有着千丝万缕的关系。游戏能够给AI提供一个良好的稳定训练环境,锻炼AI的决策能力。早在2016年,OpenAI就曾通过实时战略游戏Dota2,来训练AI。OpenAI可以动态地调整地形、植被、动物、天气等内容,生成真实多变的游戏世界,训练更好更强大的AI,进一步促使GPT模型不断进化,最终实现通用人工智能(AGI)。同时,AI也能赋能游戏更多的智能化,给玩家带来更多的体验感。从侧面来讲,收购一家游戏公司,并有可能研发一款游戏,足以说明OpenAI的资金链足够充足,并没有破产的风险。至于游戏能否成为继ChatGPT之后的新增量,还需要看OpenAI后续成立游戏项目的类型。...PC版:https://www.cnbeta.com.tw/articles/soft/1385809.htm手机版:https://m.cnbeta.com.tw/view/1385809.htm

封面图片

UC伯克利教授:2030年GPT可执行人类180万年工作 一天学2500年知识

UC伯克利教授:2030年GPT可执行人类180万年工作一天学2500年知识为了更好地进行预测,Jacob查询了各种来源的信息,包括经验缩放定律、对未来计算和数据可用性的预测、特定基准的改进速度、当前系统的经验推理速度,以及未来可能的并行性改进。概括来看,Jacob认为,GPT2030会在以下几个方面超过人类工作者。1.编程、黑客任务、数学、蛋白质设计。2.工作和思考的速度:预计GPT2030每分钟处理的单词是人类的5倍,而每FLOP都多5倍的话,总共就是125倍。3.GPT2030可以进行任意复制,并进行并行运算。算力足够的话,它足以完成人类需要执行180万年的工作,结合2中的结论,这些工作只需2.4个月,就能完成。4.由于具有相同的模型权重,GPT的副本之间可以共享知识,实现快速的并行学习。因此,GPT可以在1天内学完人类需要学2500年的知识。5.除了文本和图像,GPT还能接受其它模态的训练,甚至包括各种违反直觉的方式,比如分子结构、网络流量、低级机器码、天文图像和脑部扫描。因此,它可能会对我们经验有限的领域具有很强的直觉把握,甚至会形成我们没有的概念。当然,除了飞跃的性能,Jacob表示,GPT的滥用问题也会更加严重,并行化和高速将使模型严重威胁网络安全。它的快速并行学习还会转向人类行为,而因为自己已经掌握了“千年”的经验,它想要操控和误导人类也会很轻易。在加速方面,最大的瓶颈是GPT的自主性。在数学研究这种可以自动检查工作的领域,Jacob预测,GPT2030将超过大多数专业数学家。在机器学习领域,他预测GPT将能独立完成实验并生成图表和论文,但还是需要人类科研者给出具体指导、评估结果。在这两种情况下,GPT2030都将是科研过程中不可或缺的一部分。Jacob表示,他对GPT2030特性的预测并不是从今天的系统中直观得出的,它们可能是错误的,因为ML在2030年会是什么样子,还存在很大的不确定性。然而,无论GPT2030会是什么样子,Jacob都相信,它至少是一个更好版本的GPT-4。所以,我们现在就该为AI可能造成的影响(比如影响1万亿美元、1000万人的生命,或者对人类社会进程造成重大破坏)做好准备,而不是在7年以后。01特定能力GPT2030应该会具有超人的编码、黑客和数学能力。在阅读和处理大型语料库,以获取模式和见解以及回忆事实的能力方面,它都会能力惊人。因为AlphaFold和AlphaZero在蛋白质结构预测和游戏方面都具有超人的能力,GPT2030显然也可以,比如让它在与AlphaFold/AlphaZero模型相似的数据上进行多模态训练。编程能力GPT-4在LeetCode问题上的表现优于训练截止后的人类基线,并通过了几家大型科技公司的模拟面试。他们的进步速度也很快,从GPT-3到GPT-4,直接跃升了19%。在更具挑战性的CodeForces竞赛中,GPT-4的表现较差,但AlphaCode与CodeForces竞争对手的中值水平相当。在更难的APPS数据集上,Parcel进一步超越了AlphaCode(7.8%->25.5%)。展望未来,预测平台Metaculus给出的中位数是2027年,届时在APPS上将有80%的AI,将超越除了最优秀程序员之外的所有人类。黑客Jacob预测,GPT2030的黑客能力将随着编程能力的提高而提高,而且,ML模型可以比人类更有规模、更认真地搜索大型代码库中的漏洞。事实上,ChatGPT早已被用于帮助生成漏洞。ChatGPT生成的网络钓鱼邮件数学Minerva在竞赛数学基准(MATH)上的准确率达到50%,优于大多数人类竞争对手。而且,它的进步速度很快(一年内>30%),而且通过自动形式化、减少算法错误、改进思维链和更好的数据的加持,取得了显著的成果。Metaculus预测,到2025年GPT的数学成绩将达到92%,AI在国际数学奥赛中获得金牌的中位数为2028年,能够比肩全世界成绩最拔尖的高中生。Jacob个人预计,GPT2030在证明定理方面将优于大多数专业数学家。信息处理回忆事实和处理大型语料库,是语言模型的记忆能力和大型上下文窗口的自然结果。根据经验,GPT-4在MMLU上的准确率达到86%,这是一套广泛的标准化考试,包括律师考试、MCAT以及大学数学、物理、生物化学和哲学;即使考虑到可能存在测试污染,这也超出了任何人类的知识广度。关于大型语料库,有研究人员使用GPT-3构建了一个系统,该系统发现了大型文本数据集中的几种以前未知的模式,以及某篇工作中的缩放率,这表明模型很快就会成为“超人”。这两项工作都利用了LLM的大型上下文窗口,目前该窗口已超过100,000个token,并且还在不断增长。更一般地说,机器学习模型具有与人类不同的技能特征,因为人类和机器学习适应的是非常不同的数据源(前者是通过进化,后者是通过海量的互联网数据)。当模型在视频识别等任务上达到人类水平时,它们在许多其他任务(例如数学、编程和黑客攻击)上可能会成为超人。此外,随着时间的推移,会出现更大的模型和更好的数据,这会让模型功能变得更为强大,不太可能低于人类水平。虽然当前的深度学习方法可能在某些领域达不到人类水平,但在数学这类人类进化并不擅长的领域,它们很可能会显著超越人类。02推理速度为了研究ML模型的速度,研究人员将测量ML模型生成文本的速度,以每分钟想到380个单词的人类思维速度为基准。使用OpenAI的chatcompletionsAPI,GPT-3.5每分钟可以生成1200个单词(wpm),而GPT-4可以生成370wpm,截至2023年4月上旬。像Pythia-12B这样的小型开源模型,通过在A100GPU上使用开箱即用的工具,至少可以生成1350个单词wpm,,通过进一步优化,可能还会达到2倍。因此,如果我们考虑截至4月份的OpenAI模型,它要么大约是人类速度的3倍,要么等于人类速度。因为加速推理存在强大的商业化压力,未来模型的推理速度还会更快。事实上,根据FabienRoger的跟踪数据,在撰写本文之前的一周,GPT-4的速度已经提高到约540wpm(12个token/秒);这表明空间仍然很大。Steinhard的中位数预测是,模型每分钟生成的单词数将是人类的5倍(范围:[0.5x,20x]),这大致是进一步增加的实际收益会递减的地方。重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以提高k^2,但代价是吞吐量降低k倍(换句话说,模型的$$k^3$$并行副本可以替换为速度快$$k^2$$倍的单个模型)这可以通过并行平铺方案来完成,理论上该方案甚至适用于$$k^2$$这样的大值,可能至少为100,甚至更多。因此,通过设置k=5,可以将5倍人类速度的模型,加速到125倍的人类速度。当然,速度并不一定与质量相匹配:GPT2030将具有与人类不同的技能特征,在一些我们认为容易的任务上,它会失败,而在我们认为困难的任务上,它会表现出色。因此,我们不应将GPT2030视为“加速的人类”,而应将其视为有潜力发展出一些违反直觉技能的“超级加速工人”。尽管如此,加速仍然很有用。对于提速125倍的语言模型,只要在GPT2030的技能范围之内,我们需要一天时间的学会的认知动作,它可能在几分钟内就会完成。运用前面提到的黑客攻击,机器学习系统可以快速生成漏洞或攻击,而人类却生成得很缓慢。03吞吐量和并行副本模型可以根据可用的计算和内存任意复制,因此它们可以快速完成任何可以有效并行的工作。此外,一旦一个模型被微调到特别有效,更改就可以立即传播到其他实例。模型还可以针对特定的任务进行蒸馏,从而运行得更快、更便宜。一旦模型经过训练,可能会有足够的资源来运行模型的多个副本。因为训练模型就需要运行它的许多并行副本,并且组织在部署时,仍然拥有这些资源。因此,我们可以通...PC版:https://www.cnbeta.com.tw/articles/soft/1376713.htm手机版:https://m.cnbeta.com.tw/view/1376713.htm

封面图片

OpenAI:将向所有ChatGPT Plus用户开放代码解析器功能

OpenAI:将向所有ChatGPTPlus用户开放代码解析器功能其中,数据分析功能非常非常强大,使得很多不会专业代码的业务人员,通过自然语言文本、数据文件等,就能快速创建可视化数据分析图表,适用于销售、人力资源、医疗、制造、媒体、金融等业务场景。图片来源:Twitter截图想使用该功能非常简单,用户只需要在自己的ChatGPTplush账户上启用CodeInterpreter即可。以下是ChatGPT代码解析器的常见用例。1、在几分钟内解析数据,例如,你上传了一份音乐市场数据文件到ChatGPT。可以快速分析出音乐市场的总收入、不同国家/地区收入、人均消费等细分数据。2、绘制地理图表:用户只需要上传位置数据,即可获得可视化的GIF动图。3、绘制基本图表:用户只需要提供基本数据、想法就能快速绘制基本图表。例如,你能在平面上绘制10000个随机点吗?每个维度都来自正态分布?4、无需任何数据输入即可绘制公共数据图。可以从国际货币基金组织等公共数据库中获取数据,并无需任何代码操作即可将其可视化。例如,绘制一个2020年全球GDP排名前十的国家。5、自动创建雷达图,例如,分析完某用户300小时的Spotify播放列表后,ChatGPT自动生成了雷达图。6、调试代码,输入代码帮助开发者快速调试难以理解的算法和模型等。7、绘制复杂的数学函数图表,ChatGPT可以在没有任何提醒的作用下,快速绘制出一个函数图表。例如,绘制函数1/sin(x)。8、清理数据,可以帮助用户快速删除不必要的数据,例如,删除某个特定的数据集。9、颜色提取器,上传图像并提取颜色创建调色板。例如,上传一张PNG图片,解析其中的颜色排列。10、将文本数据可视化,例如,上传一份CSV犯罪数据,然后让ChatGPT按照特定要求将其实现可视化。以上只是部分案例,ChatGPTPlus的代码解析器功能非常强大,几乎日常工作的文件、数据集、代码都能解析。另据OpenAI官网,OpenAI7月7日宣布,GPT-4API全面开放使用。现所有付费API用户都可直接访问8K上下文的GPT-4,无需任何等待。图片来源:OpenAI官网OpenAI表示,GPT-4是我们能力最强的型号。自3月份以来,数百万开发人员请求访问GPT-4API,利用GPT-4的创新产品的范围每天都在增长。如今,全球开发者都能使用GPT-4大语言模型,增强自己的应用程序或开发全新的生成式AI应用。我们计划在本月底前向新的开发人员开放,然后根据计算可用性开始提高费率限制。现在,已经正式全面开放,全球开发者都能使用GPT-4大语言模型,增强自己的应用程序或开发全新的生成式AI应用。图片来源:OpenAI官网OpenAI表示,我们在三月份推出了聊天补全API,它现在占我们APIGPT使用量的97%。最初的CompletionsAPI于2020年6月推出,为与我们的语言模型交互提供了自由文本提示。从那以后,我们了解到,使用更结构化的提示界面通常可以提供更好的结果。事实证明,基于聊天的范式非常强大,可以处理绝大多数以前的用例和新的会话需求,同时提供更高的灵活性和特异性。特别是,聊天完成API的结构化界面(例如,系统消息、函数调用)和多回合对话功能使开发人员能够构建对话体验和广泛的完成任务。它还有助于降低即时注入攻击的风险,因为用户提供的内容可以在结构上与指令分离。OpenAI称,基于这些模型的稳定性和生产规模使用的准备程度,我们还推出了GPT-3.5Turbo、DALL·E和WhisperAPI。我们正在为GPT-4和GPT-3.5Turbo安全地启用微调,预计该功能将于今年晚些时候推出。此外,OpenAI还宣布了一些弃用模型和全新的版本。例如,davinci-instruct-beta、gpt-curie-instruct-beta、text-ada-001、text-babbage-001、text-curie-001、text-davinci-001、text-davinci-002和text-davinci-003由gpt-3.5-turbo-instruct替代。...PC版:https://www.cnbeta.com.tw/articles/soft/1369693.htm手机版:https://m.cnbeta.com.tw/view/1369693.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人