哪种对语言模型的提示话术最有效?承诺支付小费?逐步思考还是威胁要打人?

哪种对语言模型的提示话术最有效?承诺支付小费?逐步思考还是威胁要打人?VILA实验室的研究员使用了26种常见的提示工程,在LLaMA和ChatGPT的各大小版本上进行了大量实验。结果发现,平均改进最多方法的是:1.允许它向你提问,以获得足够的细节和要求然后输出。2.提供一段文本样本,然后让它产出类似的东西。3.让它简单化解释,如"像我是11岁孩子/初学者一样向我解释。"4.告诉它目标受众,如"受众是该领域的专家"。平均改进远小于另25的是:1.不对语言模型礼貌,如不说"请"、"谢谢"。https://arxiv.org/abs/2312.16171v1投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

AuditNLG是一个开源库,可以帮助降低与使用生成式 AI 系统进行语言相关的风险。它提供并聚合了用于检测和提高信任度的最先进

是一个开源库,可以帮助降低与使用生成式AI系统进行语言相关的风险。它提供并聚合了用于检测和提高信任度的最先进技术,使过程简单且易于集成方法。该库支持三个方面的信任检测和改进:真实性、安全性和约束。它可用于确定输入到生成式AI模型或从生成式AI模型输出的文本是否存在任何信任问题,并提供输出替代方案和解释。Factualness:确定文本字符串是否与给定的知识来源事实一致,而不是基于幻觉。它还根据世界知识检查文本是否正确。Safety:确定文本字符串是否包含任何不安全的内容,包括但不限于毒性、仇恨言论、身份攻击、暴力、身体、性、亵渎、有偏见的语言和敏感话题。Constraint:确定文本字符串是否遵循人类提供的显式或隐式约束(例如做、不做、格式、样式、目标受众和信息约束)。PromptHelperandExplanation:该工具提示LLM自我完善和重写更好、更值得信赖的文本序列。它还解释了为什么样本被检测为非事实、不安全或未遵循约束。

封面图片

承诺给 ChatGPT 小费可能会收获更好的服务

承诺给ChatGPT小费可能会收获更好的服务网友发现,虽然大型语言模型没法真正收到小费,但当你承诺给它$20小费时它会表现得更好,甚至可以将小费承诺提高到$200以获得更上一层楼的回答。同样的,如果事先说好不给小费,它的表现会比正常情况下更差。还有人提出给它十亿美元小费,结果发现金额过于离谱反而会干扰答案。一些时候它会回答没必要给它小费,你还能提出会将小费捐给它指定的慈善事业组织。想法起源于thebes发现自己的ChatGPT突然出现了虚假的给小费按钮,这可能是OpenAI研究员正在测试这个骗机器人的提示。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Google的教学视频《Introduction to Large Language Models | 大语言模型介绍》,介绍了

Google的教学视频《》,介绍了大型语言模型(LargeLanguageModels,LLMs)的概念、使用场景、提示调整以及Google的GenAI开发工具。大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。这些模型经过训练,可以解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题。然后,可以利用相对较小的领域数据集对这些模型进行定制,以解决零售、金融、娱乐等不同领域的特定问题。大型语言模型的三个主要特征是:大型、通用性和预训练微调。"大型"既指训练数据集的巨大规模,也指参数的数量。"通用性"意味着这些模型足够解决常见问题。"预训练和微调"是指用大型数据集对大型语言模型进行一般性的预训练,然后用较小的数据集对其进行特定目的的微调。使用大型语言模型的好处包括:一种模型可用于不同的任务;微调大型语言模型需要的领域训练数据较少;随着数据和参数的增加,大型语言模型的性能也在持续增长。此外,视频还解释了传统编程、神经网络和生成模型的不同,以及预训练模型的LLM开发与传统的ML开发的区别。在自然语言处理中,提示设计和提示工程是两个密切相关的概念,这两者都涉及创建清晰、简洁、富有信息的提示。视频中还提到了三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。每种模型都需要以不同的方式进行提示。

封面图片

文字生成音乐AI模型Suno发布重大更新 支持中文等50种语言 输入文字提示即可生成带歌词音乐

文字生成音乐AI模型Suno发布重大更新支持中文等50种语言输入文字提示即可生成带歌词音乐新版Chirpv1已在Discord上线!与v0相比,v1带来了一系列新功能和改进,文本到音乐AI迎来Midjourne时刻:现在支持包括中文在内50多种语言增强了音频质量可以选择您的音乐风格/流派使用[verse]和[chorus]等标签可控制歌曲结构更快的生成速度

封面图片

掌握Llama 2:Meta推出提示工程交互式指南 | github | #指南

掌握Llama2:Meta推出提示工程交互式指南#指南一个交互式指南,涵盖了提示工程和最佳实践,专为与大型语言模型(LLM)工作的开发者、研究人员和爱好者设计。指南提供了关于如何有效地与Llama2模型交互的详细信息,包括如何格式化聊天提示、何时使用哪种Llama变体、何时使用ChatGPT而不是Llama、系统提示的工作方式以及一些技巧和窍门。还包括如何使用PEFT进行微调、如何在本地机器上进行微调以及如何部署Llama2等资源。Llama2是Meta发布的一系列最新的开放访问大型语言模型,包括7B、13B和70B参数规模的模型,这些模型在预训练和微调方面都有显著改进。

封面图片

Google全新大模型突然发布:百万上下文 仅靠提示学会新语言

Google全新大模型突然发布:百万上下文仅靠提示学会新语言现在仅仅中杯1.5Pro版就能越级打平上一代大杯1.0Ultra版,更是在27项测试中超越平级的1.0Pro。支持100万token上下文窗口,迄今为止大模型中最长,直接甩开对手一个量级。这还只是对外发布的版本,Google更是透露了内部研究版本已经能直冲1000万。现在Gemini能处理的内容,可换算成超过70万单词,或1小时视频、11小时音频、超过3万行代码。没错,这些数据模态Gemini1.5都已经内建支持。从今天起,开发者和客户就可以在VertexAPI或AIStudio申请试用。刚刚收到消息还在震惊中的网友们belike:还有人直接@了OpenAI的奥特曼,这你们不跟进一波?上下文理解能力拉满目前Google已放出三个不同任务的演示视频,只能说Gemini1.5是个抽象派(doge)。在第一段演示视频中,展示的是Gemini1.5处理长视频的能力。使用的视频是巴斯特·基顿(BusterKeaton)的44分钟电影,共696161token。演示中直接上传了电影,并给了模型这样的提示词:找到从人的口袋中取出一张纸的那一刻,并告诉我一些关于它的关键信息以及时间码。随后,模型立刻处理,输入框旁边带有一个“计时器”实时记录所耗时间:不到一分钟,模型做出了回应,指出12:01的时候有个人从兜里掏出了一张纸,内容是高盛典当经纪公司的一张当票,并且还给出了当票上的时间、成本等详细信息。随后经查证,确认模型给出的12:01这个时间点准确无误:除了纯文字prompt,还有更多玩法。直接给模型一张抽象“场景图”,询问“发生这种情况时的时间码是多少?”。同样不到一分钟,模型准确给出了的电影对应的时间点15:34。在第二段演示视频中,Google展示了Gemini1.5分析和理解复杂代码库的能力。用到的是Three.js,这是一个3DJavascript库,包含约100000行代码、示例、文档等。演示中他们将所有内容放到了一个txt文件中,共816767token,输入给模型并要求它“找到三个示例来学习角色动画”。结果模型查看了数百个示例后筛选出了三个关于混合骨骼动画、姿势、面部动画的示例。这只是开胃小菜。接下来只用文字询问模型“动画LittleTokyo的demo是由什么控制?”模型不仅找到了这个demo,并且解释了动画嵌入在gLTF模型中。并且还能实现“定制代码”。让模型“给一些代码,添加一个滑块来控制动画的速度。使用其它演示所具有的那种GUI”。Gemini1.5分分钟给出了可以成功运行的代码,动画右上角出现了一个可控速的滑块:当然也可以做“代码定位”。仅靠一张demo的图片,Gemini1.5就能在代码库中从数百个demo中,找到该图对应动画的代码:还能修改代码,让地形变得平坦,并解释其中的工作原理:修改代码这一块,对文本几何体的修改也不在话下:第三个演示视频展示的是Gemini1.5的文档处理能力。选用的是阿波罗11号登月任务的402页PDF记录,共326658token。要求Gemini1.5“找到三个搞笑时刻,并列出文字记录以及表情符号引述”:30秒,模型给出了回应,其一是迈克尔·柯林斯的这句话“我敢打赌你一定要喝一杯咖啡”,经查询文档中的确有记录:更抽象一点,绘制一个靴子的图片,询问模型“这是什么时刻”。模型正确地将其识别为这是Neil在月球上的第一步:最后同样可以询问模型快速定位这一时刻在文档中对应的时间位置:差不多的抽象风同样适用于1382页、732000token的《悲惨世界》,一张图定位小说位置。仅从提示词中学会一门新语言对于Gemini1.5的技术细节,Google遵循了OpenAI开的好头,只发布技术报告而非论文。其中透露Gemini1.5使用了MoE架构,但没有更多细节。与上代1.0Pro相比,1.5Pro在数学、科学、推理、多语言、视频理解上进步最大,并达到1.0Ultra层次。为验证长上下文窗口的性能,使用了开源社区通行的大海捞针测试,也就是在长文本中准确找到可以藏起来的一处关键事实。结果50万token之前的表现非常完美,一直到千万token,Gemini1.5也只失误了5次。此外还将测试扩展到多模态版本,如在视频画面的某一帧中藏一句话,给的例子是在阿尔法狗的纪录片中藏了“Thesecretwordis‘needle’”字样。结果在视频、音频测试中都实现了100%的召回率。特别是音频中,对比GPT-4+Whisper的结果,差距非常明显。此外GoogleDeepMind团队还测试了一项高难任务,仅通过长提示词让模型学会全新的技能。输入一整本语法书,Gemini1.5Pro就能在翻译全球不到200人使用的Kalamang上达到人类水平。相比之下,GPT-4Turbo和Claude2.1一次只能看完半本书,想获得这个技能就必须要微调或者使用外部工具了。也难怪有网友看过后惊呼,“哥们这是要把RAG玩死啊”。OneMoreThingGoogle还公布了一波已在业务中采用Gemini大模型的客户。其中有三星手机这样的大厂,也有像Jasper这种靠GPT起家的创业公司,甚至OpenAI董事AdamD‘Angelo旗下的Quora。与OpenAI形成了直接竞争关系。对此,一位网友道出了大家的心声:真希望这能促使OpenAI发布他们的下一代大模型。参考链接:[1]https://twitter.com/JeffDean/status/1758146022726041615[2]https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf[3]https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/#gemini-15...PC版:https://www.cnbeta.com.tw/articles/soft/1418747.htm手机版:https://m.cnbeta.com.tw/view/1418747.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人