Midjourney V6 每天都能给我新惊喜,一个玉石雕刻的国风场景,由于细节很丰富,看起来真的像工艺品。

MidjourneyV6每天都能给我新惊喜,一个玉石雕刻的国风场景,由于细节很丰富,看起来真的像工艺品。昨天在小红书看到一个玉雕的图,但是作者没写提示词,今天复刻了一下,效果还好了很多。主要是V6对提示词的理解太好了,之前一些可有可无的词真的不太影响效果画面描述准确就行。#晚安提示词提示词:miniaturelandscape,jadesculpture,mountains,achineseancientarchitectureareinbetweenacloud,inthestyleofgoldandjade,photorealisticdetails,Verygoodlighttransmittance,miniaturesculptures,madeofjade,goldandemerald,uhdimage,Epic,octanerender,beautifullydetailed,lightdiffusion,cinematicshading,cinematicelements--ar3:4--v6.0

相关推荐

封面图片

#Midjourney V6上线

#MidjourneyV6上线一些反馈发现(单簧管总结):-提示词长度现在是350+-您可以指定颜色和其他细节-你可以在画布上放置你想要的东西,如添加文本-您可以提示多个主题-你可以像ChatGPT一样和Midjourney聊天-V6能够理解标点和语法的细微差别(即:熊猫吃、射、走)-可以使用V6制作niji那样的漫画-可以通过描述图像来为其添加框架或边框如何启用:在/settings下拉菜单中选择V6,或在提示后输入--v6。官方对V6模型的新特性:1、更准确的提示跟随和更长的提示•改进的响应能力:V6模型对用户输入的响应更加准确,能够更好地理解和执行复杂的提示。•处理更长的提示:V6能够处理更长的文本提示,这意味着用户可以提供更详细的描述和指令,从而获得更精确的输出结果。2、提升的连贯性和模型知识•改善的连贯性:V6在生成内容时的连贯性得到了显著提升,这使得输出结果更加流畅和自然。•增强的模型知识:V6拥有更丰富的知识库和更好的理解能力,能够更准确地处理复杂的查询和任务。3、改进的图像提示和混合•增强的图像生成:V6在图像生成方面的能力得到了增强,能够根据文本提示创建更精细和逼真的图像。•改善的图像混合:V6提供了更好的图像混合功能,使得不同元素和风格的结合更加和谐自然。4、文本绘制能力•用户可以在他们的提示中指定要在图像上显示的文本,模型将会根据这些指示在生成的图像中包含相应的文本内容。•绘制文本:V6可以在图像中绘制文本。为了获得最佳效果,文本应该用引号标出。这样做可以帮助模型区分哪些是描述性的提示,哪些是实际要在图像中呈现的文本。•风格调整:使用--styleraw或较低的--stylize值可能有助于提高文本绘制的准确性和质量。这是因为不同的风格设置可能会影响文本在图像中的呈现方式。例如,如果用户想要生成一张图像,上面写着用马克笔在便利贴上写的“HelloWorld!”,他们可以使用类似于以下的提示:“/imagineaphotoofthetext'HelloWorld!'writtenwithamarkeronastickynote--ar16:9--v6”。

封面图片

一个简单的 #midjourneyV6 测试,这个文字生成效果也太好了,这可不是他们说的只有一点文字生成能力。

一个简单的#midjourneyV6测试,这个文字生成效果也太好了,这可不是他们说的只有一点文字生成能力。提示词响应非常准确,虽然不能连续通过对话修改,但是单条提示词还原很好了。比如第四张就是完全按照我要求的发色发型和姜饼人发卡画的女孩。附图一提示词Acupofcoffeewiththeword"GUiZANG"writtenincream.--ar16:9--v6.0

封面图片

Midjourney V5 深度剖析与测评

MidjourneyV5深度剖析与测评主要想详细介绍一下V5升级之后如何使用以及一些使用的注意事项。同时对V5在各个方面的能力做了详细的测试总结了一些要点。原文提供了流动金属的8K壁纸下载和图片的详细提示词。详细的内容在这里:https://mp.weixin.qq.com/s/LdNF-MEoT7k6xjG9z9au9g下面是量子速度版本:如何使用V5版本一种是直接在提示词后面加上--v5命令;另一种是通过输入命令回车后,选择MJversionV5的模型版本V5的新功能更广泛的风格范围:以前实现不了的一些风格V5会支持,比如非常明显的一个改变,以前V4版本在绘制照片风格的图片时总是有很明显的涂抹感现在生成的图片会更加逼真。更具响应性的提示:第一个就是官方在公告里说的这次测试的是V5的专业模式对提示词的输入非常敏感,简短的提示可能效果不佳。第二个是V5貌似可以更好的理解自然语言,自然语言书写的提示词会比原来V4的关键词分割效果更好。另一个提示词理解能力的提升可以很好的理解数学概念和空间关系。更高质量的图像:V5生成的图片在2倍分辨率放大时拥有更高的分辨率,这个因为目前V5的upsampler功能还没有开放。动态范围改善:当你拍摄的图像在光线上有巨大的差异时,更大的动态范围就能获得更大的影调空间。涉及到从室外拍摄室内的内容的时候如果动态范围不足的时候图片就很容易特别黑细节不足,V5就表现的很好。图像更详细:V5对于图像相关内容的细节会更加丰富,不需要加诸如“详细的”这类关键词,也可以生成正常的细节比如下面的图。改进了图像提示性能:性能上的明显感觉V5发送完提示词以后相应更快了,之前V4发送完会等待模型理解提示词才会开始生成图片,V5几乎是发送完立刻就会开始生成图片。支持无缝平铺:具体表现就是在提示词后加上--tile参数后可以生成无缝的纹理贴图。支持大于2:1的纵横比:代表着你可以输出4:1甚至5:1的超宽屏图像或者全景图。支持权衡图像提示与文本提示:在提示词后面输入--iw加数字命令。数字越大生成的图片就会跟原图越像,数字越小就会跟原图差异越大。V5我发现的新特性画手的成功率大幅提升:不只是张手这种简单的手势不会出问题,握手、OK之类的手势出问题的现象也变得很少。

封面图片

DALL-E 3已经在Bing中实装了,我大概测试了一下,真的很强特别是提示词的理解方面比Midjourney强太多了,某些方面

DALL-E3已经在Bing中实装了,我大概测试了一下,真的很强特别是提示词的理解方面比Midjourney强太多了,某些方面的生成质量也跟MJ差不多,肯定是比SDXL要好非常多的。MidjourneyV6要是再不出,感觉危险了,而且DALL-E3还是免费的。下面是一些实验和对应的提示词(左MJ右DALL-E3),感兴趣可以自己去试着玩玩提示词:Perfumebottlecoveredwithplumblossoms,JamesTurrellstyle,premiumperfumebottle,renderedincinema4d,minimalistproductdesign,uniqueartdesign,productposter,conceptart,elegantbalanceSummernights,Theyellowmoon,street,Therewasacutelittlegirlwithacat,cityroad,atmosphere;Full,cutedoodle,thicklineartbyMrDoodleAbstractandminimalCMYKharajukufashionphotographyfromY2Kwithlotsofblur,doubleexposure,Awomanwhoiscoveringherhandsupwithherhandsassheholdsherhandsinlight,inthestyleofshige'svisualaestheticstyle,portraitswithsoftlighting,motekei,hauntingshadows,prismaticportraits,distinctfacialfeatures,国内的话访问Bing需要强制国外IP才行,打开之后输入“创建一张图像:提示词”就可以了。速度还非常快,妈的感觉MJ的订阅要降一个档,换成10美元的了。

封面图片

Midjourney危险了!Stable Diffusion最强模型SDXL已上线(含保姆级体验教程)!

Midjourney危险了!StableDiffusion最强模型SDXL已上线(含保姆级体验教程)!看到没多少人写sdxl,这里我就给想尝鲜的朋友,写一个如何快速体验SDXL效果的教程。免下载模型,sdxl体验步骤:https://mp.weixin.qq.com/s/Fz7U355XxmkrAztn84CNcA1、sd为什么会搞出sdxl?这次,SD看着营收上亿的Mj,终于坐不住了。它发布了全新模型SDXL1.0,号称是“迄今为止最牛逼的图像生成大模型”。那你肯定好奇,为什么会搞出这样一个产品?很简单,SD看到Mj赚了几个亿坐不住了。我要是sd,我现在大腿都要拍肿了。人家mj十几个人居然搞出来了上亿美元的收入,你sd那么多的人还在亏损???这不对标mj搞出个史诗级的新模型,你家投资人都坐不住了。毕竟,搞研究是要花钱的,这次的sdxl很显然就是冲着后续抢用户+收费来的。2、SDXL体验+测评效果总结根据我的经验,SDXL是一个过渡期的产品,想要尝鲜的朋友一定不要错过。首先要给第一次接触的朋友讲一下,作为一个拥有35亿参数基础模型和66亿参数模型的生物。这个SDXL到底比之前几个版本的sd牛逼在哪里?(1)对撰写提示词的要求大大降低。除了提示词更加精简之外,它的效果主要是体现在不需要质量提升词和负面提示词上。你不需要输入masterpiece这些常见的品质优化词,就可以实现非常棒的画面效果。同样的,你也不必像之前那样输入大量的负面提示词,来控制ai对画面的生成。比如最常见的手部结构出问题,是大家能识别ai的好方法,而现在ai更加能够生成无缺陷的手部结构了。(2)加强了对自然语言的理解能力。这个其实也是为了解决目前撰写提示词上的痛点,比如目前ai绘画的提示词都是一个个用逗号连接起来的词条。而到了SDXL这个版本,即使你输入一连串的自然对话,它也可以理解了。也就是说,写提示词这件事儿,真的会越来越简单了。(3)支持更大尺寸的照片,分辨率高很多。比如你可以直接生成1024x1024大小的图片了。之前你想直接出这类高清图片其实需要使用高清修复或者其他方法才能达到。(4)ai终于会写字了。SDXL已经能识别和生成文字了。

封面图片

AI绘画,为何听不懂人话?

AI绘画,为何听不懂人话?两个系统几乎同时发布,免不了被对比。深燃体验后发现,文心一言的图片生成功能,能够识别简单元素、文本没有歧义的人或事物,但涉及到成语、专有名词,以及字面意思和实际意义不同的表述,它就会跑偏。Midjourney在这方面几乎没什么问题。另外,Midjourney接收到的提示词(prompt)越详细精准,生成的图片越符合要求,但文心一言需求越多,系统越容易出错。调侃背后,AI生成图片其实不是一件简单的事情,需要在数据、算法、算力等方面综合发力,既对技术和硬件有高要求,还对数据采集和标注等苦活累活高度依赖。文心一言的AI绘图功能与Midjourney在以上三方面都有不小的差距。百度方面公开表示,“大家也会从接下来文生图能力的快速调优迭代,看到百度的自研实力。文心一言正在大家的使用过程中不断学习和成长,请大家给自研技术和产品一点信心和时间。”从业者预估,文心一言全力追赶,用一年左右的时间有希望达到国外80%以上的水平。AI绘图这个战场,枪声已经打响,追逐赛、排位赛都将一轮轮上演。搞不定成语和专有名词,提示词越多AI越废文心一言最近接受的最大考验,莫过于画一幅中餐菜名图。在网友们的热情创作下,驴肉火烧、红烧狮子头等菜品出来的画做一个比一个离谱,车水马龙的街道、虎头虎脑的大胖小子,同样惊掉了大家的下巴。网友体验文心一言时截图,目前已更新网民热心找bug,百度程序员应该也在背后发力,深燃测试发现,以上内容均已更新为可以正确显示对应图片。不过,像娃娃菜、脸盆、虎皮鸡蛋、三杯鸡,还有胸有成竹的男人、虎背熊腰的男人,文心一言仍然给出的是字面直译后的图片,画风一言难尽。深燃截图即便输入提示词时强调“画一个卫浴器材水龙头”,文心一言画出的仍然是水中龙的头像;当深燃输入“画一个风姿绰约的人”时,系统画出的是一位男士,显然AI没能理解风姿绰约形容的是女人。深燃截图程序员改bug的速度比不上网友找漏洞的速度。很快又有人发现,文心一言画图时有把提示词中译英之后根据英文意思生成图片的可能性,据此有人推测百度可能用国外的作图产品接口,套了一个自己的壳。深燃也验证了一下某用户的测试。比如输入“水瓜”,画出的是西瓜,这也对应西瓜的英文单词Watermelon;要求画树叶、封面、苹果,画出的图是树叶覆盖苹果,显然系统是把封面翻译成了Cover,这个单词也有覆盖的意思;画“土耳其张开翅膀”,出现的画面是张开翅膀的火鸡,我们都知道,Turkey是土耳其,也是火鸡。深燃截图对此,百度对外回应称,文心一言完全是百度自研的大语言模型,文生图能力来自文心跨模态大模型ERNIE-ViLG。“在大模型训练中,我们使用的是全球互联网公开数据,符合行业惯例。”亚洲视觉科技研发总监陈经也在接受媒体采访时表示,“百度的画图AI采用了英文标注的开源图片素材进行训练,因此需要中翻英来当prompt(提示词)。目前,全球AI研发有开源的传统,特别是训练数据库,不然收集图片效率太低了。”深燃体验后还发现,文心一言在单个需求描述时表现尚可,比如画一幅愤怒的小孩、开心的农民、一只很饿的流量猫,但一幅图一旦提出多个作图需求,AI就有点懵。比如请文心一言“生成一幅画,在一个下雨天,小红在植树,小王在看书”,系统生成的图片里只有背靠树看书的一个人;还有,“画一幅画,里面有大笑的年轻人、哭泣的小孩、愁容满面的老人”,系统把哭泣和愁容满面等表情集合在了一张脸上,画出了一个小孩和老人的结合体。如下图所示,还有一些类似的情况,系统同样没能准确完成给出的指令。深燃截图深燃又把上述提示词输入到MidjourneyV4测试了一下,如下图所示,即使是V4版本,表现也远高出文心一言。MidjourneyV4基本能理解句子中的意思,做出的图几乎可以包含所有的要素。深燃体验MidjourneyV4后截图深燃还测试了AI绘画领域一直以来难以攻克的画手指难的问题。在这方面,文心一言也没能经受住考验。比如“画一位30岁的女士,双手竖起大拇指”,文心一言生成的图片大拇指是竖起来了,但是其中一只手有7根手指;输入“画一个人,两只手做点赞姿势”时,系统也无法实现这一手部姿势。深燃截图Midjourney此前的版本同样存在手指误差的问题,最新发布的V5版本,已经能够正确画出五根手指,虽然有人依旧指出其绘出的大拇指有点长,但相比以往已经有不小的进步。有从业者评价:“Midjourney的此前版本就像是近视患者没有戴上眼镜,而MidjourneyV5就是戴上眼镜后的清晰效果,4K细节拉满”。比如MidjourneyV5画出的《三体》角色图,效果被网友评价为几乎要“成精了”。而文心一言画《三体》角色时,系统全然不顾描述里提到的留着黑色短发、戴着眼镜的要求,画出了一个扎着发髻,不戴眼镜,古风穿着的男士。上图为MidjourneyV5生成的三体角色图图片来源/Ai总编推书下图为文心一言作图/深燃截图最近MidjourneyV5画的一对情侣的图片掀起了业内一阵惊呼。作图的提示词是:“一对年轻的情侣穿着牛仔裤和夹克坐在楼顶上”,背景分别是2000年和2023年的北京。最后出图的效果大大超出很多人的想象。深燃把类似表述输入文心一言时,系统直接给出了毫不相关的图片。左图为MidjourneyV5作图 图片来源/量子位右为深燃对比体验文心一言截图对比来看,Midjourney作图已经在细节上几近完美了,文心一言还处在难以准确分辨字面意思和实际意思的初级阶段。Midjourney提示词描述越详细,生成的图片越精准,文心一言能理解的文字长度有限,过多描述会让它直接报错或者胡乱生成图片。AI文生图到底有多难?按出现时间来算,AI绘画算是AI领域的新事物。公开报道显示,2021年1月,OpenAI发布了两个连接文本与图像的神经网络:DALL・E和CLIP。DALL・E可以基于文本直接生成图像,CLIP能够完成图像与文本类别的匹配。DALL・E是基于GPT-3的120亿参数版本实现的。随后在2022年,DALL·E2、StableDiffusion等文生图底层大模型发布,带动了应用层的发展,出现了一大批爆款产品,包括Midjourney。2022年也被认为是“AI绘画元年”。StabilityAI的StableDiffusion是一个开源模型,很多开发者基于这个模型开发训练出了更多不同的生成模型。国内很多科技公司的AI绘画项目也是由StableDiffusion提供技术支撑。Midjourney是付费订阅的,公开信息显示,Midjourney每年的收入可能达到1亿美元左右。另外,有AI绘图业务的还有Google、Meta等公司。百度的文心一言和此前就发布的文心一格算是国内最早的具备AI绘画功能的大模型。文心一言的发布和升级了的MidjourneyV5更是将AI绘画行业推向高潮。这一次迭代是Midjourney自去年推出以来最大的更新,Midjourney也成了目前市面上最先进的AI图像生成器之一。热度还在继续。最近,行业内又有一系列企业跟进推出AI绘画功能。3月21日,微软宣布,必应搜索引擎接入了OpenAI的DALL·E模型,将AI图像生成功能引入新版必应和Edge浏览器,免费开放。就在同一天,Adobe发布AI模型Firefly,支持用文字生成图像、艺术字体。可以说,2023年,AI绘画行业迎来了真正的大爆发。调侃文心一言之余,客观来说,AI生成图片本身就不是一件容易实现的事情。系统的语义理解能力、充分的数据标注、细节处理、用户的提示词选择,都在AI作图中起着重要作用。AI领域资深从业者郭威告诉深燃,之前AI生成图片只需要确认风格、物品等,用...PC版:https://www.cnbeta.com.tw/articles/soft/1352091.htm手机版:https://m.cnbeta.com.tw/view/1352091.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人