今天还有个事情我觉的不亚于GPTs也值得关注一下。

今天还有个事情我觉的不亚于GPTs也值得关注一下。前段时间我一直在关注LCM(LatentConsistencyModels)这个技术,它可以让SD的图片生成速度提高5倍左右,但是存在的一个问题就是模型需要单独训练,无法兼容现有模型,这就导致无法融入现有的生态。今天这个状态改变了,他们把LCM变成了一个Lora模型,这个模型可以兼容现有的所有SD模型,不管是1.5的还是SDXL还是SSB-1B。带来的后果就是大幅降低SD图片生成的硬件门槛,你现在甚至用CPU跑图的时间都可以接受了。可以在更短的时间生成更多的图像,这在抽卡的时候很重要,大力出奇迹是能解决很多问题的。SD图像生成服务的成本会大幅降低。LCMLora现在已经可以在ComfyUI上使用了,我自己测试了一下,1.5的模型使用LCMLora大概比不使用快了4.7倍左右。下面几张图是对应的生成效果和时间。从生成质量上来看没有特别大的区别。

相关推荐

封面图片

一个非常有意思的项目可以用 SD 直接生成透明的 PNG 图片,也可以直接生成带有透明度分层的图片。#ai画图#

一个非常有意思的项目可以用SD直接生成透明的PNG图片,也可以直接生成带有透明度分层的图片。这个想象力很大能带来很多玩法。也可以使用现有的SD社区模型。项目介绍:LayerDiffusion使得大型已经过预训练的潜在扩散模型(latentdiffusionmodel)能够创造透明图像。这项技术不仅可以生成单独的透明图像,还能生成多层透明图层。它通过一种被称为“潜在透明度”的方法,将透明度(即alpha通道)整合到预训练的潜在扩散模型的潜在结构中。这样做的好处是,它通过以潜在偏移的形式加入透明度,几乎不改变模型原有的潜在分布,从而保持了模型的高质量输出能力。基于这种方法,任何一个潜在扩散模型都可以通过对潜在空间的微调,转化为透明图像生成器。我们训练这个模型时,使用了一种涉及人机互动的方法,收集了一百万组透明图像层数据。我们的研究显示,这种潜在透明技术不仅可以应用于不同的开源图像生成器,还可以适配多种条件控制系统,实现例如基于前景/背景条件的层生成、层的联合生成、对层内容进行结构控制等多种应用。一项用户研究发现,大多数情况下(97%),相比于之前的临时解决方案(如先生成图像再进行抠图处理),用户更喜欢我们直接生成的透明内容。用户还表示,我们生成的透明图像在质量上可媲美真实的商业级透明素材,例如AdobeStock提供的素材。论文地址:

封面图片

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如

LLM相关的基础文章很多人整理,AI图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共15篇内容,都在这里了,如果想深入研究SD,建议看看。主要包括三个部分:图片生成简介、图像生成基础模型的精细调整和构建AI生成服务,。都放在下面的这个个链接里,打开一个就都有了。元旦我也会找时间把这些内容翻译一下,然后发出来,可以收藏这条回来看。等不及可以直接看,下面是具体的分类和文章目录:图像生成技术简介:◆人工智能和艺术:机器学习如何改变创造性工作(报告)◆平面设计师如何创建他们自己的AI工具(博客文章)◆AI图像生成器的工作原理以及扩散是什么(视频)◆什么是Diffusion模型?(视频)◆Diffusion模型的工作原理(1小时课程)◆初学者指南:Stablediffusion(指南)基础模型的精细调整:◆SD1.5通用目的模型的全面精细调整指南(博客文章)◆SD模型的基准测试与混合(博客文章)◆解耦文本编码器和UNET学习率(博客文章)◆D适应:再见学习率困扰?(博客文章)◆自己精细调整通用稳定扩散模型指南(博客文章)构建AI生成服务的后端:◆如何构建一个生成AI服务的后端◆Stablediffusion提示:权威指南◆SD提示的精细调整:修改Stablediffusion提示的GPT3.5(博客文章)◆SD提示的目录(目录)所有内容链接:https://arc.net/folder/10431A09-4798-4002-B99A-2769BD9131FF

封面图片

字节发布ResAdapter,可以解决SD生成超大图片和非训练分辨率图片时的肢体异常以及画面崩坏问题。#ai#

字节发布ResAdapter,可以解决SD生成超大图片和非训练分辨率图片时的肢体异常以及画面崩坏问题。同时可以与现有的IPadapter以及Controlnet模型兼容。项目简介:近期,像StableDiffusion这样的文本到图像模型和DreamBooth、LoRA等个性化技术的发展,让我们能够创造出既高质量又充满创意的图像。但这些技术在生成超出它们训练时所用分辨率的图像时,往往会受到限制。为了突破这一难题,我们推出了一种新型工具——分辨率适配器(ResAdapter)。它是一种专门为扩散模型(比如StableDiffusion和个性化模型)设计的适配器,能够生成任何分辨率和长宽比的图像。与其它多分辨率生成方法不同,ResAdapter能直接生成动态分辨率的图像,而不是在后期处理中调整静态分辨率的图像。这种方法使得图像处理变得更加高效,避免了重复的去噪步骤和复杂的后期处理流程,显著缩短了处理时间。在不包含任何训练领域风格信息的情况下,ResAdapter利用广泛的分辨率先验,即使只有0.5M的容量,也能为个性化扩散模型生成不同于原训练领域的高分辨率图像,同时保持原有风格。大量实验显示,ResAdapter在提高分辨率方面与扩散模型配合得天衣无缝。此外,更多的实验表明,ResAdapter可以与ControlNet、IP-Adapter和LCM-LoRA等其他模块兼容,适用于创建不同分辨率的图像,也可以整合进如ElasticDiffusion这样的多分辨率模型中,高效生成更高清晰度的图像。项目页面:

封面图片

One-2-3-45:45秒内将任何单一的2D图像转化为3D效果

One-2-3-45:45秒内将任何单一的2D图像转化为3D效果使用一个特殊的模型(视图条件的2D扩散模型)来从原始的2D图片生成多个不同角度的2D图像。这就像是从不同的角度看同一个物体。然后,他们使用一个基于SDF(有符号距离函数)的神经网络模型,根据这些多视图图像来构建出3D模型。这就像是将这些不同角度的2D图像"堆叠"起来,形成一个完整的3D形状。与其他现有的方法相比,这种方法有几个优点:●速度快:它可以在很短的时间内生成3D模型,比其他方法快很多。●几何形状好:生成的3D模型的形状更接近真实物体的形状。●一致性好:从不同角度看,生成的3D模型的外观更一致。●紧密遵循输入图像:生成的3D模型更准确地反映了原始2D图片的内容。此外,这种方法还可以与其他的AI模型(如文本到图像的模型)结合使用,从而实现从文本描述直接生成3D模型的功能。https://one-2-3-45.github.io/来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Midjourney 今天终于发布了他们一直说的风格微调功能 Style Tuner,Style Tuner可以让你创建自己的M

Midjourney今天终于发布了他们一直说的风格微调功能StyleTuner,StyleTuner可以让你创建自己的MJ风格,类似于SD的Lora模型?你也可以直接使用别人训练好的风格,比如下面这几张图就是我训练的风格,你可以点击这个链接使用。https://tuner.midjourney.com/code/Zu5xOBO65cGGsGOPblzfiy下面看一下如何训练和使用风格:首先输入/tune和提示,选择你要生成多少个基本风格(费用成比例)点击提交后,它会显示估计的GPU时间。一个专门的“StyleTuner”网页将为你创建。完成后会发送给你URL。访问StyleTuner页面,选择你喜欢的风格来创建自己的风格(注意这个页面可能会有很多掉san的图片,浏览的时候做好准备)建议选择5-10种风格(但任何数量都可以)使用这样的命令/imaginecat--styleCODE,来使用你的风格。你可以用一个StyleTuner制作大量风格,而且不消耗GPU时间。你可以通过--stylerandom命令生成随机风格代码(无需StyleTuner)可以通过--stylecode1-code2组合多个代码可以使用--stylize来控制你的风格代码的强度。可以拿到任何你看到的风格代码,替换掉我下面的这个命令,然后进行修改生成你的风格。https://tuner.midjourney.com/code/Zu5xOBO65cGGsGOPblzfiy使用别人制作的StyleTunerURL不会消耗任何fast时间(除非你使用它们来制作图像)

封面图片

AI领域里面大家可能更多关注的是LLM相关的内容,但是AI画图的一些数据往往难以找到。

AI领域里面大家可能更多关注的是LLM相关的内容,但是AI画图的一些数据往往难以找到。今天一个团队发布了一份关于AI画图领域的数据分析,里面的数据显示过去一年多时间AI生产的图片数量已经超过了150年间人类拍摄的所有照片数量,太离谱了。详细的内容可以看这里:https://mp.weixin.qq.com/s/h-xNxw5flsleubiqQTmrTQ下面是这个数据分析的主要内容:→自去年以来,使用文本转图像算法创建了超过150亿张图像。客观地说,从1826年拍摄第一张照片到1975年,摄影师花了150年的时间才达到150亿张大关。→DALLE-2推出以来,人们平均每天创建3400万张图像。→增长最快的产品是AdobeFirefly,自推出以来仅三个月内就创建了10亿张图像。→Midjourney拥有1500万用户,是公开统计的所有图像生成平台中最大的用户群。→大约80%的图像(即125.9亿张)是使用基于开源StableDiffusion的模型、服务、平台和应用程序创建的。DALL-E22022年4月,OpenAI发布了其图像生成模型DALL-E2。然后OpenAI报告称,用户每天使用DALL-E2生成超过200万张图像。我们不确定OpenAI所说的这个数字意味着什么时间段,或者他们是否获取了生成的平均图像量。我们假设这是一个平均值,这意味着15个月内在单个平台上生成了大约9.16亿张图像。MidjourneyMidjourney于2022年7月上线。根据Photutorial的估计,Midjourney的Discord(该算法只能通过Discord获得)每秒接收约20至40个作业,拥有1500万注册用户和150万至250万活跃用户任何特定时间的成员。考虑到这一点,我们使用每秒30个作业作为平均创建图像数,每天创建多达250万个图像。因此,自Midjourney推出以来,已创建了9.64亿张图像。StableDiffusion

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人