如何做一部风格化鲜明又统一的 AI 短片?

如何做一部风格化鲜明又统一的AI短片?「VISION」视频制作流程分享分享色彩统一、主题鲜明、流动感强的技巧原视频:https://m.okjike.com/originalPosts/666d7cd319d274e296add59d?s=ewoidSI6ICI2NDk0MzEwNDA1MDU0NDcyNjRkNmI3MDEiCn0=偶然在MJ中抽卡“MonumentValley”发现了这个色彩斑斓红色岩石般的风格便开启这次AI创作之旅,文案、配音、配乐、图片、视频均由AI制作,我提供灵感和剪辑。1⃣MJStylePrompt在MJ网页版更好操作,用第一张图作为风格参考图后,后面的prompt只需要描述物体意向即可。比如鸟、树、森林、月亮,是本次我想创作的主题。如图2。2⃣文案与配音想营造马丁卢瑟金充满希望向上的生命力,我使用11labs克隆自己的声音,用日语念独白。独白让GPT4o生成一份“模仿马丁Ihaveadream演讲,关于生活向往的文章”我上传了在干净环境下录制的4mins说话素材到11labs即可完成instantclonevoice,如图3。实测声音特别像我念日语!很惊艳3⃣配乐配乐用Suno,描绘创作想法就可以找到你想要的配乐,没抽卡几次。prompt很简单:flyingthroughamonumentvalley,relaxing,exciting,andalittlebithalariousandweird.因为想要一种向上,但又不是正能量向上的感觉。所以加上了“略微奇怪”4⃣动起来的视频Luma和Runway均使用了(为了分摊成本和时间)。从视频右上角水印你可以看出哪些是Luma的。Runway适合只有一点动感的场景,比如水波纹流动,略微场景透视变化。Luma适合开头飞跃山谷这种透视变化的3D/2.5D场景。Runway更稳定一些,Luma抽卡失败率较高,可以酌情考虑成本和抽卡时间。5⃣蒙太奇剪辑只需要使用textbased剪辑手法即可,根据音乐节奏调整素材速度。字幕和字体很关键,适当加一些转场特效。一个小tips,让画面与音乐变化或台词变化的节奏错开一点,会增加视频的有机程度,没那么像卡点剪辑。

相关推荐

封面图片

目前网上看到的 90% 的 AI 短片用的都是 image to video 工作流,先抽卡再拼接。

目前网上看到的90%的AI短片用的都是imagetovideo工作流,先抽卡再拼接。之前一直懒得试,趁元宵节有空就和@海辛Hyacinth玩了一下,顺便分享一下我们的流程,希望对你有用。【1】第一步,先找音乐。根据音乐确定视频节奏,估算需要的镜头&剪辑点。顺便推荐一下我们一直在用的版权音乐素材库EpidemicSound,BGM和音效都很全,还可以根据情绪来搜索。▶EpidemicSound:https://www.epidemicsound.com/(当然,也有很多开源AI音乐库,只是我们不想再多抽一个环节的卡而已。)【2】第二步,先发散找现成的静帧参考,确定风格,不是上来就抽卡。目前Midjourney官网上的搜索已经足够好用了,你能在上面找到足够多的设计参考,简直是AI版的Pinterest。▶Midjourney:http://t.cn/A6jXWLJ1【3】第三步,根据景别组装时间线,不是上来就抽卡。当你收集了足够多的参考图后,就可以用来组建时间线了。我们一直用Milanote这个画布工具来进行线上协作,支持大部分的媒体类型,自由又直观。▶Milanote:https://app.milanote.com/【4】第四步,抽静帧的卡,把风格参考图改成自己的生成图。用Midjourney的一大好处就是可以抄作业,直接【CopyPrompts】再调整一下关键词,一个风格完全一致的静帧就出来了,抽不到想要的再自己写。【5】第五步,抽视频的卡,但不要只局限在一个平台。其实除了主流的Runway,还有很多值得一试的视频生成工具,MorphStudio、StableVideo都是很好的选择。▶MorphStudio:https://www.morphstudio.com/(对,就是@海辛Hyacinth她们家产品,欢迎给她下需求)▶StableVideo:https://www.stablevideo.com/(对,就是SVD的在线版,新用户有免费额度)如果你本地也部署了SVD,甚至可以线上线下一起跑,效率翻倍。【6】剪辑。反正我用剪映,我很喜欢它的自动踩点功能,找剪辑点超级方便。

封面图片

如何做到只下载整个视频的一部分 ——

如何做到只下载整个视频的一部分——想象这样一种情况:您在YouTube上发现了一个很大的视频,但您只需要下载其中的一部分。如果下载整个视频再编辑会很费时间,并会占用您手机的大量空间。通过——一种易于使用的编辑服务,您可以简单地做到只下载视频的一部分,只需留下一个链接即可。要做到这点:1.进入网站,点击“开始编辑”。2.插入视频的链接或以MP4格式上传。3.视频编辑器打开-那里有许多有用的功能。您可以分割或修剪您想要的视频,提高其质量,减掉没用的东西。当编辑完后直接点击“导出”。您还可以在视频中添加图片、文字或音频。一切都可以在浏览器中完成。免费使用。#tools

封面图片

#PMV#卡点#混剪#剪辑#激烈激烈卡点爆透清纯jk学妹,属于是必看的一部PMV,无论是画面还是配乐都堪称经典资源直链:←会员点

#PMV#卡点#混剪#剪辑#激烈激烈卡点爆透清纯jk学妹,属于是必看的一部PMV,无论是画面还是配乐都堪称经典资源直链:←会员点击直达精彩内容PMV赞助区:←点击查看详情介绍

封面图片

前几天刷到了好几个用Pixverse做的好视频,刚好他们最近上线了网页版本和新模型就想顺便测试一下和 Runway 以及 Pik

前几天刷到了好几个用Pixverse做的好视频,刚好他们最近上线了网页版本和新模型就想顺便测试一下和Runway以及Pika的质量相比怎么样。先说结论:如果不考虑其他功能和交互我这次测试的结果Pixverse和Pika的质量接近分别是74.5分和73.5分。Runway效果居然最差只有64.5分。Pixverse的模型是这三者最为平衡的,可以有比较强的运动幅度,同时可以维持较好的一致性,模型可以比较好的对提示词进行响应,尤其是2.5D那个镜头非常的惊艳,但是纯二次元图片的效果也不是很好。Pika在动漫和2.5D风格上的优势巨大,但是只有Pika每次生成是3秒钟,所以图像质量打分会比其他两个差,写实风格效果也不是很如意,图像质量以及一致性相对差一些。Runway的模型质量和上面两者差距较大,主要是二次元风格的还原度太差还有2.5D风格直接无法维持一致性,写实场景对复杂画面改动较大有时候无法维持画面一致性,但是Runway对生成内容的控制还是三者最强的,因为其他两个都没有所以这部分就不计入分数。这里使用Pixverse:https://app.pixverse.ai/create/说一下测试的内容这次只测试视频模型的质量,所以三者都会使用图生视频来测试,这样可以忽略各自的图像模型的差距。另外每个都会使用物品特写、写实风景、写实人像、皮克斯2.5D风格、2D动画风格,这五种风格,然后每张图片生成的视频会从主题一致性、运动平滑度、运动程度以及成像质量这四个维度进行主观评分,每张图片随机一次,所以评分非常主观不保证复现,就是给大家使用的时候一个参考。下面是具体每个测试的分数,视频是三者生成视频的对比:物品特写-橘子落水:Runway主题一致性4分、运动平滑度4分、运动程度4.5分、成像质量3.5分、总分:16Pixverse主题一致性4分、运动平滑度4分、运动程度3.5分、成像质量4分、总分:15.5Pika主题一致性3.5分、运动平滑度4分、运动程度4分、成像质量3.5分、总分:15写实风景-伦敦塔着火:Runway:主题一致性2分、运动平滑度4分、运动程度4分、成像质量3.5分、总分:13.5Pixverse:主题一致性4分、运动平滑度4分、运动程度3.5分、成像质量4分、总分:15.5Pika:主题一致性3.5分、运动平滑度3.5分、运动程度3.5分、成像质量3.5分、总分:14皮克斯2.5D风格-拟人狐狸:Runway:主题一致性2分、运动平滑度3.5分、运动程度4分、成像质量2分、总分:11.5Pixverse:主题一致性4分、运动平滑度4分、运动程度4分、成像质量4分、总分:16Pika:主题一致性3.5分、运动平滑度4分、运动程度3.5分、成像质量3.5分、总分:14.5写实人像-水面古装:Runway:主题一致性4分、运动平滑度4分、运动程度2分、成像质量3.5分、总分:13.5Pixverse:主题一致性4分、运动平滑度4分、运动程度4分、成像质量4分、总分:16Pika:主题一致性3分、运动平滑度3.5分、运动程度4.5分、成像质量3分、总分:14动漫场景-植物园女孩:Runway:主题一致性1分、运动平滑度2分、运动程度4分、成像质量3分、总分:10Pixverse:主题一致性3分、运动平滑度3分、运动程度2.5分、成像质量3分、总分:11.5Pika:主题一致性4分、运动平滑度4分、运动程度4.5分、成像质量3.5分、总分:16总分:Runway:64.5、Pixverse:74.5、Pika:73.5Invalidmedia:

封面图片

试了这个被刷屏的视频AI 我感觉自己被诈骗了……

试了这个被刷屏的视频AI我感觉自己被诈骗了……甚至其中一个创始人爸爸的上市公司,还在Pika的爆火下涨停了,真就父凭女贵……世超也闻着味儿,直接去了他们的官网,想一探究竟。结果,他们的宣传视频,上来就把我给唬住了。它除了丢一张图片进去就能生成一段视频之外。还能靠一两句提示词就生成一个视频。比如让它生成一个在太空里讲话的3D动漫的老马。这脸型、这神态,估计是连马斯克本人看到都会直呼牛X的程度。丢段视频进去,Pika也能根据提示生成新的内容。像演示里,丢个骑马小伙的剪影视频进去,根据提示词就能生成对应的风格。并且把现实风、3D卡通风、像素风各种风格拼接在一起后,之间的切换无比丝滑,整个过程里骑马的动作丝毫没有变形。甚至这个Pika已经能直接对视频进行局部修改了,指哪打哪……只要鼠标轻轻拖拽一下,框出视频里要修改的元素,分分钟就能给小姐姐来个换装,顺便给黑猩猩带个墨镜。有一说一,就上面那些演示的功能和效果,几乎可以把一大部分视频生成AI吊起来打了。但,上面这些官方给出的演示视频,大家dddd。实际和演示的有哪些差距?老样子,世超先替你们测评一波。现在正式网页版的还得排队,我们只能先在Discord社区里体验一下“阉割版”的,只有文字生成视频和图片生成视频两大功能。打开Discord里面的Pika社区后,整个界面的主体就是入门介绍了,左边有个“CREATIONS”的下拉入口,里面的10个生成入口,随便进一个都可以体验。用的时候也很简单,打个“/”,会自动弹出后缀,Pika的主要两大功能就是/animate(图片生成视频)和/create(文字生成视频)。选择模式之后,就跟用ChatGPT一样,打字或者输入图片讲需求就行了。虽然这个Pika不像Runway有专门的参数调节栏,但想要调节参数它也是可以的,直接加后缀就行。并且这个Pika能调节的参数也不少,这次新发布的功能就有个调节镜头的选项。像什么放大画面、缩小画面、上下左右移动、各种方向旋转……都能调,就跟当导演一样。其他的参数还有帧数、画面变化的幅度、视频比例等等,也都是在提示词后面加个“-”说要求。了解完参数,就能直接开玩了,世超先试了试图片生成视频的功能,丢给了它一张正在下雪的图,大概等个一分钟左右就好了。效果看起来也还不错,不过Pika这个体验版一次最多就只有3秒,有点意犹未尽的感觉。接下来再丢个整个上次用Runway试过的经典梗图,虽说Pika的画面是糊了点,但就动作连贯性来说,它还是略胜一筹了,起码没当街表演换装,而且走路的节奏也很正常……Pika(上)和Runway(下)效果对比不过也有翻车的时候,还是上次试过的一个案例,让下面这位长发美女的头发飘逸起来,Runway效果还算不错。但Pika这边就不太对劲了,她头发不飘起来我都还不知道里面竟然还能藏个人头,好好的一张图立马变鬼片……Pika(上)和Runway(下)效果对比世超还在提示词后面加了个“-camerarotateclockwise”,试了试Pika这次新出的“镜头控制”参数,让画面顺时针旋转起来。乍一看还算不错,但遗憾的是这些蝴蝶没在镜头旋转的时候扑腾两下,而且方向还转错了。试完了图片生成视频的功能,咱们又试了下文字生成视频。世超发现,对于一些小幅度动作或者简单动作的要求,Pika生成的效果还不错。比如让Pika生成个1:1画面的猫猫睡觉视频,算是中规中矩。但只要涉及到要四肢协调运动,或者手部细节时,那可是槽点满满了。让一个3D版的马里奥跑个步,这手脚频率不同步就算了,但腿怎么还换来换去,而且一个手四指,另一个手五指……还有让迈克·杰克逊跳个舞,前一秒还觉得这次有戏能成,结果后一秒突然长了两个小胳膊。有趣的是,我还去扒了扒官方演示里的提示词去试,结果只能说太抽象了。马斯克那个完全没有演示视频里的效果,大家直接看效果吧,很难评……还有机器人走路的提示词,演示图是这样的:而咱们试出来却是这个样子,虽说效果还行,但完全没演示中那味。试了太多次没啥比较好的案例,世超又去翻了翻社区里大家生成的视频,还跑到了官方给出的优秀案例库看了看,结果发现,没啥好效果还真不是我个人的原因。大家用Pika生成效果好的,大部分都是画面部分元素闪烁、或者没啥动作幅度的视频,只要动作幅度大一点,缺点就全都暴露出来了。下面这个还是收在优秀案例库里的,小腿那边看着也都有点奇怪……总的来说,就单在Discord上的体验来看,Pika的效果一般,和上次在Runway的效果差不多,有好有坏。不过,之后正式版Pika的功能还会更多,说不定到时候演示图里的上传视频,修改视频局部的功能也都能用上了。现在回过头来看最近几个月,AI生成视频的模型几乎都扎堆出来更新了,像是Runway、StabilityAI还有Meta等等,都发了新的生成视频的模型。虽然目前市面上的这些AI,效果看起来还达不到标准视频的水准,但只要稍微了解下AI生成视频的发展,就会发现,最近的这波更新进步已经是非常大了。像前几个月用AI生成的视频时,连带着背景都还在不断变化,而现在,背景已经稳定多了。这还只是短短几个月的成果,或许再过几个月,这波模型再来一次大更新,到时候的效果又会是另一番景象。...PC版:https://www.cnbeta.com.tw/articles/soft/1401165.htm手机版:https://m.cnbeta.com.tw/view/1401165.htm

封面图片

美国艺术家Sarah McDaniel发布了一部关于她在

美国艺术家SarahMcDaniel发布了一部关于她在。在艺术界以Yonk为名,用2D、定格动画和真人表演,与CGI技术相嫁接,讲述她在神经科学方面探索的各种主题的抽象故事。在她的职业生涯初期,她以其五彩斑斓的眼睛在模特行业获得了知名度。她还出现在马克-隆森(MarkRonson)和G-Eazy等知名音乐人的音乐视频中,以及在2016年担任《花花公子》杂志的封面女郎。一年来,莎拉一直投入大量时间和精力研究神经生物学,特别是研究人类大脑在不同的情绪状态下如何变化。内心景观项目将从核磁共振扫描中收集的科学数据与计算机图形相融合。因此,杨克创作了艺术作品,展示了人类大脑在不同活动中的特殊性,从而吸引了人们对这一主题的更多关注。在洛杉矶拍摄的展示了《内在景观》的创作过程。影片导演是IanBokhanovich,他早先曾为著名说唱歌手Eldzhey和Morgenshtern制作视频剪辑。电影本身相当短,而且真正具有艺术性,它将在纽约的焦点艺术博览会上展出。Yonk还在她的Instagram上发布了这段视频,宣布与的合作,感谢该团队的电影制作,并提醒她的粉丝即将在纽约举办的展览。请欣赏!并关注更多关于Sarah的艺术作品和即将出现在TON上的新艺术家消息。资料来源:@tondiamonds

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人