[图]Meta推出Make-A-Video工具:只需简单文本就可创建短视频

[图]Meta推出Make-A-Video工具:只需简单文本就可创建短视频通过Dall-E、Midjourney和CrAIyon等AI工具,普通用户也可以输入一些简单的文本内容,经过人工智能加工之后生产媲美艺术家的艺术插图。而Meta最新推出的Make-A-Video工具则让AI艺术生成工具更近一步,只要一些简单的文字就可以生成视频。PC版:https://www.cnbeta.com/articles/soft/1322499.htm手机版:https://m.cnbeta.com/view/1322499.htm

相关推荐

封面图片

Google宣布Imagen Video:根据简短文本内容生成短视频

Google宣布ImagenVideo:根据简短文本内容生成短视频继日前Meta宣布Make-A-Video之后,Google今天宣布了ImagenVideo人工智能系统,可以根据简短文本内容(例如泰迪熊洗碗)生成视频片段。虽然目前生成的短视频清晰度不够,但Google声称ImagenVideo是朝着具有“高度可控性”和世界知识的系统迈出的一步,包括生成镜头的能力在一系列艺术风格中。PC版:https://www.cnbeta.com/articles/soft/1324127.htm手机版:https://m.cnbeta.com/view/1324127.htm

封面图片

【Meta推出AI生成式音乐工具】

【Meta推出AI生成式音乐工具】2023年08月04日05点57分老不正经报道,Facebook和Instagram的母公司Meta推出了一套生成式人工智能模型,称为AudioCraft,目的是通过各种输入进行音乐创作。这套生成式人工智能工具包括MusicGen和AudioGen,它们通过基于文本的输入来创建新的音频,还有另一个名为EnCodec的工具,它可以用更少的音损生成更高质量的音乐。Meta在公告中提到,其MusicGen模型是用其拥有或专门许可的音乐进行训练的。此工具可与谷歌今年发布的类似工具MusicLM相媲美。

封面图片

Meta 发布开源 AI 工具 AudioCraft,用户可通过文本提示创作音乐、音频

Meta发布开源AI工具AudioCraft,用户可通过文本提示创作音乐、音频Meta开源了一款生成式AI工具AudioCraft,可帮助用户通过文本提示创作音乐和音频。根据Meta官方介绍,AudioCraft包含了三个核心组件:1、MusicGen:使用Meta拥有/特别授权的音乐进行训练,根据文本提示生成音乐。2、AudioGen:使用公共音效进行训练生成音频或扩展现有音频,后续还可生成环境音效(如狗叫、汽车鸣笛、木地板上的脚步声)。3、EnCodec(改进版):基于神经网络的音频压缩解码器,可生成更高质量的音乐并减少人工痕迹,或对音频文件进行无损压缩。该工具经过开源之后,相关研究人员和从业人员可以使用自己的数据集训练模型。官方宣称AudioCraft系列模型能够长期稳定地生成高质量音频,而且易于使用,能够为音乐家和声音设计师“提供灵感”,帮助他们快速集思广益,并“以新的方式迭代他们的作品”。AudioCraft项目地址:——、

封面图片

SoraWebui是一个开源的基于OpenAI Sora模型的文本转视频平台。它提供了一个简单易用的界面,用户只需要输入文本就可

是一个开源的基于OpenAISora模型的文本转视频平台。它提供了一个简单易用的界面,用户只需要输入文本就可以一键生成视频。平台开源免费,支持一键部署。SoraWebui的优点是开源免费、使用简单、部署容易。它可以帮助用户快速便捷地将文本内容转化为视频,节省视频制作时间和成本。需求人群:"SoraWebui可用于教育、营销、娱乐等多种场景下的视频内容生产。例如教师可以用它将课文转成视频;营销人员可以制作产品介绍视频;娱乐媒体可以自动生成视频新闻等。"使用场景示例:教师可以输入课文,生成课文讲解视频用户可以输入旅游见闻,生成游记视频游戏玩家可以输入游戏评测,生成游戏评测视频产品特色:一键文本转视频/自定义视频长度/支持图片上传/支持多语言

封面图片

Meta 推出 AI 编程工具 Code Llama,商业领域免费可用

Meta推出AI编程工具CodeLlama,商业领域免费可用Meta现推出了一个名为的AI编码工具,号称“最先进的大型编码语言模型”。该模型基于Llama2大型语言模型打造,可以理解为“Llama2的写代码专用版”,可用于“生成新的代码并调试人类编写的工作”,目前已上线Github。Meta指出,CodeLlama能够根据代码核自然语言提示/要求生成你想要的代码和有关代码的自然语言,或者在指向特定代码时进行完善和调试。除了基础版的CodeLlama外,Meta还推出了专为Python设计的版本——CodeLlama-Python,以及一个能够理解自然语言指令的版本——CodeLlama-Instrct。据悉,CodeLlama将采用与Llama2相同的社区许可,并对研究和商业领域免费开放。来源,https://github.com/facebookresearch/codellama频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Google推出Lumiere生成式AI 可基于文本提示创建逼真的图像和视频

Google推出Lumiere生成式AI可基于文本提示创建逼真的图像和视频这听起来可能并不令人印象深刻,但有了最新的生成式人工智能工具的帮助,我们就能走得更远,创造出令人惊叹的作品。Lumiere还使用扩散概率模型来帮助生成图像。这与时空U-Net相结合。对于那些不了解的人来说,U-Net是一种架构,它能带来时间上的放大和缩小,以及添加到图像中的注意力区块。最棒的是,这种新的生成式人工智能工具可以与许多其他模型一起使用,这将有助于创建比我们之前看到的任何图像和视频都更加逼真的图像和视频。Lumiere可用于创建以下内容:电影胶片将图像的单一部分制作成动画动画视频中的一个物体可以被另一个物体取代风格化生成:任何创作的艺术风格都可以改变为其他风格图像到视频:帮助制作任何所需图像的动画视频到视频:允许用户创建不同艺术风格的视频在撰写本文时,Lumiere创建的视频长度最长仅为5秒,而且还不具备创建视频转换和多角度摄像的功能。另外值得注意的是,如果你想试用Lumiere,仅靠标准GPU是不行的。PC本身必须有强大的图形处理能力,否则该工具根本无法运行。访问试用:https://lumiere-video.github.io/...PC版:https://www.cnbeta.com.tw/articles/soft/1415363.htm手机版:https://m.cnbeta.com.tw/view/1415363.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人