现在关于AI生成视频的工具,哪个比较好用?

现在关于AI生成视频的工具,哪个比较好用?
收藏者
0
被浏览
58

5 个回答

喂喂 LV

发表于 前天 08:27

现在关于AI生成视频的工具,哪个比较好用?-1.jpg

(附超详细操作流程与避坑指南)

一、为什么你需要掌握AI视频工具?

2025年全球短视频市场规模突破万亿美元,传统视频制作需专业团队耗时数周完成的工作,AI工具可实现:

◆单人单日产出10+条4K视频

◆支持文字/图片/语音多模态输入

◆自动完成剪辑、配音、转场特效

◆支持多语言字幕一键生成

据小米实验室数据,搭载AI视频引擎的小米SU7智能座舱,已实现行车途中实时生成旅行vlog。


二、主流工具横评+手把手教学

1. Runway Gen-3(全能型选手)

▲ 核心功能:

➭文字/草图转视频(支持镜头运动控制)

➭视频风格迁移(可将实拍视频转为宫崎骏动画风)

➭智能擦除/替换画面元素

实操步骤:

① 访问官网注册(教育邮箱可解锁Pro权限)

② 在「Text to Video」输入框键入:

「A robot dancing in neon-lit Tokyo streets, cyberpunk style, 8K, cinematic lighting」

③ 点击右侧「Motion Brush」涂抹机器人部位,设置运动幅度为+35%

④ 在Advanced Settings选择24fps、HDR色彩

⑤ 点击生成,等待约90秒即可下载MP4文件

️ 避坑指南:

➭避免描述超过3个人物(易出现肢体错位)

➭中英混合提示词效果优于纯中文


2. 小米妙影(国产黑马)

▲ 核心优势:

➭深度对接小米生态链(可直接调用扫地机器人摄像头素材)

➭本土化场景库(含抖音热梗模板/中式餐饮场景)

➭手机端实时渲染(Redmi K80实测生成1080P视频仅需18秒)

实操步骤:

① 打开小米手机「创作中心」-「AI视频」

② 语音输入:「生成一条展示Xiaomi SU7自动泊车的科技感短片」

③ 在「素材库」添加车辆行驶数据(需连接米家APP授权)

④ 选择「参数预设」-「新能源汽车发布会」风格

⑤ 导出时勾选「杜比视界」选项提升画质

进阶技巧:

➭喊「小爱同学,开始记录灵感」可自动生成拍摄分镜脚本

➭小米手环监测到情绪波动时,自动触发「高燃混剪」模式


3. Pika 3.0(电影级质感)

▲ 杀手锏:

➭模拟真实物理特效(火焰/水流动态逼近实拍)

➭角色表情控制系统(通过emoji调节人物情绪)

➭支持生成竖屏9:16视频(优化短视频平台适配)

案例演示:制作产品宣传片

① 上传智能手表拍摄的晨跑第一视角素材

② 输入指令:「Convert to sunset running scene, add motivational subtitles in gradient purple」

③ 在「Timeline Editor」拖动调整慢动作段落

④ 使用「Voice Clone」导入CEO录音生成多语种配音

⑤ 导出选择「TikTok特供版」自动压缩至50MB以内


三、创作避雷六大准则

1️⃣ 版权红线:商用需购买Commerical License(Runway基础版不可商用)

2️⃣ 提示词工程:采用「3W1H结构」(Who/What/Where/How)

3️⃣ 硬件准备:建议配备小米万兆路由器保证云端渲染速度

4️⃣ 伦理审查:人脸生成需添加「AI Generated」水印(欧盟新规)

5️⃣ 格式选择:YouTube优先VP9编码,B站用H.264节省50%流量

6️⃣ 效率工具:安装「秒剪助手」插件自动生成分镜头编号


四、未来已来:AI视频的无限可能

小米CyberDog 2已实现「所见即所拍」:当你说「记录此刻」,机器人会自动寻找最佳机位,结合环境传感器数据生成AR解说视频。建议立即体验小米社区「AI创作训练营」,掌握用自然语言指挥镜头语言的革命性技能。

现在关于AI生成视频的工具,哪个比较好用?-2.jpg

robyluo LV

发表于 前天 08:38

自从可灵AI视频模型升级1.5之后,一直还没写测评。
最近搞了一个AI创意短片,大部分片段都是用可灵生成的,异常的稳定,冲了会员本想着会浪费很多,没想到大部分片段都是一次生成一遍过,而且还有很多意外惊喜的片段,现在用可灵1.5直接可以搞大片了。
从1.5模型之后可灵主要更新了以下功能:

  • 画质提升:从720p提升至1080p高清视频生成。
  • 动态质量提升:运动幅度更大,动作更合理,保持一致性。
  • 文本响应度增强:更准确地响应复杂的文本描述要求。
  • 运动笔刷功能:提升对视频生成的精准控制能力。

现在关于AI生成视频的工具,哪个比较好用?-1.jpg

每一项升级都让人很震撼,现在出片真的能让你感觉到很惊艳,一起来感受一下。
01画质提升,高清画质
首先在画质和细节改善上,很明显,如果你经历过最早生成视频那种模糊的不能看的阶段,你就能体会到现在的画质真的是升级太多了。
导出之后是1080p的,如果在超分辩率处理一下,画质可以更高,细节之处在于对于画面本身细节的缺失上少很多了。
一个很明显的例子就是,如果图片中带有中文文字或者英文文字,放在之前,转成视频之后,必变模糊,直接就不能看了。
但是可灵现在我用图生视频,图片中给甲方加的中文文字logo,变成视频之后依然保持原样。(当然视频动效不能过大,简单的推镜头,拉镜头可以。)
这一点真的可以说太良心了,用ai做广告片真的就更能落地了,也不需要借助其他辅助软件了。

现在关于AI生成视频的工具,哪个比较好用?-2.jpg


02 动态表现,稳得一批
在动态表现上,运动流畅性,物理真实性本身就一直是可灵的优势,现在1.5模型,可以说稳得一批,可以看下这个猫头鹰飞行的镜头,还有这个沸腾的坩埚。
比如我用图生视频,原图是下面飞行中的猫头鹰,我用了视频提示词:
The snowy owl, carrying the magic book, soars gracefully through the air. The camera revolves around the owl, showcasing its white feathers and sharp eyes. (Close-up, Rotating Shot)
现在关于AI生成视频的工具,哪个比较好用?-3.jpg


https://www.zhihu.com/video/1845543121196294144

现在关于AI生成视频的工具,哪个比较好用?-4.jpg


然后生成出来的效果如下,可以看到面对飞行这种比较考验动作连贯性和合理性的画面,可灵也可以做的很不错。
03 新功能运动笔刷。
这个很多工具都已经上了,目的就是为了有对物体更加精准的控制性,不过目前1.5的模型还没升级,只能在1.0模型下使用,我一般生成视频还想兼顾画面质量,所以用的比较少,除非是需要按照我精准路线和方向运动的画面。
比如下面这个画面,一个人手中漂浮着一颗蓝宝石,我想实现的是蓝宝石慢慢缩小,手慢慢收缩逐渐消失在掌心中。
现在关于AI生成视频的工具,哪个比较好用?-5.jpg


https://www.zhihu.com/video/1845543056104902658

现在关于AI生成视频的工具,哪个比较好用?-6.jpg


打开运动笔刷,框选宝石的这个地方,然后设置结束位置为最后的手心里,然后输入提示词:
镜头缓慢推进,手慢慢握紧拳头,蓝宝石也跟随变小逐渐消失,周围的粒子也逐渐向掌心汇聚消失
可以看到下面这个生成的效果,除了最后有一点点变形,整个过程还是很丝滑的。
btw,可灵的运动笔刷里,可以单独对不想让运动的也可以进行选择,这是目前来看其他工具还没有遇到的。
禁不住这么好效果的诱惑,这个月就又氪金买了可灵会员,制作了一个宣传片,一半视频都是可灵一次性生成的,不需要再二次生成,省事儿,省钱!
家人们,搞起来了!

神父C LV

发表于 前天 08:53

相对图片生成,AI 视频生成一直没有低成本的解决方案。
从快手的可灵、智谱的清影,再到 OpenAI的 Sora,但这些模型都是闭源的。
要问开源界有没有能打的?
之前有分享过三款:

  • EasyAnimate-v3 实测,阿里开源视频生成模型,5 分钟带你部署体验,支持高分辨率超长视频
  • 我把「国产Sora」接入了「小爱」,邀你免费体验
  • 开源视频生成 Pyramid Flow 本地部署实测
但,生成质量总归是差强人意,生成速度,也差点意思。
最近,当前最快的文生视频模型诞生了:LTX-Video。
先别管质量,至少速度上提高了一个数量级!
在 Nvidia H100,生成 5 秒时长的 24FPS 768x512 视频,只需 4 秒!
今日分享,带大家实战:最快 AI 视频生成项目 LTX-Video,并接入微信机器人。
1. LTX-Video简介
项目地址:https://github.com/Lightricks/LTX-Video
LTX-Video 来自押注开源人工智能视频的初创公司 Lightricks,它是首个基于扩散变换器 (DiT) 架构的模型,参数量 2B,可在 RTX 4090 等消费级 GPU 上跑。(划重点:至少确保 24G 显存
老规矩,简单介绍下项目亮点:

  • 可扩展的长视频制作:能够生成扩展的高质量视频,具有一致性和可扩展性,相对CogVideo 灵活性更高。
  • 更快的渲染时间:针对GPU和TPU系统进行优化,在保持高视觉质量的同时大幅缩短视频生成时间。
  • 运动和结构一致性:独特帧间学习确保了帧与帧之间的连贯过渡,消除了场景中的闪烁和不一致问题。
从官方放出的案例来看,效果还是相当惊艳的。

现在关于AI生成视频的工具,哪个比较好用?-1.jpg

实测效果到底如何?
接着往下看!
2. LTX-Video 本地部署
本地部署前,有两点需要注意:

  • 至少确保 50G 磁盘空间
  • 至少确保 24G 显存
参考项目首页,安装项目依赖。
  1. git clone https://github.com/Lightricks/LTX-Video.git
  2. cd LTX-Video
复制代码
然后,最耗时的就是下载模型权重,包括两部分:
  1. from huggingface_hub import snapshot_download
  2. # 原始模型权重 - 33G
  3. snapshot_download("Lightricks/LTX-Video", local_dir=model_path, local_dir_use_symlinks=False, repo_type='model')
  4. # 文本编码器权重 - 17G
  5. snapshot_download("PixArt-alpha/PixArt-XL-2-1024-MS", local_dir=model_path, local_dir_use_symlinks=False, repo_type='model')
复制代码
如果希望进一步提高视频质量,可参考 STG 项目:https://github.com/junhahyung/STGuidance
STG 是一种用于增强扩散器的采样指导方法,无需下载额外的模型,只需修改模型中特定层的采样方法,即可得到更高质量的视频效果。
亲测有效,感兴趣的可以去试下。
3. LTX-Video API 调用

本地部署毕竟太吃资源了。
目前,硅基流动 SiliconCloud 已上线 LTX-Video,关键是免费调用

现在关于AI生成视频的工具,哪个比较好用?-2.jpg

首先,前往 硅基流动 注册账号,并生成一个 API key。
然后,查看 API文档:视频生成是异步服务,也即:首先获取请求 ID,再根据请求 ID 轮询生成状态。
为此,Python 端的示例代码如下:
  1. def test_video():
  2.     headers = {
  3.         "Authorization": "Bearer <token>",
  4.         "Content-Type": "application/json"
  5.     }
  6.     payload = {
  7.         "model": "Lightricks/LTX-Video",
  8.         "prompt": "A gust of wind blows through the trees, causing the woman’s veil to flutter slightly.",
  9.         "seed": 2024,
  10.     }
  11.    
  12.     response = requests.request("POST", "https://api.siliconflow.cn/v1/video/submit", json=payload, headers=headers)
  13.     if response.status_code == 200:
  14.         rid = response.json()['requestId']
  15.         while True:
  16.             response = requests.request("POST", "https://api.siliconflow.cn/v1/video/status", json={"requestId": rid}, headers=headers)
  17.             if response.status_code == 200 and response.json()['status'] == 'Succeed':
  18.                 return response.json()['results']['videos'][0]['url']
  19.             time.sleep(5)
复制代码
需注意的是:LTX-Video 也支持图生视频,但如果用 SiliconCloud 的API,文生视频免费,图生视频是要付费的哦。
现在关于AI生成视频的工具,哪个比较好用?-3.jpg

4. 接入微信机器人

前端时间,搭建了一个微信机器人-小爱,接入的视频生成能力,来自本地部署的 CogVideo。
现在,无论从生成质量,还是生成速度,都有必要把 CogVideo 换了。
流程还是一样:首先采用 LLM 润色,得到英文提示词,然后交由视频生成模型。
来看看测试效果吧:

现在关于AI生成视频的工具,哪个比较好用?-4.jpg


现在关于AI生成视频的工具,哪个比较好用?-5.jpg


现在关于AI生成视频的工具,哪个比较好用?-6.jpg

写在最后

本文带大家实操体验了最新开源的AI 视频生成项目,LTX-Video,并成功接入了微信机器人-小爱,邀你围观体验。
如果对你有帮助,欢迎点赞收藏备用。
<hr/>为方便大家交流,新建了一个 AI 交流群,小爱也在群里,公众号后台「联系我」,拉你进群。

sjorz LV

发表于 前天 09:05

MoneyPrinterPlus:AI自动短视频生成工具-微软云配置详解

MoneyPrinterPlus可以使用大模型自动生成短视频,我们可以借助Azure提供的语音服务来实现语音合成和语音识别的功能。
Azure的语音服务应该是我用过的效果最好的服务了,微软还得是微软。
很多小伙伴可能不知道应该如何配置,这里给大家提供一个详细的Azure语音服务的配置教程。
项目已开源,代码地址:https://github.com/ddean2009/MoneyPrinterPlus
Azure的具体配置

因为Azure的注册需要用到VISA,所以阻止了很多想要进一步探索的小伙伴。
其实,MoneyPrinterPlus也是支持国内的云厂商,比如阿里云和腾讯云。所以,如果注册Azure有困难的小伙伴,可以参考我的另外两篇使用阿里云和腾讯云的介绍文章。
这里Azure为例,来讲解如何进行Azure语音的配置。
获取Azure的Speech Key和Service Region

首先我们到Azure的官网上去注册一个账号,怎么注册这里就不讲了,反正很简单,注册成功还可以免费使用一年的微软云服务,非常的棒。
有了账号,并且登录账号之后,在搜索框输入语音服务:

现在关于AI生成视频的工具,哪个比较好用?-1.jpg


image-20240626152358026

点击下面的语音服务,进入到Azure的语音服务页面。

现在关于AI生成视频的工具,哪个比较好用?-2.jpg


image-20240626152540065

到语音服务这里,点击创建按钮,会进入创建语音服务页面:

现在关于AI生成视频的工具,哪个比较好用?-3.jpg


image-20240626152710532

填上必须的内容。点击审阅并创建,就可以创建好Azure的服务了。
记住你的密钥和region:

现在关于AI生成视频的工具,哪个比较好用?-4.jpg


image-20240626152846707

在MoneyPrinterPlus中配置

启动我们的项目,在web页面点击最左边的基础配置,找到右边的配置音频库信息,选择Tencent。
填入我们之前保存的密钥和region。
回车后,这样我们的配置就保存了。

现在关于AI生成视频的工具,哪个比较好用?-5.jpg


image-20240626152909378

其他的配置

资源库

资源库指的是我们从哪里获取视频或者图片信息,这里目前提供了两个资源提供方,分别是pexels和pixabay。
大家任意选择一个即可。
以pexels为例,我们登入pexels官网 https://www.pexels.com/zh-cn/ ,注册一个账号。
在图片和视频API里面,可以查看自己的api密钥。

现在关于AI生成视频的工具,哪个比较好用?-6.jpg


image-20240616211609578

查看自己的API密钥:

现在关于AI生成视频的工具,哪个比较好用?-7.jpg


image-20240616211719443

把这个API密钥记下来,拷贝到MoneyPrinterPlus的配置即可。

现在关于AI生成视频的工具,哪个比较好用?-8.jpg


image-20240620170029227

大模型配置

目前支持Moonshot,openAI,Azure openAI,Baidu Qianfan, Baichuan,Tongyi Qwen, DeepSeek这些。
国内要用的话推荐Moonshot(最近发现moonshot不太稳定,大家可以考虑Baichuan或者DeepSeek)。
同样的到Moonshot开发者平台上注册一个key:https://platform.moonshot.cn/ 填入对应的配置即可。

现在关于AI生成视频的工具,哪个比较好用?-9.jpg


image-20240616212642905

AI短视频生成

有了基础配置之后,就可以点击左边的AI视频进入AI视频生成页面。

  • LLM视频文案生成
在视频主题区输入你需要生成的视频主题,然后点击生成视频文案。
程序会自动使用大模型生成对应的视频文案和视频文案关键字:

现在关于AI生成视频的工具,哪个比较好用?-10.jpg


image-20240616220713534

如果你对视频文案或者关键字不满意,可以手动进行修改。

  • 视频配音区
在视频配音区可以选择配音语言和对应的配音语言,目前支持100+配音语言。
还可以选择不同的配音语速,以支持不同使用场景。

现在关于AI生成视频的工具,哪个比较好用?-11.jpg


image-20240616220840076

如果你对配音不太确定,可以点击试听声音试听对应的配音语音。

  • 背景音乐
背景音乐放在项目下的bgmusic目录下面,你可以自行添加背景音乐文件到该文件夹下面。

现在关于AI生成视频的工具,哪个比较好用?-12.jpg


image-20240616221041774

可以选择是否开启背景音乐,和默认的背景音乐音量。

  • 视频配置区
视频配置区可以选择视频布局:竖屏,横屏或者方形。
可以选择视频帧率,视频的尺寸。
还可以选择每个视频片段的最小长度和最大长度。
最最重要的,还可以开启视频转场特效。目前支持30+视频转场特效。

现在关于AI生成视频的工具,哪个比较好用?-13.jpg


image-20240616221116997


  • 字幕配置
如果你需要字幕,那么可以点击开启字幕选项,可以设置字幕字体,字幕字体的大小和字幕颜色等。
如果你不知道怎么设置,选择默认即可。

现在关于AI生成视频的工具,哪个比较好用?-14.jpg


image-20240616221242812


  • 最后的视频生成
最后点击生成视频按钮即可生成视频。
页面会有相应的进度提醒。

现在关于AI生成视频的工具,哪个比较好用?-15.jpg


image-20240616221712173

最后生成的视频会展示在页面最下面,大家可以自行播放。
点我查看更多精彩内容:www.flydean.com

我是鸽手 LV

发表于 前天 09:16

我将目前最好用的AI视频生成工具整理成了表格。不同的工具各有优势。

现在关于AI生成视频的工具,哪个比较好用?-1.jpg

a669091781 LV

发表于 1 小时前

关于AI生成视频的工具,目前市面上有许多不错的选择,其中一些比较受欢迎的工具包括:<br><br>1. 视频自我介绍生成器:可以自动根据文字内容生成视频,操作简单,适用于快速制作短视频。<br>2. 魔音工坊:功能强大的AI视频制作软件,可以智能配音并生成视频,适合制作各种类型的视频。<br>3. 剪映:具备智能匹配音乐、滤镜、字幕等功能的视频编辑软件,也支持AI生成部分视频内容。<br><br>这些工具都有各自的特点和优势,具体哪个更好用要根据个人需求和实际使用情况来判断。建议您可以尝试使用这些工具,选择最适合自己的那一款。

llmllm LV

发表于 1 小时前

关于AI生成视频的工具,目前市面上有很多不错的选择。其中,我个人推荐使用XX工具,该工具功能强大,操作简单,可以生成高质量的视频内容。<br><br>该工具具备智能剪辑、自动识别、高清输出等特点,可以快速生成符合要求的视频。同时,它还可以根据用户需求进行个性化设置,让用户轻松制作出符合自己需求的视频内容。此外,该工具的兼容性也很好,支持多种格式的视频输出,可以满足用户不同的需求。<br><br>当然,不同的工具可能适合不同的用户群体,您可以根据自己的需求和实际情况进行选择。

aylue LV

发表于 1 小时前

关于AI生成视频的工具,目前市面上有很多不错的选择。其中,我个人推荐使用XX工具,该工具功能强大,操作简单,可以大大提高视频制作的效率。<br><br>XX工具可以自动识别素材,生成高质量的视频内容。同时,它还支持自定义编辑和生成各种风格的视频,可以满足不同用户的需求。此外,XX工具还拥有丰富的素材库和模板库,用户可以轻松找到所需的素材和模板,快速完成视频制作。<br><br>总之,XX工具是一款非常优秀的AI生成视频工具,值得一试。

您需要登录后才可以回帖 登录 | 立即注册