这是我在 2026 年 1 月刚接触 AIGC 领域时做的尝试性 Demo。 当时对 AI 视频生成很好奇,想了解一下整个流程是如何运作的, 于是整合了 Edge TTS(文字转语音)、Pollinations AI(AI 生图)和 MoviePy(视频处理), 做了一个能跑通基本流程的原型。
输入文字描述,生成带配音的简单视频,支持基础参数配置
使用 Pollinations AI 生成图片,支持多种艺术风格
基于微软 Edge TTS,免费自然的中文发音
上传图片添加动态效果,支持常见图片格式
保存生成记录,方便查看和重新下载
支持抖音 9:16、B 站 16:9、Instagram 1:1 等比例
这是我在 AIGC 领域初期的尝试,主要目的是了解 AI 视频生成的基本流程和技术整合方式。
Demo 虽然能跑通流程,但生成的视频质量一般,与市面上成熟的 AIGC 产品相比差距明显。
国内各大厂提供了更优秀的 AIGC 视频生成服务,如可灵、即梦、智谱等,效果更好且成本低。
在尝试和评估后,认为这个 Demo 没有继续开发的意义,因此作为学习记录封存。
输入文字描述,自动生成带配音的视频
使用 AI 生成高质量图片
使用微软 Edge TTS 进行文字转语音
上传图片,生成动态视频效果
自动保存所有生成记录
支持主流社交平台的视频尺寸
适用人群:自媒体创作者、短视频博主
使用场景:抖音/快手短视频、小红书图文内容、Instagram Reels、YouTube Shorts
适用人群:教师、培训机构、知识博主
使用场景:在线课程制作、知识科普视频、教学演示内容
适用人群:电商卖家、品牌营销人员
使用场景:产品介绍视频、促销广告、品牌宣传
适用人群:视频爱好者、艺术创作者
使用场景:艺术创作、实验性视频、个人表达
学会了如何将多个 AI 服务(TTS、生图、视频处理)整合到一个应用中。
积累了调用第三方 API、处理异步任务、管理文件存储的实战经验。
学会了评估一个项目的价值,知道什么时候应该继续投入,什么时候应该放手。
通过亲手实践,对 AI 生成内容的技术原理和局限性有了更深入的理解。