在WAIC2025世界人工智能大会上,生数科技重磅发布Vidu Q1"参考生视频"功能,通过算法创新彻底颠覆传统视频制作流程,为视频生成领域带来突破性进展。
告别分镜,一键直出视频
"参考生视频"最大亮点在于跳过复杂的前期分镜制作环节。用户只需上传人物、道具、场景等参考图,配合文字提示,即可直接生成完整视频素材。制作流程从传统的"分镜生成——视频生成——剪辑——成片"简化为"参考图——视频生成——剪辑——成片"。
例如,输入"诸葛亮与丘吉尔、拿破仑在会议室讨论"的提示词,上传三位历史人物参考图和会议室场景图,系统即可生成三人同框对话的完整视频。
破解商业化核心难题
该功能核心优势在于解决视频模型商业化的关键瓶颈——主体一致性问题。Vidu Q1参考生目前支持最多七个主体同时输入并保持一致,据生数科技表示,这已能满足绝大部分创作场景需求。
生数科技CEO骆怡航表示,这种通用创作方式将更好地服务广告、动漫、影视、文旅、教育等多元商业场景,实现从线下拍摄到线上AI创作的本质转变。
技术路径与产业导向
生数科技采用U-ViT架构,结合扩散模型与Transformer技术,并在此基础上优化算法模块。Vidu模型内置多模态理解能力,已成功应用于视频生成。
骆怡航强调,团队以产业落地为主要导向,暂未将理解与生成一体化作为优先级,"行业客户更关心内容效果而非技术路线"。
拓展具身智能新领域
7月25日,清华大学与生数科技联合发布具身智能模型Vidar,通过"视频大模型+具身智能"路径实现低成本、少样本泛化。
骆怡航解释,视频模型与具身智能在本质上都处理时空信息,采用相同的输入决策逻辑。团队基于Vidu视频大模型,通过少量机器人实操视频训练,可将虚拟视频转化为对应机械臂动作,有效解决传统VLA路线的数据稀缺问题。
目前,Vidu仍以提升视频生成能力为最高优先级,将具身智能作为持续探索方向,为该领域开启潜在商业市场。