
Animate Anyone是一种基于扩散模型打造的可控视频生成框架,通过图文就能制作高质量人类跳舞视频。用户只需上传一张人像,以及一段提示词,就能生成对应的视频,而且改变提示词,生成的人物的背景和身上的衣服也会跟着变化。简单来说就是,一张图、一句话就能让任何人或角色在任何场景里跳舞。
用户可以通过多种方式来输入和控制视频内容。首先,通过文本提示,用户可以描述视频的场景设置、人物动作或特定主题。其次,用户可以上传人脸图像或其他身体特征的图像,以确保视频中的人物具有相似的外观特征。此外,用户还可以输入姿势或深度序列,以定义视频中人物的具体动作和姿态。最后,用户还可以上传服装样式图像,以指定视频中人物的穿着。
Animate Anyone的模型包括一个视频控制网络和一个内容导引器,它可以在保留身份信息的同时实现运动控制,使模型易于使用且能生成多样化的结果。无论是为了娱乐、广告制作还是艺术创作,只要有目标身份和姿势序列,就可以使用Animate Anyone创造独特的舞蹈视频。
论文链接:https://arxiv.org/pdf/2311.17117.pdf
项目地址:https://humanaigc.github.io/animate-anyone/
体验地址:https://huggingface.co/spaces/xunsong/Moore-AnimateAnyone
Animate Anyone的功能特点
- 高质量视频生成: Animate Anyone 基于先进的扩散模型,能够生成高质量的定制人类舞蹈视频。它精细地捕捉人物的姿态和动作,使得生成的舞蹈视频在细节上表现出色,达到了近乎真实的视觉效果。
- 自定义姿势与身份控制:用户可以通过输入自定义的姿势序列,精确控制生成视频中的人物动作。无论是简单的步伐还是复杂的舞蹈动作, Animate Anyone 都能够根据用户的输入进行准确模拟。同时,用户还可以上传人脸参考图像,以控制生成视频中的人物身份,确保人物面部特征和表情的保留。
- 运动控制与内容导引: Animate Anyone 具备运动控制和内容导引功能,能够确保生成的舞蹈视频在动作准确性和身份信息保留方面达到最佳效果。模型中的运动控制网络能够精确捕捉人物的运动轨迹,而内容导引器则能够确保视频内容的连贯性和一致性。
- 简单的文本与图像输入:用户可以通过简单的文本提示和图像输入来控制视频内容。文本提示可以帮助用户描述视频的场景设置、人物动作或特定主题,而图像输入则可以用于指定视频中人物的外观和服装样式。这种输入方式既直观又方便,使得用户可以轻松创建个性化的舞蹈视频。
- 多样化的应用场景: Animate Anyone 适用于多种应用场景,包括娱乐、广告制作、艺术创作等。无论是为了制作个人娱乐视频,还是为了商业广告或艺术创作,DreaMoving都能够提供高质量的舞蹈视频生成解决方案。
本地部署 AnimateAnyone,下载安装模型全流程演示攻略视频教程:
https://img.pidoutv.com/wp-content/uploads/2024/03/1424163892-1-16-1.mp4
数据统计
相关导航

ReSyncer 是由清华大学、百度和南洋理工大学 S-Lab 实验室联合开发的多功能 AI 框架,专注于视频合成技术。它能够生成与音频高度同步的逼真口型视频,支持个性化调整、视频驱动口型同步、说话风格迁移和人脸交换。ReSyncer 在创建虚拟主持人、电影配音和多语言内容制作等领域具有广泛应用前景。

阿里云百炼
阿里云百炼是基于通义大模型、行业大模型以及三方大模型的一站式大模型开发平台。面向企业客户和个人开发者,提供完整的模型服务工具和全链路应用开发套件,预置丰富的能力插件,提供API及SDK等便捷的集成方式,高效完成大模型应用构建。

Hallo
Hallo是一个百度开源的AI对口型人脸视频生成框架,用户只需提供一段音频和所选人像,它利用人工智能技术,让图片中的人物能够根据语音的变化做出相应的面部表情和嘴唇动作。

书生·浦语 InternLM
书生·浦语 InternLM 是由商汤科技与上海AI实验室联合香港中文大学和复旦大学共同开发的新一代大型语言模型。它是在过万亿token数据上训练的多语千亿参数基座模型,具有较高的知识水平,尤其在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀。

Tarsier
Tarsier是由字节跳动研发的大规模视频语言模型家族,旨在生成高质量的视频描述,并具备良好的视频理解能力。Tarsier 采用了简单的模型结构,结合了 CLIP-ViT 编码帧和 LLM 模型来建模时间关系。通过精心设计的两阶段训练策略,Tarsier 展现出了强大的视频描述能力和视频理解能力,在多个公共基准测试中取得了最先进的成果。

书生通用大模型
书生通用大模型是由上海人工智能实验室发布的大型预训练模型。它包括多个基础模型,如书生·多模态、书生·浦语和书生·天际等。这些模型旨在支持科研创新和产业应用,提供一个全链条开源的研发与应用平台。

StereoCrafter
StereoCrafter是腾讯AI实验室开发的一款开源框架,能够将普通的 2D 视频转换为沉浸式的 3D 视频。通过深度估计和立体视频修复技术,StereoCrafter 提供高质量的 3D 视频生成,支持多种视频源,包括电影、视频博客、3D 动画和 AI 生成内容。

Tora
Tora 是阿里团队推出的一个视频生成模型,能够根据轨迹、图像、文本或其组合,快速生成精确运动控制的视频。它支持多种输入方式,如轨迹、文本和图像,并能生成高分辨率、运动可控的视频。
暂无评论...