Animar a Cualquiera tiene como objetivo generar vídeos de personajes a partir de imágenes estáticas mediante señales de conducción. Aprovechamos la potencia de los modelos de difusión y presentamos un nuevo marco especialmente diseñado para la animación de personajes. Para mantener la coherencia de las características complejas de la apariencia en la imagen de referencia, hemos diseñado ReferenceNet para combinar características detalladas mediante atención espacial. Para garantizar la controlabilidad y la continuidad, introducimos un eficiente orientador de poses para guiar el movimiento del personaje y empleamos un método de modelado temporal eficaz para asegurar una transición fluida entre fotogramas. Al ampliar los datos de entrenamiento, nuestro método puede animar cualquier personaje, logrando resultados excelentes en la animación de personajes en comparación con otros métodos de imagen a vídeo. Además, hemos evaluado nuestro método en benchmarks de vídeo de moda y generación de bailes humanos, obteniendo resultados de vanguardia.