Recentemente, a Hedra Labs lançou uma versão de pré-visualização de pesquisa do Character-1, uma tecnologia que permite aos usuários gerar vídeos dinâmicos de pessoas falando e cantando com base em fotos e conteúdo de áudio de qualquer pessoa.
Imagine: você carrega uma foto de uma pessoa e adiciona qualquer conteúdo de áudio, e instantaneamente gera um vídeo dinâmico que faz a pessoa na foto parecer ganhar vida, falando ou cantando, com a sincronização perfeita de lábios, expressões e postura com o conteúdo de áudio! Não é incrível?
Vídeo de demonstração oficial da Hedra Labs
Principais características e destaques de funcionalidades:
Compatibilidade multiplataforma: usuários podem usar o Character-1 facilmente em desktops e dispositivos móveis.
Geração de duração ilimitada: a versão de pré-visualização atualmente disponível suporta a geração de vídeos de 30 segundos. Com o fornecimento suficiente de H100, é possível gerar 90 segundos de conteúdo a cada 60 segundos.
Suporta várias formas de expressão: o Character-1 não só suporta diálogos, mas também consegue lidar com formas de expressão como canto e rap.
A Hedra oferece uma interface amigável, permitindo que até mesmo usuários não profissionais possam utilizá-la rapidamente. Os usuários podem acessar o site oficial da Hedra, usar a função de texto para fala ou carregar arquivos de áudio diretamente, inserir a descrição do personagem e, em seguida, gerar um vídeo dinâmico.
A tecnologia de IA da Hedra garante a alta qualidade e realismo do conteúdo do vídeo. As expressões, posturas e a sincronização de áudio do personagem são satisfatórias.
De acordo com os exemplos fornecidos pela empresa, o Character-1 pode interpretar perfeitamente canções, atuar e representar personagens com diferentes emoções. Essa tecnologia não se limita a personagens humanos; ela também pode gerar objetos inanimados expressivos, desde que possuam características faciais distintas.
O uso é muito simples. As etapas são as seguintes:
Abra o endereço da experiência Hedra: https://top.aibase.com/tool/hedra
Após acessar a página, você verá a interface de operação.
A interface é simples. No primeiro campo, insira o diálogo do seu personagem e selecione uma voz. Claro, se você não quiser usar o áudio gerado, também pode importar seu próprio áudio.
Aqui, inseri simplesmente a frase: "Olá, este é um vídeo falado criado pela AIBase. Hoje, vamos experimentar o Hedra, tornando a geração de vídeos tão simples quanto respirar".
Em seguida, carreguei a imagem que quero que fale no segundo campo. Aqui, carreguei uma foto minha que fiz antes.
Se você não tiver uma imagem pronta, pode inserir a descrição do seu personagem na caixa de texto abaixo e clicar em "Criar" para gerar uma.
Após carregar a imagem, clique em "Gerar vídeo" na parte inferior do terceiro campo.
Abaixo está o resultado do vídeo gerado:
Podemos ver que o vídeo falado gerado pelo Hedra é bastante dinâmico; não é apenas a boca que se move, mas também outras partes do corpo, e também há expressões. No entanto, como a plataforma oferece poucas opções de voz, o sotaque estrangeiro não combina muito bem com a imagem da minha personagem. Outra desvantagem é que o vídeo gerado é muito mais embaçado do que a minha imagem original. Espero que a plataforma melhore a qualidade da imagem no futuro.
Aqui, carreguei um áudio próprio, gerado diretamente pelo CapCut, selecionando uma voz feminina e inserindo o texto para leitura.
Testando novamente:
Selecionando a importação de áudio
O resultado gerado é o seguinte:
O problema de embaçamento pode ser resolvido usando a função de aprimoramento de vídeo do Krea AI. No entanto, lembre-se de que a versão de teste gratuita tem um limite de 10 segundos. Vídeos mais longos precisam ser cortados. Além disso, não escolha uma taxa de quadros muito alta. Eu escolhi 60 quadros por segundo, e a edição parou no meio do caminho, exigindo uma atualização paga. Que frustração!