A Meta hoje (29) apresentou o Make-A-Video, um renderizador baseado em texto e alimentado por IA que pode criar vídeo. Assim como o conhecido DALL-E 2 da OpenAI.
Anúncios
E o Google Image, o projeto da empresa de Mark Zuckerberg usa inteligência artificial e aprendizado de máquina para “criar desenhos fotorrealistas” de palavras.
Frases ou outras imagens.
Make-A-Video complementa Make-A-Scene, projeto similar do Meta que usa inteligência artificial para criar imagens a partir de descrições de texto.
A nova plataforma mais robusta vai além da renderização estática e pode criar cenas mais complexas com vários quadros e variações da mesma cena.
Anúncios
Os resultados destacados pela meta são bastante impressionantes, embora em alguns casos estejam perto de invadir o conhecido “Vale estranho”.
Vale a pena ver réplicas de “um urso retratando um urso”, “um robô dançante na Times Square” ou “um gato com controle remoto”.
Embora ainda existam pequenas inconsistências entre as salas, a ordem dos quadros geralmente é consistente e dá uma sensação de movimento.
Como funciona o Make-A-Video?
Como outros AIs de processamento de imagem, o Make-A-Video usa milhões de dados para criar novas imagens.
Anúncios
O desenvolvimento do algoritmo permite a criação de conjuntos consecutivos, como se a IA pudesse “prever” o próximo estado da imagem.
“Vamos prestar atenção especial à forma como construímos novos sistemas de inteligência artificial.
No entanto, o Meta verifica toda a lista para “reduzir o risco de criar conteúdo nocivo”.
Além disso, todo o conteúdo gerado por IA tem marca d’água para garantir que o trabalho não seja usado para enganar o público.
Se você estiver interessado no projeto, pode expandir seus conhecimentos navegando na documentação oficial do A-Video.
*Fonte de pesquisa: Meta