<aside> ☝ Ähnlich wie Bildgeneratoren à la Midjourney gibt es inzwischen auch Videogeneratoren, die es erlauben, aus einem Prompt oder auch einem Startbild einen kurzen Videoclip zu erzeugen. Die zugrundeliegenden Modelle sind sehr umfangreich und aufwändig zu trainieren. Die Qualität der Ergebnisse schwankt teilweise massiv und ist bisher nur bedingt professionell nutzbar, was sich aber schnell ändern kann.
</aside>
Veo 3 ist - wenig überraschend - der Nachfolger der einst von Google vorgestellten Video-KI Veo 2, die Videos bis zu einer Auflösung von 4K generieren kann. Sie bietet vor allem die Möglichkeit, Kamerabewegungen und Perspektiven sehr gezielt über Prompts auszuwählen. Veo 3 ist derzeit das einzige KI-Video-Modell, das nicht nur bewegte Bilder, sondern zusätzlich auch passenden Klang und sogar Sprache erzeugen kann. Veo 3 ist über den Google-Dienst VideoFX, den Gemini-Chatbot und verschiedene Plattformen wie Fal.ai oder die an Unternehmen gerichtete Cloud-Plattform Vertex AI nutzbar. Es ist das derzeit wohl fortschrittlichste Modell dieser Art.
https://www.youtube.com/watch?v=mCFMn0UkRt0
Der im Juni 2024 gestartete Video-Generator Dream Machine hat fast augenblicklich einen Hype ausgelöst. Das mittlerweile in Version 2 genutzte KI-Modell des Dienstes erlaubt es, erstaunlich fotorealistische, cineastische und stimmige Kamerafahrten und Charakterinszenierungen zu erzeugen – sofern der Prompt stimmt. Die besten Ergebnisse lassen sich erzielen, wenn dem Dienst bereits vorgefertigte Bilder als Ausgangsmaterial vorgegeben werden.
watermarked_video09fc1ed23b59b4977896cfe55e245c295.mp4
Hinter der Videomodellreihe „Kling” steht das chinesische Social-Media-Unternehmen Kuaishou. Das aktuellste Modell 2.1 erzeugt hoch aufgelöste und erstaunlich konsistente Videoclips, mit denen sich auch komplexe Bewegungsabläufe und Kamerfahrten umsetzen lassen.
https://x.com/Kling_ai/status/1912040247023788459
Das an der Entwicklung von Stable Diffusion beteiligte Unternehmen Runway hat mit Gen-4 ein KI-Modell geschaffen, das beeindruckende Videoclips erzeugt. Diese erreichen in Teilen die Qualität und Glaubwürdigkeit echter Filmsequenzen. Es reicht, kurz anzugeben, was das Video zeigen soll. Besonders gute Ergebnisse werden erzielt, wenn Gen-4 mit einem statischen Bild als Ausgangsmaterial und einem Prompt, der beschreibt, wie dieses „animiert” werden soll, verwendet wird.
https://www.youtube.com/watch?v=uRkfzKYFOxc
Das von dem Gen-4-Start-up entwickelte Aleph ist ein Dienst zur Modifizierung von eingegebenen Videos. Das funktioniert auf erstaunliche Weise und kann beeindruckende Effekte hervorbringen. So können beispielsweise Charaktere in Videos mit neuer Kleidung versehen, Umgebungen abgeändert oder Spezialeffekte hinzugefügt werden. Auch die komplette Optik einer Szene kann verändert werden, ohne dass sich die Bewegungen oder der Kontext verändern.