Direkt zum Inhalt

Qwens Wan 2.1: Ein Leitfaden mit praktischen Beispielen

Lerne, wie du mit Wan 2.1, Alibabas Open-Source-Modell zur Videoerstellung, Videos aus Text und Bildern erstellst.
Aktualisierte 12. März 2025  · 12 Min. Lesezeit

Qwens Wan2.1 ist ein Open-Source-Modell zur Videogenerierung, das sowohl leistungsstark als auch zugänglich ist, da es auf Consumer-GPUs laufen kann.

Mit seiner großartigen Leistung konkurriert Wan2.1 mit Open-Source-Modellen wie HunyuanVideo und SkyReels und kommerziellen Lösungen wie Sora und Runway.

In diesem Artikel erfährst du, was Wan2.1 ist, was die wichtigsten Funktionen sind und wie es funktioniert. Außerdem zeige ich dir, wie du darauf zugreifen kannst und wie du damit Videos aus verschiedenen Eingabeaufforderungen erstellst, um seine Fähigkeiten in Aktion zu zeigen.

Was ist Wan 2.1?

Wan 2.1 ist ein fortschrittliches Modell zur Videogenerierung, das von Qwen entwickelt wurde. Es gehört zu einer Familie von groß angelegten Videogrundlagenmodellen, d.h. es kann hochwertige Videos aus verschiedenen Arten von Eingaben erstellen, in diesem Fall aus Textbeschreibungen und Bildern.

Wan 2.1 kombiniert leistungsstarke Videoerstellung mit Barrierefreiheit. Im Gegensatz zu vielen anderen KI-Videomodellen, für die teure Hardware erforderlich ist, kann es auf Consumer-GPUs laufen, was es praktischer macht. Außerdem ist es Open Source.

Es basiert auf der Diffusionstransformator-Technologie, einem Ansatz, der es ermöglicht, glatte, realistische Videos mit beeindruckender Bewegungsqualität zu erzeugen. Wan 2.1 führt außerdem einen einzigartigen Video Variational Autoencoder (VAE) ein, der dazu beiträgt, dass das Video auch bei höheren Auflösungen wie 1080p konsistent und detailreich bleibt.

Hier sind seine wichtigsten Merkmale:

1. Leistung auf dem neuesten Stand der Technik (SOTA)

Wan 2.1 übertrifft sowohl Open-Source- als auch kommerzielle KI-Videomodelle in mehreren Benchmarks, d.h. es produziert realistischere, qualitativ hochwertigere Videos als viele Alternativen.

Benchmarks Wan 2.1

Quelle: GitHub (Wan-Video/Wan2.1)

In der obigen Tabelle sehen wir eine vergleichende Bewertung der Videogenerierungsmodelle über verschiedene Wan-Bench-Dimensionen hinweg, wobei ihre Leistung in Bezug auf Schlüsselaspekte wie Bewegungsgenerierung, visuelle Stabilität, Objektgenauigkeit und Befolgung von Anweisungen bewertet wird. Das leistungsstärkste Modell in jeder Kategorie ist fett hervorgehoben.

Wan-14B erreicht die höchste gewichtete Gesamtpunktzahl (0,724) und beweist damit seine starken Fähigkeiten bei mehreren Benchmarks.

2. Funktioniert auf Consumer-GPUs

Im Vergleich zu den meisten High-End-KI-Videomodellen, die teure Hardware benötigen, benötigt das T2V-1.3B-Modell von Wan 2.1 nur 8,19 GB VRAM. Das bedeutet, dass du mit einer normalen GPU, wie einer RTX 4090, in wenigen Minuten Videos erstellen kannst, ohne einen Supercomputer zu benötigen.

3. Unterstützt verschiedene Aufgaben und Funktionen der Videoerstellung

Mit Wan kannst du mehr als nur Text-to-Video (T2V) machen. Es bietet fortschrittliche Funktionen zur Verbesserung der Videoerstellung und -anpassung, darunter:

  • Prompt Verbesserung:  Wenn du diese Funktion aktivierst, verbessert das Modell deine Prompts, um qualitativ hochwertigere und präzisere Videos zu erzeugen.
  • Steuerung des Seitenverhältnisses: Du kannst das beste Seitenverhältnis für deine Ausgabe wählen: 16:9, 9:16, 1:1, 4:3 oder 3:4.
  • Inspirationsmodus: Diese Funktion hilft dir, das Bildmaterial zu bereichern und die Ausdruckskraft zu verbessern. Die Ergebnisse können leicht von den Eingabeaufforderungen abweichen, um eine künstlerische Note zu erhalten.
  • Soundeffekte: Du kannst passende Soundeffekte für das Video erzeugen oder Hintergrundmusik erstellen.

Außerdem unterstützt Wan Image-to-Video (I2V), sodass du Standbilder in animierte Videos umwandeln kannst. Du kannst optionale Textaufforderungen hinzufügen, um mehr Kontrolle über die Videoerstellung zu haben, und das erste und das letzte Bild festlegen, um den Aufbau und den Fluss des Videos zu gestalten.

4. Visuelle Texterstellung (Englisch & Chinesisch)

Wan 2.1 ist das erste KI-Videomodell, das lesbaren Text in Videos sowohl auf Englisch als auch auf Chinesisch erzeugen kann. Diese Funktion eignet sich hervorragend zum Erstellen von Untertiteln, animiertem Text und grafischen Einblendungen in Videoinhalten.

5. Video-Variations-Autoencoder (VAE)

Wan 2.1 verwendet einen fortschrittlichen Video Variational Auto Encoder (Wan-VAE), der es ermöglicht:

  • Kodiere und dekodiere hochauflösende 1080p-Videos beliebiger Länge bei gleichbleibender Bewegung.
  • Behalte Details und zeitliche Konsistenz bei, damit Objekte und Zeichen nicht flimmern oder über mehrere Bilder hinweg verzerrt werden.
  • Komprimiere Videodaten effizient.

Wie komme ich zu Wan 2.1 Online?

Es gibt mehrere Möglichkeiten, damit anzufangen - du kannst es entweder online ausprobieren oder es lokal auf deinem Computer ausführen.

Wenn du mit Wan 2.1 experimentieren willst, ohne etwas zu installieren, kannst du es über

1. Hugging Face Raum: Du kannst das Modell direkt in einer Weboberfläche ausführen.

HuggingFace Space Interface für Wan 2.1

2. WanVideo Website: Hier kannst du mehr tun, als nur Videos zu erstellen. Auf der offiziellen Website kannst du auch Bilder erstellen und eine Sammlung von Videos und Bildern anderer Nutzerinnen und Nutzer zusammen mit den von ihnen verwendeten Prompts entdecken.Website-Schnittstelle

Diese Optionen ermöglichen es dir, das Modell schnell zu testen, ohne dich um die Einrichtung oder die Hardware zu kümmern.

Wie du Wan 2.1 lokal einrichtest und ausführst

Wenn du die volle Kontrolle und Anpassungsmöglichkeiten haben möchtest, kannst du Wan 2.1 auf deinem eigenen Rechner installieren. Wir gehen Schritt für Schritt vor, wie du das machst:

Ersteinrichtung

Schritt 1: Klone das Repository

Lade zuerst den Wan 2.1 Code von GitHub herunter:

git clone https://github.com/Wan-Video/Wan2.1.git
cd Wan2.1

Schritt 2: Abhängigkeiten installieren

Vergewissere dich, dass du Python und PyTorch (Version 2.4.0 oder höher) installiert hast, und installiere dann die erforderlichen Bibliotheken:

pip install -r requirements.txt

Schritt 3: Download der Modellgewichte

Du musst die vortrainierten Modelldateien von Hugging Face herunterladen (weitere Informationen findest du hier) oder ModelScope (mehr Infos dazu hier).Es gibt verschiedene Modelle, die du herunterladen kannst:

Modelle

Download Link

Anmerkungen

T2V-14B

Huggingface

ModelScope

Unterstützt sowohl 480P als auch 720P

I2V-14B-720P

Huggingface

ModelScope

Unterstützt 720P

I2V-14B-480P

Huggingface

ModelScope

Unterstützt 480P

T2V-1.3B

Huggingface

ModelScope

Unterstützt 480P

Das 1.3B-Modell kann Videos in 720P-Auflösung erstellen, aber da es für diese Qualität weniger Übung hatte, können die Ergebnisse weniger stabil sein als bei 480P. Für die beste Leistung wird eine Auflösung von 480P empfohlen.

Laufende Text-zu-Video-Generierung mit Wan 2.1

Wan 2.1 ermöglicht es dir, Videos aus Textbeschreibungen zu erstellen, indem du zwei Modellversionen verwendest:

  • T2V-14B: Größer, leistungsstärker, unterstützt sowohl 480p als auch 720p Auflösung.
  • T2V-1.3B: kleiner, benötigt weniger Strom, unterstützt nur 480p.

Wenn du nur schnell ein Video erstellen willst, kannst du die folgenden Befehle verwenden, bei denen die Prompt-Erweiterung nicht aktiviert ist.

Für das T2V-14B-Modell (höherwertiges, größeres Modell):

python generate.py --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "A futuristic city with flying cars and neon lights."

Für das T2V-1.3B-Modell (kleiner, läuft auf leistungsschwächeren GPUs):

python generate.py --task t2v-1.3B --size 832*480 --ckpt_dir ./Wan2.1-T2V-1.3B --prompt "A futuristic city with flying cars and neon lights."

Wenn deinem Computer der Speicher ausgeht (OOM-Fehler), kannst du --offload_model True und --t5_cpu verwenden, um die Speichernutzung zu reduzieren.

Text-to-Video mit Multi-GPU ausführen (für schnellere Verarbeitung)

Wenn du mehrere Grafikprozessoren hast, kannst du die Videoerzeugung mit diesem Befehl beschleunigen:

torchrun --nproc_per_node=8 generate.py --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --dit_fsdp --t5_fsdp --ulysses_size 8 --prompt "A futuristic city with flying cars and neon lights.`

Dadurch kann die Arbeitslast auf mehrere GPUs aufgeteilt werden, was den Prozess beschleunigt.

Souffleusen verwenden (für detailliertere und realistischere Videos)

Wan 2.1 kann deinen Prompt automatisch verbessern, sodass du das Video detaillierter und visuell ansprechender gestalten kannst.

Es gibt zwei Möglichkeiten, die Aufforderung zu erweitern:

  • Dashscope API verwenden (erfordert einen API-Schlüssel).
  • Ein lokales Modell verwenden (läuft auf deinem Rechner ohne Internet).

Um Dashscope API zu verwenden:

DASH_API_KEY=your_key python generate.py --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "A futuristic city with flying cars and neon lights." --use_prompt_extend --prompt_extend_method 'dashscope'

Um dein eigenes lokales Modell zu verwenden:

python generate.py --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "A futuristic city with flying cars and neon lights." --use_prompt_extend --prompt_extend_method 'local_qwen'

Wan 2.1 mit Diffusoren betreiben

Wenn du die Diffusers-Bibliothek von Hugging Face verwenden möchtest, anstatt rohe Skripte auszuführen, kannst du ein Video mit Python erstellen:

import torch
from diffusers.utils import export_to_video
from diffusers import AutoencoderKLWan, WanPipeline
from diffusers.schedulers.scheduling_unipc_multistep import UniPCMultistepScheduler
# Available models: Wan-AI/Wan2.1-T2V-14B-Diffusers, Wan-AI/Wan2.1-T2V-1.3B-Diffusers
model_id = "Wan-AI/Wan2.1-T2V-14B-Diffusers"
# Load the autoencoder for video generation
vae = AutoencoderKLWan.from_pretrained(model_id, subfolder="vae", torch_dtype=torch.float32)
# Define the scheduler for controlling video motion flow
flow_shift = 5.0  # 5.0 for 720P, 3.0 for 480P
scheduler = UniPCMultistepScheduler(
    prediction_type='flow_prediction', 
    use_flow_sigmas=True, 
    num_train_timesteps=1000, 
    flow_shift=flow_shift
)
# Load the video generation pipeline with the model
pipe = WanPipeline.from_pretrained(model_id, vae=vae, torch_dtype=torch.bfloat16)
pipe.scheduler = scheduler
pipe.to("cuda")
# New prompt
prompt = "A futuristic city at sunset, filled with flying cars and neon lights. The buildings have a sleek, cyberpunk design, and people walk on glowing sidewalks. The scene is full of vibrant colors, reflections, and dynamic movement."
# New negative prompt
negative_prompt = "Dull colors, grainy texture, washed-out details, static frames, incorrect lighting, unnatural shadows, distorted faces, artifacts, low-resolution elements, flickering, blurry motion, repetitive patterns, unrealistic reflections, overly simplistic backgrounds, three legged people, walking backwards."
# Generate the video frames
output = pipe(
     prompt=prompt,
     negative_prompt=negative_prompt,
     height=720,
     width=1280,
     num_frames=81,
     guidance_scale=5.0,
).frames[0]
# Export the generated frames as a video
export_to_video(output, "output.mp4", fps=16)

Das Skript beginnt mit dem Laden des Modells Wan2.1-T2V-14B-Diffusers, das zum Erstellen von Videos verwendet wird. Außerdem wird ein VAE (Autoencoder) geladen, der bei der Verarbeitung und Verbesserung der Videobilder hilft. Um zu steuern, wie flüssig Bewegungen im Video erscheinen, verwendet das Skript einen Scheduler (UniPCMultistepScheduler). Die Einstellung flow_shift regelt, wie Bewegungen verarbeitet werden, wobei 5.0 besser für eine höhere Auflösung (720P) und 3.0 für eine niedrigere Auflösung (480P) ist.

Als Nächstes richtet das Skript die Videogenerierungspipeline (WanPipeline) ein und wendet den Scheduler an, um sanftere Übergänge zwischen den Bildern zu gewährleisten. Die Aufforderung beschreibt eine futuristische Stadt mit fliegenden Autos und leuchtenden Neonlichtern, während die negative Aufforderung hilft, unerwünschte Effekte wie verschwommene Details, verwaschene Farben und flackernde Rahmen zu entfernen.

Das Modell erstellt dann 81 Bilder, was etwa 5 Sekunden Video bei 16 Bildern pro Sekunde (FPS) ergibt. Die guidance_scale ist auf 5.0 eingestellt, was dem Modell hilft, der Aufforderung zu folgen, aber auch etwas Kreativität zulässt. Sobald das Video erstellt ist, werden die Bilder kombiniert und als "output.mp4" mit 16 FPS gespeichert.

Der negative Prompt spielt eine wichtige Rolle bei der Verbesserung des fertigen Videos, indem er dem Modell sagt, was es vermeiden soll. Sie hilft, Dinge wie schlechte Bildqualität, seltsame Verzerrungen oder alles, was das Video unrealistisch aussehen lassen könnte, zu beseitigen. In diesem Fall sorgt sie dafür, dass die futuristische Szene sauber, scharf und visuell ansprechend aussieht.

Wan 2.1 mit einer lokalen Gradio-Schnittstelle ausführen

Wenn du eine interaktive Weboberfläche zum Erstellen von Videos bevorzugst, anstatt Code zu verwenden, kannst du Wan 2.1 mit Gradio ausführen:

Für Dashscope Prompt Extension:

DASH_API_KEY=your_key python t2v_14B_singleGPU.py --prompt_extend_method 'dashscope' --ckpt_dir ./Wan2.1-T2V-14B

Für die lokale Prompt-Durchwahl:

python t2v_14B_singleGPU.py --prompt_extend_method 'local_qwen' --ckpt_dir ./Wan2.1-T2V-14B

Ähnlich wie bei Text-zu-Video wird auch Bild-zu-Video in Prozesse mit und ohne den Schritt der Prompt-Erweiterung unterteilt. Für weitere Details zur Implementierung kannst du die offizielle GitHub. Du kannst auch in ihren Discord-Kanal beitreten, um über Wan2.1 zu diskutieren, deine Kreationen mit anderen zu teilen, Neuigkeiten über neue Funktionen und Entwicklungen zu erfahren und die offiziellen Website um die erstellten Beispiele zu erkunden.

Wie funktioniert Wan 2.1?

Wan 2.1 nutzt fortschrittliche KI-Techniken, um hochwertige, realistische Videos zu erstellen. Sie folgt einem diffusionsbasierten Ansatz und integriert Transformatoren um sicherzustellen, dass die Bewegungen über alle Frames hinweg gleichmäßig, konsistent und detailliert sind.

Diffusionstransformator-Technologie

Wan 2.1 verwendet eine Technik namens Diffusionsmodelle, die in zwei Schritten funktionieren:

  1. Beginne mit Lärm: Das Modell beginnt mit einem völlig zufälligen, statischen Bild.
  2. Verfeinere sie nach und nach: In vielen Schritten entfernt das Modell Rauschen und formt das Video Bild für Bild, wobei es sich an der Eingabeaufforderung orientiert.

Es ist wie beim Entwickeln eines Fotos in der Dunkelkammer - das Bild ist anfangs unscharf und körnig, wird aber mit jedem Bearbeitungsschritt klarer.

Wan 2.1 verbessert diesen Ansatz durch den Einsatz eines Diffusionstransformators (DiT), der dazu beiträgt, scharfe Details und flüssige Bewegungen zu erhalten, während er mehrere Videobilder erzeugt.

wan 2.1 DIT-Diagramm

Quelle: GitHub (Wan-Video/Wan2.1)

Dieses Diagramm zeigt, wie Wan 2.1 Videobilder mit einem Diffusionsmodell erzeugt, das mit einem Diffusionstransformator (DiT) erweitert wurde. Der Prozess beginnt mit einer Eingabebeschreibung (z. B. "Ein Panda hält einen Karton hoch, auf dem 'Wan2.1' steht"). Dieser Text wird von UMT5 verarbeitet, einem Sprachmodell, das dem System hilft, die Aufforderung zu verstehen und zu verfeinern.

Gleichzeitig wird ein verrauschtes Ausgangsbild als Startpunkt eingeführt. Der Wan-Encoder verarbeitet dann diese Eingaben und kodiert sie in eine Form, die das Modell verarbeiten kann. N x DiT Blöcke verfeinern das Bild iterativ.

Das Diffusionsmodell entfernt nach und nach das Rauschen aus den Frames und nutzt die Cross-Attention, um die Ausgabe mit dem vorgegebenen Prompt abzugleichen. Der Zeitschritt (t) gibt die progressiven Schritte bei der Entrauschung an und stellt sicher, dass sich das Video im Laufe der Zeit gleichmäßig entwickelt.

Nach mehreren Verfeinerungsschritten rekonstruiert der Wan-Decoder die endgültigen Videobilder aus den verarbeiteten Daten. Die Ausgabe ist eine Reihe von Einzelbildern, die sich an der ursprünglichen Eingabebeschreibung orientieren und dabei scharfe Details, flüssige Bewegungen und Konsistenz beibehalten.

Video Variational Autoencoder (VAE) für hochwertige Videos

Wan 2.1 enthält Wan-VAE, ein leistungsstarkes Komprimierungswerkzeug, das das Modell unterstützt:

  • Behalte die Konsistenz über alle Bilder hinweg bei damit Objekte und Menschen nicht zufällig ihre Form verändern.
  • Feine Details bewahrenselbst bei hohen Auflösungen wie 1080p.
  • Verarbeite längere Videos ohne dass vergangene Informationen verloren gehen.

Das ist so, wie wenn du Dateien für Videos zippst: Es komprimiert und speichert wichtige Details und rekonstruiert sie dann bei der Erstellung des Videos genau.

VAE-Diagramm wan 2.1

Quelle: GitHub (Wan-Video/Wan2.1)

Die Tabelle vergleicht verschiedene Videokompressionsmodelle anhand der Videoqualität (PSNR) und der Effizienz (wie schnell sie Bilder verarbeiten). Jede Blase steht für ein Modell, und ihre Größe zeigt an, wie groß das Modell ist. Die x-Achse misst, wie effizient ein Modell Videobilder verarbeitet. Eine höhere Zahl bedeutet, dass das Modell schneller arbeitet. Die y-Achse zeigt die Videoqualität an, wobei eine höhere Zahl für klarere, detailliertere Videos steht.

Wan-VAE, in orange dargestellt, schneidet besser ab als andere Modelle, indem es hohe Videoqualität mit schneller Verarbeitung verbindet und dabei relativ klein bleibt (127M Parameter). Andere Modelle, wie Step Video und Mochi, sind viel größer, verarbeiten aber die Bilder nicht so effizient. Das bedeutet, dass Wan-VAE lange Videos in hoher Qualität erstellen kann, ohne dass die Details scharf und die Bewegungen ruckelfrei bleiben, ohne dabei langsamer zu werden.

Anwendungsfälle von Wan 2.1

Wan 2.1 ist ein vielseitiges Modell zur Erzeugung von KI-Videos, das in vielen Branchen eingesetzt werden kann. In diesem Abschnitt werde ich einige Beispiele für verschiedene Anwendungsfälle ausprobieren.

Erstellung von Inhalten & soziale Medien

Wan 2.1 kann dir helfen, einzigartige Videoinhalte zu erstellen, ohne teure Ausrüstung oder lange Bearbeitungszeiten. Stellen wir uns also vor, dass ich ein Lifestyle-Influencer bin und einen Inhalt über einen gemütlichen Tag in meinem Leben erstellen möchte. Ichwerde die folgende Aufforderung verwenden, um einen Clip für mein Video zu erstellen:

Eine Zeitraffer-Animation eines gemütlichen Cafés von morgens bis abends, die zeigt, wie Leute kommen und gehen, wie der Kaffee gebrüht wird und wie sich der Sonnenuntergang in den Fenstern spiegelt.

Weil ich es so realistisch wie möglich machen wollte, habe ich auch den Inspirationsmodus benutzt. Das ist das Ergebnis, das ich erhalten habe:

Als das Video erstellt wurde, war ich auf den ersten Blick sehr beeindruckt. Aber als ich genauer hinsah, wurden mir ein paar Dinge klar. Zuerst verschwindet jemand im Hintergrund. Außerdem ist dies kein Zeitraffer, und es wird kein Kaffee gebrüht. Obwohl das Video also ziemlich realistisch aussieht, gibt es die Aufforderung nicht genau wieder.

Spiele, virtuelle Welten und Animation

Nun stell dir vor, du bist ein Spieleentwickler. Du kannst Wan 2.1 verwenden, um realistische Zwischensequenzen, Hintergrundanimationen oder Konzeptzeichnungen für deine Projekte zu erstellen. Wenn du zum Beispiel bereits ein Charakterkonzept hast und das Kreativteam einige Entwürfe zur Verfügung gestellt hat, kannst du sie mit der Bild-zu-Video-Funktion von Wan zum Leben erwecken.

Mit Wan 2.1 kannst du nicht nur Charaktere animieren, sondern auch dynamische Umgebungen erstellen, wie z. B. wechselnde Wettereffekte, belebte Städte oder mystische Landschaften, ohne dass du jedes Bild manuell animieren musst.

Mit der Steuerung des Seitenverhältnisses kannst du außerdem sicherstellen, dass deine Animationen perfekt in verschiedene Spielszenen passen, z. B. in Widescreen-Kinofilme (16:9), mobilfreundliche vertikale Aufnahmen (9:16) oder quadratische Kompositionen (1:1) für Social-Media-Teaser.

Mit den Soundeffekten kannst du sogar Hintergrundgeräusche erzeugen, wie das Rascheln von Blättern, das Summen einer futuristischen Stadt oder Kampfgeräusche.

Lass uns etwas ausprobieren!Ich habe diesen Entwurf eines mittelalterlichen Ritters mit DALL-E erstellt:

Entwurf eines mittelalterlichen Ritters mit dall-e erstellt

Mit Wan habe ich die folgende Eingabeaufforderung mit GPT-4o-mini eingegeben:

Ein mittelalterlicher Ritter steht in heldenhafter Haltung und hält mit beiden Händen ein großes Schwert in der Hand. Sein Umhang weht im Wind, während er das Schlachtfeld überblickt. Der Ritter dreht langsam seinen Kopf und scannt den Horizont mit entschlossenem Blick. Die Animation hat einen filmischen Stil.Aber dann habe ich auf "Erweiterte Eingabeaufforderung" geklickt und das ist, was ich bekommen habe:

Cinematic Medieval Knight: Ein tapferer Ritter in voller Rüstung steht entschlossen da und hält mit beiden Händen ein mächtiges Breitschwert in der Hand. Sein Visierhelm und seine Schulterpanzer glänzen in der Sonne, während ein edles Wappen seinen Brustpanzer ziert. Eine Schärpe umschließt seine Taille und sichert sein Ensemble. Sein karmesinroter Mantel weht dramatisch im Wind, was seine imposante Präsenz noch verstärkt. Mit stählernem Blick schwenkt er den Kopf und überblickt das weite, sandige Schlachtfeld. Die Szene entfaltet sich auf pergamentartigem, strukturiertem Papier, das an ein altes Manuskript erinnert. Dies ist eine großartige Ganzkörperaufnahme, die den Ritter in einer triumphalen Pose zeigt, die an das epische Mittelalterkino erinnert.

Ich habe den Inspirationsmodus ausgeschaltet, aber die Soundeffekte aktiviert. Hier ist das Ergebnis:

Nicht schlecht! Obwohl ich zugeben muss, dass ich eher eine filmische Version des Entwurfs erwartet habe als eine Animation des Entwurfs selbst. Aber vielleicht hätte ich in der Aufforderung deutlicher sein können. Die Musik ist interessant, und ich denke, sie passt gut zur Animation!

Werbung & Marketing 

Wenn du ein Vermarkter bist, kannst du Wan 2.1 nutzen, um Werbevideos für Marken, Produkte und Dienstleistungen zu erstellen oder sogar Logos zu animieren.

Stell dir vor, du hast ein Eiscremegeschäft und möchtest dein Logo animieren, um es am Ende deiner Werbung oder deiner Werbevideos einzubauen.Um diese Idee zu testen, habe ich dieses Bild noch einmal mit DALL-E erstellt:

Eisbär-Bild mit dall-e erzeugt

Dann habe ich diese Aufforderung benutzt: Der Eisbär frisst das Eis. Das ist das Ergebnis der Bild-zu-Video-Generierung:

Die ersten paar Bilder sind meiner Meinung nach etwas seltsam, aber man könnte sie abschneiden und die letzten paar Sekunden für Werbezwecke verwenden, z.B. am Ende einer Anzeige.

Bildung & Ausbildung 

KI-generierte Videos können komplexe Themen vereinfachen und den Unterricht interessanter machen. Wan kann dazu verwendet werden, historische Ereignisse, wissenschaftliche Konzepte oder technische Prozesse zu visualisieren.

Stell dir vor, du bist eine Lehrerin oder ein Lehrer und erklärst, wie das Sonnensystem funktioniert. Wan 2.1 kann eine KI-Simulation des Prozesses erstellen.

Lass es uns ausprobieren!

Verwende die folgende Eingabeaufforderung:

Sonnensystem mit den Planeten, die sich um die Sonne drehen. Das Video sollte die Umlaufbahnen der einzelnen Planeten um ihre Achse zeigen. Die Sonne sollte sichtbare Sonneneruptionen haben.

Ich erhalte dieses Ergebnis:

Okay, das ist nicht gut! In diesem Video über das Sonnensystem sind viele Dinge falsch - es sollte definitiv nicht für Bildungszwecke verwendet werden!

Erstens befindet sich die Sonne nicht im Zentrum des Sonnensystems. Die Bahnen werden als dicke, ringförmige Strukturen dargestellt, die reale Planetenbahnen nicht genau wiedergeben. Die Planeten drehen sich nicht um die Sonne, und die Umlaufbahnen selbst sind falsch. Auch die Größenangaben sind falsch...

Ich könnte endlos weiterschreiben, was alles falsch ist! Wenigstens haben sie die Sonneneruptionen richtig hinbekommen, denke ich!

Fazit

Wan 2.1 ist ein zugängliches Open-Source-KI-Tool, das die Erstellung von Videos vereinfacht. Mit seiner Fähigkeit, mehrere Aufgaben zu bewältigen, einschließlich der Generierung von Text zu Video und Bild zu Video, eröffnet es neue Möglichkeiten für die Erstellung von Inhalten in den Bereichen soziale Medien, Werbung, Unterhaltung, Bildung und darüber hinaus.

In diesem Tutorial haben wir verschiedene Anwendungsfälle untersucht und einige der Grenzen des Modells aufgedeckt, um dir ein tieferes Verständnis für seine Möglichkeiten zu vermitteln.

Wenn du mehr über die Erstellung von KI-Videos erfahren möchtest, empfehle ich dir diese Blogs:


Dr Ana Rojo-Echeburúa's photo
Author
Dr Ana Rojo-Echeburúa
LinkedIn
Twitter

Ana Rojo Echeburúa ist KI- und Datenspezialistin und hat einen Doktortitel in angewandter Mathematik. Sie liebt es, Daten in verwertbare Erkenntnisse umzuwandeln und hat umfangreiche Erfahrung in der Leitung technischer Teams. Ana arbeitet gerne eng mit ihren Kunden zusammen, um deren Geschäftsprobleme zu lösen und innovative KI-Lösungen zu entwickeln. Sie ist für ihre Problemlösungsfähigkeiten und ihre klare Kommunikation bekannt und hat eine Leidenschaft für KI, insbesondere für generative KI. Ana widmet sich dem kontinuierlichen Lernen und der ethischen KI-Entwicklung sowie der Vereinfachung komplexer Probleme und der Erklärung von Technologien auf verständliche Weise.

Themen

Lerne KI mit diesen Kursen!

Kurs

Retrieval Augmented Generation (RAG) with LangChain

3 hr
4.5K
Learn cutting-edge methods for integrating external data with LLMs using Retrieval Augmented Generation (RAG) with LangChain.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

15 Min.

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Mehr anzeigenMehr anzeigen