Anleitung: Deepfake-Videoclips für Schulungen erstellen
Diese Anleitung zeigt, wie man kurze echte und gefälschte Videoclips für Schulungen in Schutzunterkünften oder Workshops erstellt. Nur für Bildungszwecke – nicht für Social-Media-Pranks, politische Manipulation oder um Nachbarn zu provozieren.
Möglich auf:
- Windows mit kostenlosen Tools oder Browser-Diensten
- Linux über Kommandozeile oder GUI
- Sowohl Online- als auch Offline-Workflows je nach Bedrohungsmodell und verfügbarer Zeit
Grundprinzipien
- Clips unter 30 Sekunden halten
- Neutrale, nicht-triggernde Inhalte verwenden (z.B. “Hallo, ich bin X. Willkommen im Shelter.”)
- Teilnehmern immer offenlegen, was gefälscht ist und wie es erstellt wurde
- Niemals echte Identitäten von Betroffenen, Mitarbeitern oder Klienten in Fake-Videos nutzen
- Verantwortungsvoll speichern und löschen
Echte Videoaufnahmen
Sie benötigen:
- Ein Smartphone oder Webcam (sogar 720p reicht)
- Einen ruhigen Ort mit guter Beleuchtung
- Jemanden, der ein kurzes Skript spricht
- Kein Schnitt nötig, außer Sie wollen den Clip kürzen
Empfohlene kostenlose Schnitttools:
- Windows: Integrierte Fotos-App → Bearbeiten → Kürzen
- Linux:
Shotcut
oderKdenlive
verwenden
ffmpeg -i input.mp4 -ss 00:00:01 -to 00:00:29 -c copy trimmed.mp4
Deepfake-Versionen erstellen
Windows: Online-Tools verwenden
Am einfachsten für die meisten Nutzer, nur geeignet wenn Cloud-Uploads kein Problem darstellen.
Option 1: DeepBrain AI Studios
- Gehe zu DeepBrain AI Studios
- Erstelle ein kostenloses Konto (begrenzte Nutzung)
- Lade ein Skript hoch und wähle ein Gesicht aus (oder erstelle einen Klon)
- Generiere einen Clip – normalerweise unter einer Minute
- Lade das Video herunter (MP4)
Option 2: HeyGen
- Gehe zu HeyGen
- Wähle einen Presenter aus oder lade dein eigenes Foto hoch
- Füge ein Textskript hinzu
- Unterstützt mehrere Sprachen und Akzente
- Kostenlose Testversion mit Wasserzeichen
Option 3: Synthesia.io
- Gehe zu Synthesia.io
- Hochwertige Avatare, sehr benutzerfreundlich
- Erfordert ein Konto
- Kostenlose Testversion umfasst einige Videos
Alle Online-Plattformen speichern deine Clips. Verwende nur generische Inhalte und erwäge die Verwendung von Wegwerf-E-Mails.
Windows: Kostenlose Offline-Tools
Option 1: Avatarify (Open-Source, Echtzeit-Deepfake)
- Installiere Avatarify
pip install avatarify
- Verwende es mit einer Webcam + Skriptvorleser
- Überlagere ein Promi- oder Stock-Gesicht in Echtzeit
Option 2: DeepFaceLab
- Lade es von GitHub herunter
- Erfordert eine starke GPU und Geduld
- Am besten für Realismus geeignet, aber Einrichtung ist fortgeschritten
Linux: Kostenlose Tools verwenden
Option 1: First-order Motion Model (FOMM)
git clone https://github.com/AliaksandrSiarohin/first-order-model
cd first-order-model
pip install -r requirements.txt
Füttere es mit:
- Einem Standbild (Gesicht)
- Einem Referenzvideo (du oder ein Schauspieler, der das Skript liest)
- Erzeugt animierte Videos
Option 2: DeepFaceLive (Linux-native Build)
Es gibt tatsächlich eine Linux-native Version, allerdings ist sie weit weniger dokumentiert und erfordert mehr Aufwand bei den Abhängigkeiten
wie dlib
, onnxruntime
und spezifischen Versionen von ffmpeg
. Aber sie funktioniert:
Projekt klonen:
git clone https://github.com/iperov/DeepFaceLive.git
Folgen Sie den Linux-Installationsanweisungen (nicht so ausgereift, aber funktional):
- Abhängigkeiten installieren wie Python 3.8–3.10,
onnxruntime
,torch
,opencv
unddlib
. - Nutzen Sie virtualenv, um die Umgebung sauber zu halten.
- Seien Sie auf etwas Fehlersuche vorbereitet - besonders bei CUDA, wenn Sie GPU-Beschleunigung wollen. Es ist recht systemintensiv.
- Abhängigkeiten installieren wie Python 3.8–3.10,
- Gut geeignet für Video-Output mit Sprach- und Gesichtsüberlagerung.
- Weniger flüssig in Echtzeit als unter Windows, aber mit etwas Geduld nutzbar.
Vorbereitung
- 3 bis 4 echte Clips mit einfachen Einführungen
- 3 bis 4 gefälschte Clips, generiert aus denselben oder ähnlichen Skripten
- Optional: Ein gemischter Clip, bei dem nur Teile verändert sind (z.B. Stimme vs. Gesicht)
Verwende konsistente Beleuchtung und Ton, damit die Unterschiede subtil sind.
Privatsphäre und Ethik
Do:
- Hol informierte Zustimmung von echten Sprechern ein
- Verwende erfundene Namen und harmlose Skripte
- Erkläre, wie und warum der Fake erstellt wurde
Don’t:
- Videos von echten Betroffenen, Kindern oder sensiblen Geschichten verwenden
- Deepfake-Generatoren nutzen, ohne deren Nutzungsbedingungen zu prüfen
- Vergessen, zwischengespeicherte oder übriggebliebene Trainingsdaten zu löschen