Interview mit Stephan Zipperlen: KI demokratisiert die Produktion von Videos

Stephan Zipperlen ist Manager Audiovisual Communications & Formats bei Covestro und seit 2022 aktives Mitglied der AG CommTech im Themencluster Technologie. Christof Schmid hat mit ihm über die aktuellen Tools und Trends rund um KI im Videobereich gesprochen.

Christof Schmid: AI ist vor allem durch ChatGPT seit Anfang des Jahres in aller Munde. Wie sieht es aus Deiner Sicht bei Videos aus? Gibt es dort eine ähnliche Trend-Dynamik?

Stephan Zipperlen: Das Tempo und die Vielfalt der Möglichkeiten scheinen auch beim Thema Video in diesem Jahr zu explodieren – aber KI hat schon seit Jahren einen starken Einfluss auf Abläufe und Entwicklungen in der Arbeit mit Videos – von “automatischer” Transkription, Übersetzungen, die auch in Fremdsprachen die Timecode-Bindung beibehalten, bis hin zum Auto-Tagging von den Metadaten zu Videos. Man konnte das zum Beispiel bei der Qualität von Übersetzungstools basierend auf machine learning gut beobachten – durch die Modelle wie GPT fühlt es sich manchmal an, dass diese Aspekte und Möglichkeiten beinahe vergessen werden, wenn man von KI spricht. Im Grunde sind Videos ja nur ca. 25 Bilder pro Sekunde, die Entwicklungen und Möglichkeiten, die wir bei Bildern beobachten, wird daher früher oder später auch hier ankommen.

Christof Schmid: Welchen Mehrwert bringen die neuen KI-Tools im Videobereich?

Stephan Zipperlen: Sie bauen Barrieren ab – sowohl beim Erstellen: darin, wer Videos produzieren und bearbeiten kann, als auch beim Anschauen. So wird es zum Beispiel immer schneller und leichter, Videos zu transkribieren und zu übersetzen mit Tools wie SimonSays. Das ist überall da wichtig, wo Videos so viele Menschen wie möglich erreichen sollen – in unterschiedlichen Ländern, der internen Kommunikation, manche Social-Media-Plattformen, oder Büro-Umgebungen, wo Videobotschaften eher ohne Ton geschaut werden. Es gibt einige AI-gestützte Lösungen und Plattformen, die nicht nur Automatisierung, sondern auch Kollaboration ermöglichen. Gleichzeitig wird es immer einfacher Videos zu produzieren – die Produktion wird sozusagen demokratisiert. Viele der KI-gestützten Tools könnte man als No-Pro bezeichnen – man muss also kein Profi im Video drehen oder schneiden sein, um gute Ergebnisse zu erzielen, die den Erwartungen des Corporate Designs oder der angepeilten Kanäle entsprechen. Dieser Trend wird auch durch Apps wie cofenster, die keine AI-Funktionen mit sich bringen stark beschleunigt und durch AI mit Möglichkeiten für Storyboards oder Übersetzungen unterstützt. So wird es immer einfacher, zentrale Vorgaben oder koordinierte Storyboards mit einem Smartphone umzusetzen und Videos im Corporate Design zu produzieren.

Christof Schmid: Viele Tools helfen anscheinend, eher Bestehendes besser und schneller zu machen. Was ist neu, wenn es um AI für Videos geht?

Stephan Zipperlen: Absolut – das ist eine spannende Frage, und etwas schwierig – denn seit mit Farbe auf Glasplatten und negativen Videos “bearbeitet” wurde, hat jedes neue Werkzeug die Videobearbeitung schneller und besser gemacht. Was durch KI wirklich beeindruckend ist, ist der Sprung durch die Medien. Wenn ich heute mit Editing-Tools wie Descript im Transkript eines Videos den Text bearbeite und die Videobotschaft direkt passend dazu geschnitten wird, ist das ein wirklich praktisches Werkzeug. Dass ich nun aber auch Texte bearbeiten kann, einen Versprecher oder eine falsche Zahl zum Beispiel, und mit Hilfe einer angelernten, KI-generierten Stimme der Person im Video auch die Tonspur korrigiert wird, damit betreten wir wirklich neues Territorium. Das braucht nicht mehr enorm viel Aufwand zum Anlernen wie die ersten Deep Fakes, sondern wird alltagstauglich. Von der Erstellung und Steuerung von Avataren über synthetische Stimmen bis hin zu Virtual Influencers wächst die Vielfalt an Themen, die durch AI in Videos entstehen und sich rasend schnell weiterentwickeln. Lösungen wie runway ermöglichen Bearbeitung in Videos, die bisher gefühlt Bildern vorbehalten waren – so kann KI-unterstützt nun Beispiel eine ruckelfreie Zeitlupe aus beliebigem Videomaterial entstehen, der Bildausschnitt in Videos kann nachträglich erweitert werden, die Grafik des gesamten Videos kann in verschiedene Kunststile verwandelt werden, einzelne Elemente wie Personen können zu Marmor- oder Bronze-Statuen werden, wie man es von Midjourney kennt. Für eine AI wirkt es spielend leicht, die 25 Bilder pro Sekunde zusammenhängend nachzubearbeiten.

Christof Schmid: Wenn ich jetzt einen schnellen Einstieg in AI und Video möchte – welche Tools sollte ich dann unbedingt ausprobieren?

Stephan Zipperlen: Auf jeden Fall genau das: Einfach ausprobieren. Denn die vielen neuen Möglichkeiten erkennt man erst, wenn man sich an die ganzen neuen Werkzeuge traut.

Ohne Werbung für einzelne Plattformen machen zu wollen, teile ich eine kleine Liste mit Beispielen für verschiedene Lösungen und Plattformen, um AI für Videos auszuprobieren: Simonsays.ai, Descript.com, Synthesia.io, sketch.metademolab.com, runway.ml. Wer tiefer eintauchen will, findet bei Futuretools oder Futurepedia einen großen Überblick.

Um zu erleben, wie sich das Bearbeiten von Videos mit KI-Unterstützung wandelt und sich für Nicht-Profis öffnet, ist ein Blick auf Editing Tools wie Descript spannend. Und der nächste Schritt, wenn es darum geht, Videos mit AI weiterzuentwickeln, sind generative Tools wie runway: ein aktuelles Beispiel, das Türen zur Postproduktion und Effekten öffnet, die bisher großen Budgets oder Experten vorbehalten waren und nun allen zur Verfügung stehen.

Christof Schmid: AI bedeutet für viele zur Zeit vor allem ChatGPT. Wie kann ich als Kommunikator:in die Text KI nutzen, um bessere Videos zu kreieren? Hast Du den einen oder anderen Prompt-Tipp?

Stephan Zipperlen: Es ist faszinierend zu sehen, was ChatGPT in so kurzer Zeit leisten kann – und auch wenn man nicht vergessen darf, dass die Inhalte alle überprüft und angepasst werden müssen, lassen sich manche Dinge hervorragend zuarbeiten. Ich werde zum Beispiel nie müde, die Bedeutung von Videoskripten zu betonen, die für “gesprochenes Wort” optimiert sind. ChatGPT liefert hier hervorragende Tipps und Optimierungen.

Ein guter Startpunkt wäre zum Beispiel:

>> How to optimize a video script for spoken language.

Eine weitere Stärke von ChatGPT sind Zusammenfassen und Kondensieren. Es kann also gut dabei helfen, einen “Ankersatz” für den Anfang des Videos zu kreieren, der die Aufmerksamkeit der Zuschauer festhält – indem er Neugier erzeugt, polarisiert, oder Spannung aufbaut. Allerdings ist es hier wichtig zu beachten, dass alle Texte, die in ChatGPT eingegeben werden, potentiell öffentlich zugänglich werden. Daher müssen Datenschutz und Datensicherheit unbedingt berücksichtigt werden.

Eine Möglichkeit für diese Anforderung wäre unter anderem:

>> Create a polarizing/suspenseful first sentence as an introduction to a video with the following script to catch the attention/curiosity of the audience: “…”

Oder auch etwa:

>> Act as [famous video performance artist]. Describe a video idea for a short clip about [enter topic], follower by a script

Christof Schmid: Das Themencluster Technologie der AG Commtech arbeitet an Antworten für die eigenen Fragen von PR-Praktiker:innen. Wo liegt für Dich der Mehrwert an Deiner aktiven Teilnahme im Themencluster?

Stephan Zipperlen: Alleine schon durch den Austausch ist es wirklich bereichernd – einfach aus dem eigenen Arbeitsalltag, aus dem eigenen Unternehmen herausschauen und sich mit Anderen über die neuen Tools und Möglichkeiten zu unterhalten. Und dann natürlich der Gedanke, diese Welt so vielen wie möglich zu öffnen, die bisher keine eigenen Berührungspunkte mit AI hatten. Im Cluster legen wir den Fokus auf genau das: Wie kann man in die Nutzung von AI-Tools einsteigen, Empfehlungen, eigene Erfahrungen, aber auch Barrieren oder gar Berührungsängste abbauen.



Schreibe einen Kommentar