Know-how mit Zukunft: KI-Filmprojekt am GaW

Der Prompt für dieses Bild von Teilnehmer Simon, Q1: „Ein Schwamm und ein Seestern unter Wasser, blauer Hintergrund, sandiger Untergrund, realistisches Aussehen in einer leeren Szenerie“

Ende Januar fand das KI-Filmprojekt von STRATOflights an unserer Schule statt. Hier berichtet Jonas aus der Q1 für alle Interessierten und Neugierigen von dem spannenden Einblick in die verschiedenen filmbezogenen Tätigkeitsfelder von Kamera über Regie, Produktion, Medientechnik,Ton- und Bildtechnik sowie Mediengestaltung:

Am ersten Tag des Projekts erschienen neben Herrn Nolting und mir rund 13 weitere neugierige Schülerinnen und Schüler vor Raum 206. Neben drei Zehntklässlern stammten alle aus der Q1. Beaufsichtigend und unterstützend waren abwechselnd Herr Nolting, Herr Kurzwig und Frau Sparenberg dabei.

Zuallererst wurden uns Laura Schwarzmeier (Szenenbildnerin) und Daniel Ernst (Kameramann) vorgestellt. Als Projektleitung waren sie digital über den Beamer zugeschaltet. Nachdem sie sich selbst und das Projekt vorgestellt hatten, fragten sie uns nach unserem bisherigen Wissen über KI, insbesondere welche Modelle wir schon nutzen und wie wir sie in unseren Alltag integrieren. In diesem Zusammenhang sprachen sie auch über die Kennzeichnung von KI, wie z. B. bei generierten Texten und Bildern, aber auch und vor allem in Verbindung mit Deepfakes bzw. realistischen Bildern und Videos.

Nachdem die beiden uns kurz die eigentliche Funktionsweise von künstlicher Intelligenz als das Treffen wahrscheinlichkeitsbasierter Entscheidungen erklärt hatten, stellten sie uns die für das Projekt benötigten KI-Tools (DeepAI, CapCut, ChatGPT und runway) vor, und wir kamen zum eigentlichen Ziel des Projekts: dem Erstellen von Kurzfilmen.

Laura und Daniel zeigten uns dafür zuerst einen Beispielkurzfilm, welcher zu 100 Prozent durch Prompts über KI erstellt wurde, außerdem auch Werbevideos von bekannten Unternehmen wie Coca Cola sowie ein Quiz, in welchem wir zwischen echten und KI-generierten Bildern unterscheiden mussten, um uns für Auffälligkeiten zu sensibilisieren.

Danach durften wir selbst Prompts erstellen und begannen damit, erstmal testweise Bilder mit DeepAI zu generieren. Die Ergebnisse waren überraschend bis lustig, denn beim gemeinsamen Betrachten der ersten von uns erstellten Bilder stellten wir fest, dass unerwarteterweise etwa politisch leicht kontroverse Figuren auftauchten. Darauffolgend wurden uns nach und nach immer mehr Regeln und Begriffe für die Bilderstellung gezeigt. Es begann mit Regeln für den Bildaufbau, wie „rule of thirds“ und „symmetry“ und ging dann weiter mit Regeln für Perspektive, Licht, Farbe und letztlich für Atmosphäre und Stile. Anfangs fiel es vielen von uns schwer, die Prompts so zu formulieren, dass die KI-generierten Bilder wie gewünscht aussahen, jedoch zeigte sich im Laufe der Zeit, dass die Bilder immer präziser wurden, je mehr Regeln wir der KI vorgaben.

Wir bildeten kleine Gruppen und unsere Hausaufgabe für den nächsten Tag bestand darin, uns eine kurze Geschichte zu überlegen und dazu ein skizziertes Storyboard mit fünf bis zehn Bildern zu beginnen, in welchem wir diese, visuell, inklusive Notation der Prompts, darstellten.

Der folgende Tag war für die Q1ler, mich eingeschlossen, aufgrund von einer Crashkurs- Veranstaltung relativ kurz. Jedoch gelang es manchen von uns, das Storyboard fertigzustellen und mit den Profis zu besprechen.

Über das Wochenende sowie am letzten Tag des Workshops generierten wir unsere Storyboard-Bilder mit KI. Dafür mussten wir sowohl die Hauptfiguren unserer Geschichten als auch die Umgebungen als sogenannte Referenzpunkte gestalten. Die fertig generierten Referenzen konnten wir dann in die KI „runway” einsetzen und, mithilfe unseres neuerlangten Wissens über Prompts, in KI-generierte Videoabschnitte verwandeln. Der Erfolg war auch hier anfangs durchwachsen, denn die Videos stellten sich, lustigerweise, als deutlich fehleranfälliger als die Bilder heraus. So hatte beispielsweise unsere Hauptfigur zeitweise zwei Hände pro Arm und drehte den Startknopf ihrer Mondrakete, anstatt ihn zu drücken.

Nach vielen Generierungsversuchen und viel Zeit hatten dann die meisten ihre Videoabschnitte parat und konnten im letzten Schritt die Videos in CapCut zusammenschneiden, bearbeiten und mit Ton versehen.

Das gemeinsame Betrachten der Videos war für alle spannend und teilweise sehr lustig. Die Geschichten reichten dabei von Dagobert Duck, der Einbrecher verfolgt, bis hin zu Einbrüchen in Fußballstadien und selbstgebauten Mondraketen. Das Feedback von Laura und Daniel war dazu insgesamt sehr positiv, und auch unsere Rückmeldungen an ihre Arbeit und das Projekt fielen überwiegend positiv aus.

Zusammenfassend konnten wir bei dem KI-Filmprojekt sehr viel zur KI-basierten Erstellung von Bildern und Videos lernen. Hilfreich kann dieses Wissen in vielen allgemeinen Bereichen sein, vor allem aber in Verbindung mit Schule und Unterricht. Es setzen bereits mehrere Lehrerinnen und Lehrer auf Darstellung durch KI. In solchen Situationen bietet dieses Wissen enorme Vorteile. KI hat damit viel Potenzial und das Filmprojekt hat es uns auf eine spielerische Weise ermöglicht, dieses Potenzial besser nutzen und kennenzulernen.

 

 

Jonas 'Ofahelotu Heinemann, Jg. Q1 (Text) und Araya Isabel Betsch, Jg. 10 (Foto)