Zwei Musikvideo-Experimente rund um Bottrop: KI-gestützte Komposition, Gesangssynthese und generative Visuals – kombiniert mit eigenen Drohnenaufnahmen. Ziel war ein schneller, moderner Look mit lokalem Bezug, ohne dokumentarischen Anspruch.
Die Projekte
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenZiel & Idee
Im Mittelpunkt stand die Frage: Was lässt sich heute in kurzer Zeit realisieren? Texte und Lyrics wurden iterativ mit KI verfeinert, Musik und Vocals über Suno generiert und anschließend manuell kuratiert. Visuell treffen abstrakte, generative Elemente auf reale Luftbilder aus der Region – nicht als Doku, sondern als kompaktes Stil-Experiment.
Workflow in fünf Schritten
2. Musik & Vocals (KI) – Prompt-basierte Komposition und Stimmcharakter in Suno; danach manuelles Timing-Finetuning (Phrasen, Pausen, Transienten).
3. Visuelles Konzept – Abstrakte Neural-Lines, Partikel, sphärische Formen, ergänzt durch eigene Drohnenaufnahmen als realer Anker (Lichtstimmung, Parallaxe, Linienführung).
4. Schnitt & Post – Struktur: Intro – Aufbau – Höhepunkt – Outro. Schnitte entlang musikalischer Marker (Kick/Snare), dezente Übergänge, kontrollierte Farbwerte.
5. Finalisierung – Leichte Grain/Bloom-Kontrolle, Export und Upload; kurze Beschreibungstexte mit Kerninfos.
Warum eigene Drohnenaufnahmen?
Ganz praktisch: Speicher, Rechenzeit und Kosten. Für zusätzliche generative Sequenzen waren weder Platz noch Budget sinnvoll skalierbar; KI-Credits summieren sich schnell. Eigene Drohnenclips liefern sofort verwertbares Material mit echter Lichtstimmung und organischer Bewegung – und reduzieren Render-/Generierungslasten deutlich. Außerdem beschleunigen sie die Bildsuche, weil Motive und Achsen bereits passen.
Lernpunkte
• Tempo/Umfang: Ein Video ließ sich in ca. 1,5 Tagen realisieren (nicht durchgehend), vom ersten Prompt bis zum Upload.
• Machbarkeit heute: Musik + Vocals per KI liefern einen klaren rhythmischen Kern, der den Schnitt effizient führt.
• Kombination zahlt sich aus: Generative Motive geben Flexibilität und Stil, eigene Luftbilder sorgen für Tiefe und Wiedererkennbarkeit.
• Reduktion statt Effektfeuerwerk: Wenige, konsequent geführte Motive wirken stimmiger als eine Effekt-Sammlung.
Tools (Auszug)
• Musik/Vocals: Suno (Prompt-basierte Komposition & Gesangssynthese)
• Bild/Bewegung: generative Visuals (u. a. king.ai); einzelne Sequenzen über Video-Generatoren
• Schnitt: Adobe Premiere Pro (Rhythmus-Schnitt, Farbkorrektur)
Persönliches Fazit
Ich experimentiere seit Jahren mit KI – und was heute möglich ist, haut mich immer noch um. Mit etwas Einarbeitung, klarer Idee und einem pragmatischen Setup lassen sich in kurzer Zeit stimmige, lokal verankerte Musikvideos bauen. Für mich war das vor allem ein Machbarkeits-Test: sehen, wie weit man an einem Tag bis knapp zwei kommt – und was davon wirklich trägt.


