Die AI Innovationen in Sachen Film und Video scheinen nun immer zu forcieren. Nach der rein technischen Machbarkeit der Generierung von audiovisuellen Inhalten, geht es nun vermehrt darum dies auch zugänglich zu machen, wie grad erst gestern im Artikel AI / KI Film und Video Apps. Nun logge ich mich heute bei meinem angestammten AI Video Generator Service Vidu ein und habe die nächste Neuerung vor Augen. Eigentlich eher eine Erweiterung, daher auch der Titel dieses Artikels, AI Video Erfahrungen.
Die Neuerung bei Vidu ist die Möglichkeit bis zu 10 Bilder über Image to Video in ein Video eingehen zu lassen (vormals waren es nach meinem Wissen immer nur zwei, ein Start- und ein Endframe). Und anstatt einer Beschreibung gibt es nun jeweils eine Beschreibung zwischen den aneinandergereihten Bildern. Dies galt es gleich auszuprobieren, bei knapper Zeit, weshalb typische und neue Fehler im dem Video zu sehen sind. Das muss an dieser Stelle betont werden: wenn nicht anders erwähnt, dann wurden die Videos immer nur mit einem oder wenigen Versuchen erstellt. Möglicherweise oder besser sicher, können hier aufgezeigt Fehler bei entsprechender Übung ggf. vermieden werden. Nichtsdestotrotz scheinen diese erstmal typisch.
Typische Fehler, die auch schon an anderer Stelle aufgefallen sind, sind unnatürliche Abläufe in den generierten Videos. Diese ergeben sich, wenn die AI die Szene nicht ergründen oder diese nicht logisch scheint. Beispiele in meiner Serie, die auf Straßenfotografie beruht, sind nicht nachvollziehbare Straßenverläufe oder die Aufforderung bei roter Ampel zu warten und die Ampel auf grün zu schalten und dann die Fahrzeuge anfahren zu lassen. Offenbar und wenngleich vermutlich einfach, kann die AI nicht den logischen Schritt vollziehen erst die Ampel grün leuchten zu lassen und dann erst die Autos fahren zu lassen, jedenfalls nicht bei meinen, mehreren Versuchen.
Dazu ein paar Beispielvideos und schließlich das neue aus 7 Fotos generierte Bild. Bei letzterem gab es eine Aufforderung das Auto (eigentlich das eingangs anfahrende, welches scheinbar verloren geht) aus neuer Perspektive zu zeigen, was dann zu einer Fahrt in den Gegenverkehr führt. Gut zu sehen ist auch die fehlende Logik bzw. die falsche Erkenntnis der Fahrbahn aufgrund der Perspektive des Fotos, welche den Bürgersteig im Mittelpunkt zeigt. So oder so, eine rasante Fahrt :))
Das Startbild zeigt das ursprüngliche Foto. Die Aufforderung war es, die Ampel auf grün zu schalten und die Autos dann fahren zu lassen. Auch ist zu sehen, dass die Fahrbahnen nicht korrekt zugeordnet werden. Der Fehler mit der Ampel lässt sich einfach vermeiden, indem ein Foto mit einer grünen Ampel verwendet wird. Denn ganz klar, der AI Video Generator will Bewegung schaffen.
Richtig kurios geht es hier ab. Zu zeigen ist die Logik der Straßenführung, dabei erfolgte bei dieser Anordnung der Bilder (gegenüber dem nächsten Video) eine Kehrtwendung. Die Ursache ist für mich spekulativ, offenbar kann die AI am Ende der Straße keinen Durchlass zur anderen Straße erkennen oder die Bilder nicht logisch verknüpfen.
Für dieses Video wurden die Fotos gegenüber dem obigen Video in umgekehrter Reihenfolge angeordnet, was gleich zu einem guten Ergebnis führte.
Hier nun das aus 7 Fotos generierte Video: Es geht wirklich rasant los. Zur Aufforderung die Kameraperspektive zu wechseln, schlittert die Kamera in den Gegenverkehr, rettet sich über den Bürgersteig und trickst noch etwas rum. Letztlich sollte das Auto im Dunkeln entschwinden, hält aber scheinbar korrekt an der roten Ampel.
Der Bereich AI umfasst nun vier Rubriken, wobei der Bereich Generative Video wesentlich ergänzt wurde und die Rubriken Avatar Video und AI Video Apps neu hinzugekommen sind. Letztere umfasst typische Tools, wie sie bei Film z.B. für Untertitel oder Effekte etc. gebraucht werden. Einfach mal drüberschauen, es gibt auch Studioanwendungen fürs Live-Streaming.
Damit zu den WOW-Momenten und ich muss sagen, ich war teils ernsthaft überrascht. Klar ist, dass sich die Möglichkeit Clips zu generieren weiter entwickeln wird. Zu erwarten waren also Tools, die Funktionen zur reinen Erstellung von Clips um Funktionen für die Erstellung von Filmen wie das Editing erweitern. Zudem habe ich meinerseits die These aufgestellt, dass es in einigen Jahren eine Software oder vielleicht sogar ein Gerät geben wird, welches nach eigener Vorgabe Filme nach Wunsch erstellt. Das ich eine solche Funktion nun als erstes unter den Avatar Video Generatoren finde, hatte ich nicht erwartet. Nun muss ich das ganze relativieren und anmerken das ich Low Budget unterwegs bin und möglicherweise keine Einblick in Highend Services habe. Aber nachdem ich mich bei rund 20 Services angemeldet habe und der betreffende Service als beta markiert war, kann ich den Service wohl als State of the Art bezeichnen. Offenbar gehen einige Service eigene Wege und entwickeln spezielle Funktionen und wie so oft könnten Services fusionieren und dann plötzlich sehr komfortable Services entstehen, wie die postulierte Software oder Box. Schön auch der Gedanke, es könnten dann Communities entstehen, die eigene Charaktere entwickeln und handeln.
Aber zu den Services: Es sind besonders die Interfaces, die bei einigen der Generative Video Services aufgefallen sind. So fängt bei HechicerAI alles mit einem Button „Create Film“ an woraufhin eine Art Timeline erstellt werden kann. Hedra hat ebenfalls einen filmischen Ansatz, wobei der Start eines Projektes mit einem drehbuchartigen Ansatz beginnt. Nochmal anders werden Projekte mit der Dream Machine von Luma AI angegangen, wobei hier mit einem Konzept in Form eines Boards zu starten ist.
Last but not least das Highlight: HeyGen. Da bin ich gespannt, in welche Richtung das geht. Gestartet ist HeyGen als Generative Avatar Video Service für den typischen Einsatz vom Promotion Videos, Product Placement oder auch für Erklärvideos. HeyGen war auch einer der ersten Services, die ich selbst genutzt hatte als ich vor ca. 2 Jahren das erste Mal die Möglichkeiten von AI für Film recherchiert habe. Nun beinhaltet HeyGen die Funktion „Video Agent“ (beta). Mittels Text to Video kann ein kompletter Film mit mehreren Szenen beschrieben werden. Wird dann der Button zum Start getätigt, setzt sich einiges in Bewegung. Ich habe es nicht gezählt, aber um 20 Agenten machen sich auf den Weg die beschriebenen Bestandteile des gewünschten Filmes zu sammeln, inklusive Kulisse, Audio und Sound, um dann am Ende die Bestandteile zu eine Film zu montieren. Und, die Dauer kann bis zu drei Minuten betragen.
Hier mein Film und sicher geht mehr, denn es war der erste und einzige Versuch. Der eingegebene Text war wie folgt: „A couple is in holidays. They missed each other at their meeting point, searched for each other in the city, and found each other at the market square. Show each person in separate scenes until they will meet at the end.“
Hast du KI Services schon genutzt, wie rund 80% der deutschen oder auch internationalen Internet Nutzer? Bei dem Grad der Penetration geht es kaum mehr anders, schon aufgrund der neu gestalteten Ergebnisseiten der Google Suche. Hier sind die Ergebnisse auch zutreffend und sollten doch mal Unsicherheiten auftreten, dann, so die eigene Erfahrung, gibt es kein KI-Ergebnis bei der Google Suche. Ansonsten können die Ergebnisse bei der gezielten Nutzung von KI Chats allgemein bereichernd oder aber auch ernüchternd sein. Das ist keine negative Kritik, die Sache sollte einfach objektiv betrachtet werden. Es gibt auch einen Fachbegriff für falsche Ergebnisse, Halluzination (der künstlichen Intelligenz).
Und wie verhält es sich nun mit AI/KI im Bereich von Film und Video? Dies ist der Auftakt zu einer Artikelserie über KI-Services im Bereich Film und Video. Der erste Artikel ist den AI/KI Video Generatoren gewidmet, die sich nunmehr zum Teil auch als Film Generatoren bezeichnen. Schlagwort dazu ist Reference to Video, was den für Filme notwendigen Kontext zwischen Szenen ermöglicht.
Hierzu habe ich eine aktuelle Recherche durchgeführt und mir eine Reihe von Services angesehen, die auf unterschiedlicher Grundlage Videos generieren (Für alle, die nur Tools suchen, eine kommentierte Übersicht gibt es unter AI/KI Video und Film Generatoren.). Und tatsächlich beschreiben sich einige Services mittlerweile nicht mehr nur als Video Generation sondern auch als Film Generation Services. Wo ist der Unterschied? Filminhalte haben zumeist einen Kontext, was bei kurzen Videoclips nicht unbedingt notwendig ist. Generierte Videoclips können auch für sich alleine stehen und Emotion oder Witz enthalten. Sogar die Halluzination einer KI kann amüsant sein. Mittlerweile ist es aber soweit, Video Generation Services können auch Kontext haben und gezielt Inhalte generieren, die im größeren Kontext eines Filmes integriert werden können und dies auch in der erforderlichen Qualität.
Als ich vor rund anderthalb Jahren das erste Mal Tools zur Erstellung von Filmen recherchiert hatte, war dies noch nicht möglich. Die Recherchen führten aber zu meinem ersten komplett mit AI/KI erstellten Kurzfilm. Ziel der Recherche war es zu ergründen, wie KI für einen Film genutzt werden kann. Für Dialoge hatte ich mit einem Chatbot experimentiert und es ergab sich zufällig, dass ich bemerkte das sich der Chatbot an ein voriges Gespräch erinnerte. Diese Erkenntnis ist die Essenz des Videos. Umgesetzt wurde der Kurzfilm dann mit Sprachsynthese und die gewonnenen Audiofiles waren dann Grundlage für die Animation mittels AI Avatar Software. Nachstehend das Video.
Es schien naheliegend, zumindest für mich als Anwender, zu vermuten das sich AI Software dahingehend entwickelt Inhalte zu merken und das irgendwann ein Punkt erreicht wird, ab dem Filme auf der Grundlage von Texteingaben generiert werden können. Vielleicht kommt es auch dazu, momentan scheint dies noch wesentlich zu komplex. Damals allerdings hatte wohl ChatGPT bereits damit angefangen Prompts zur Erhaltung von Kontext zu nutzen. Letzteres, die Nutzung von Prompts für Kontexte, ist nun dato zum State of the Art der Generierung von filmischen Inhalten geworden.
Kürzlich erst hat Midjourney, ein Pionier der Generierung von Bildern, in einer E-Mail mitgeteilt nun auch Video Generation Services anzubieten und dies gleich in fortgeschrittener Form. Mittels selbst zu erstellenden Prompts können Inhalte wie Personen oder Hintergründe etc. definiert werden und dann in entsprechenden Kontext gebracht werden. Es können also z.B. Person A und Person B unabhängig voneinander vor demselben Hintergrund erscheinen oder eine bestimmte Person vor unterschiedlichen Hintergründen. Die Machbarkeit ist der State of the Art, die Methoden können variieren. Die fachliche Bezeichnung für diese Methode ist Reference to Video. Es wird also nicht nur eine Vorlage zum Clip (Text to Video, Image to Video) sondern es werden Bilder oder sonstige Medien als Referenzen definiert, welche dann an unterschiedlichen Stellen verwendet werden. AI Video Anbieter in diesem Bereich sind Google Deepmind mit Veo bzw. insbesondere Flow, Hailuo AI, Midjourney, Pixverse, Sora von OpenAI, Vidu und der AI Video Pionier Runway (eine weitergehende Beschreibung der einzelnen Features der Services gibt es im Verzeichnis unter AI/KI Video und Film Generatoren).
Nochmals hervorzuheben sind die Feature von Runway. Bei Runway können auch Skizzen oder Storyboards zur Generierung von Filminhalten verwendet werden. Das ist im Bereich Film natürlich immens nützlich, stehen diese zumeist ohnehin zur Verfügung. Dazu möchte ich an dieser Stelle aber anmerken, dass nicht alle Services vollumfänglich sondern sofern überhaupt möglich nur mehr oder weniger sporadisch getestet wurden. Das aber im übrigen immer mit einem realen Ergebnis. So kann an dieser Stelle nicht gesagt werden ob Image to Video denselben Effekt haben kann, wie die Nutzung von Storyboards bei Runway. Vermutlich eher nicht oder nur ähnlich, wobei die Übergänge fliessend sind, wie die Showcases nahelegen.
Weitere neuere Features sind das automatische Anfügen von Sprache, wozu ich im oben eingebetteten Video noch mehrere Services nutzen musste. Auch das Anfügen von Soundeffekten ist eine neuere Funktion. Das nachstehende Video gibt ein Beispiel für das automatische Anfügen von Sprache. Dieses wurde mittels Image to Video mit Pixverse erstellt (Das Startbild entspricht dem originalen Bild.), die Sprachsynthese erfolgte automatisch basierend auf einen eingegebenen Text. Es war der erste und einzige Versuch. Ein Abgleich der Farben zwischen der gehobenen Hand und der Grafik hätte mit einer besseren Beschreibung vermutlich korrigiert werden können, worauf aber mangels Zeit verzichtet wurde. (Avatar für das eprima – Verzeichnis für Online Unterhaltung.)
Letztlich noch ein Beispiel eines schnell erstellten Videos mit aber durchaus beeindruckenden Ergebnissen für Image to Video mit Vidu. Auch hier war die Zeit knapp und es blieb beim ersten Versuch und so hat das Video einige, wenngleich durchaus amüsante Fehler. Auch dies wäre mit einer besseren Beschreibung sicher vermeidbar.
Hier das Bild (aus BerlinNFTQuiz), welches als Vorlage für den ersten Clip diente. Die verwendete Beschreibung war (die Bewegung innerhalb eines Bildes ist mittels Text zu beschreiben. Auch interessant wäre ein Versuch ohne Beschreibung.): „Schalte die Ampel auf grün und lasse die Autos fahren und einen Passanten schnell laufend hinter den Autos die Straße überqueren.“. Offenbar problematisch war es für die KI die richtige Ampel unter den Lichtern im Bild zu finden und die Strasse als zweispurig zu erkennen. Der Passant erscheint offenbar als weiteres Fahrzeug, welches komplett generiert und nicht Bestandteil des Ausgangsbildes ist.
Das letzte Beispiel inspirierte gleichfalls zu einer Überlegung für einen dystopischen Science Fiction Film. Ist KI vernetzt? Ja, sie lernt ja von Vorlagen auch aus dem Internet. Und wie definiert KI einen Passanten oder eine Person? Womöglich über die Intelligenz? Zumindest in einigen Science Fiction Filmen wurde thematisiert, wie denn ethisch mit künstlichem Leben umzugehen ist. Darf eine vermeintlich fühlende künstliche Intelligenz abgeschaltet werden oder gehen wir ihr auf den Leim, gestehen wir ihr Gefühle zu und lassen uns von deren Eigenleben überzeugen? Worauf ich aber hinaus will ist die Frage des Selbstverständnisses von KI, betrachtet diese sich selbst als eine Einheit, eine Entität? Hat die KI für das Video dem selbst generierten Auto die Eigenschaften einer Entität, eines intelligenten Wesens zugeschrieben und Auto mit Passant gleichgesetzt? Was ist, wenn künstliche Intelligenz sich irgendwann selbst als Entität definiert und die Prämissen setzt?
Google hat ein neues Multimedia Storytelling Format, Web Stories on Google, gelauncht (ergänzende Information zu Web Stories und dem AMP Projekt). Das Format integriert Video, Fotos und Audio. Dies funktioniert ähnlich wie die schon länger bekannten Story Formate von Facebook oder Instagram. Die Web Stories von Google sind jedoch nicht an die eigene Plattform gebunden sondern können auch von anderen Content Services übernommen werden. Bei Google selbst werden diese in der Google App für Android und iOS unter Discover integriert. Und damit, einer Reichweite von 800 Millionen Nutzer, sowie den Content Services, darunter Vice, Forbes und mehr große und bekannte Services, entsteht eine immense Reichweite.
Auch die Erstellung und das Hosting der Web Stories ist weitestgehend losgelöst vom Google Universum. In der Google Web Stories Webseite werden hierfür einige Toole von Drittanbieter genannt, Newsroom.ai, MakeStories und ein Google eigenes Tool für WordPress, Web Stories for WordPress, das die Erstellung von Web Stories heraus aus WordPress ermöglicht. Gehostet werden die Stories dann selbst in der eigenen Webseite. Wie die ehemals populären Widgets können die Stories dann übernommen und in andere Seiten eingebettet oder geteilt werden. Diese können dann auch von der Google Suche indiziert und die Discover Funktion der Google App seitens Google übernommen werden. Anders als bei den Story Formaten von Facebook und Instagram behalten Autoren also die Kontrolle über ihren Inhalt und damit auch die Möglichkeiten zur Monetarisierung.
Was ist es nun dieses neue Web Stories on Google Format? Es kommt etwas unspektakulär daher und dennoch scheint es etwas neues, großes zu sein. Es ist ein neues News Format, ein Multimedia Publishing Format, ein immersives Storytelling Format, für dessen Erstellung und Distribution eine breite Infrastruktur vorhanden ist, nicht weniger breit als das globale Web und mobile Internet. Faszinierend und riesig also. Vorgestellt wurde das Format im offiziellen Google Blog in der Sparte Web Creators: A new home for Web Stories on Discover. Zur weiteren Information gibt es zudem Videos in der Storytime Playlist im Google Web Creators Channel auf YouTube: Storytime.
Drehbücher mit Unterstützung Künstlicher Intelligenz zu schreiben ist Realität geworden. Wenngleich die Betonung auf Unterstützung bei der Erstellung bei der Drehbuchgestaltung liegt, ist auch das Schreiben von Drehbüchern nicht mehr nur Fiktion. Doch dazu unten mehr.
Largo.ai ist eine derartige AI Software zur Unterstützung bei der Erstellung von Drehbüchern, die im Rahmen einer Fachveranstaltung beim Filmfest Hamburg jüngst vorgestellt wurde. Der Titel der Veranstaltung „Ist Erfolg berechenbar“ verrät dann schon etwas über die eigentlichen Fähigkeiten der Software. Diese liegen vor allem in Vergleichen mit anderen Filmen, deren Mustern und Zielgruppen sowie deren Einspielungen. Aber auch Vergleich in Sachen Dramaturgie und Stil der Drehbücher leistet diese Software. Um derartiges zu leisten, wurde das System mit Daten früherer Filme gespeist, deren Genre und Merkmalen, Erfolgen und Zielgruppen.
Eine Analyse des eigenen Skriptes zeigt im Ergebnis die Konformität mit einem Genres bzw. dem Mix aus Elementen mehrerer Genres über eine Storyline aus. Dies zeigt an welchen Stellen ein Drama ein Drama ist und an welchen Stellen Elemente aus Comedy oder Thriller überwiegen und ggf. korrigiert werden sollte. Doch klar, diese Entscheidung bleibt beim Autor, wenn denn z.B. neue Wege gegangen werden sollen. Ist dies aber nicht in der Intention des Autors, gibt die Software über die Gewichtung Hinweise zur Korrektur. Ähnliches gilt für Altersgruppen.
Aufmerksamkeit gilt natürlich auch dem Titel der Veranstaltung, „Ist Erfolg berechenbar“. Hierzu vergleicht die Software den Erfolg möglichst ähnlicher Filme und errechnet die mögliche Bandbreite des Erfolges aus Parametern wie der Größe der Zielgruppe aber eben auch der Art des Filmes. Diese soll verlässlicher sein als sonstige Prognosen. In anderen Quellen ist dazu zu lesen, dass aus den prognostizierten Einnahmen Rückschlüsse auf das aufzuwendende Budget machbar sind.
Zu der Veranstaltung gibt es Aufzeichnung, in der Largo.ai detailliert vorgestellt wird und in der auch Anwender zur Sprache kommen und die Möglichkeiten diskutiert werden. Im übrigen, auch passende Darsteller werden durch die Anwendung vorgeschlagen.
Largo.ai ist übrigens nicht der einzige Anbieter einer AI Lösung zur Unterstützung beim Drehbuch schreiben oder deren Bewertung. Weitere Anbieter sind ScriptBook und StoryFit. In der Seite von StoryFit gibt es auch eine gute, einfache Übersicht zum aktuellen Status von AI in der Filmindustrie und einen Ausblick über eine mögliche Entwicklung, also ggf. tatsächlich von Künstlicher Intelligenz geschriebene Drehbücher: Machine Learning for Movie Scripts.
Und wie oben angedeutet ist auch die komplette Gestaltung von Drehbüchern mittels Künstlicher Intelligenz nicht mehr nur Science Fiction. Der Filmemacher Kevin Macdonald hat sich daran gewagt einen Film mit einem von einem Computer generierten Script zu machen. Dieses Vorhaben war nicht rein experimentell sondern es wurde ein Werbeclip für einen namhaften Autohersteller erstellt. Grundlage war auch hier die Auswertung von Erfolgsparametern: Can a computer write a script? Machine learning goes Hollywood.
Im Bereich Fiction haben Regisseur Oscar Sharp und Ross Goodwin, ein Forscher im Bereich Künstlicher Intelligenz, kooperiert. Dabei wurde ein sogenanntes neurales Netzwerk mit Daten aus Science Fiction Filmen sowie Vorgaben eines SciFi Festivals gespeist, was den Kurzfilm Sunspring als Ergebnis hervorbrachte. In der Kritik des Artikels, der im übrigen bereits aus dem Jahre 2016 ist, heißt es die Dialoge machen nicht wirklich Sinn, aber das ist vielleicht eine Frage der Einlassung: This is what happens when an AI-written screenplay is made into a film. Auch ein Erfahrungsbericht sind die Ergebnisse eine Fans von The Office, der sich selbst ein Programm zur Erstellung einer Fortsetzung geschrieben hat: I miss The Office. So I made an AI write me new scripts.
Live Streaming begeistert seit einiger Zeit, doch wie das Ziel unter den zahlreichen Plattformen auswählen auf denen eine Präsenz eingerichtet ist. Ganz einfach, einer Reihe teils neuer und teils schon etablierter Anbieter unterstützt das Multicasting und überträgt einen Live Stream auf mehrere Plattformen zugleich. Bei einer Recherche sind vor allem drei Services aufgefallen, die besonders nutzerfreundlich sind. Zum einen wegen ihrer Freemium Angebote und zum anderen wegen der Bedienbarkeit.
Intuitiv zu bedienen sind die beiden Web Apps Restream und Streamyard. Beide ermöglichen den Live Stream auf eine Vielzahl von Plattformen, darunter natürlich Facebook, YouTube und Periscope für Twitter als auch das Business Network LinkedIn, zu denen eine Verbindung durch einfache Autorisierung mittels Login Daten hergestellt wird. Bei Restream sind über 30 Social Media Plattformen vorkonfiguriert. Aber auch das Streaming auf nicht vorkonfigurierte Plattformen ist mittels manueller Konfiguration möglich. Das Interface oder Live Streaming Studio ist bei beiden Apps einfach gehalten. Es kann eine Auswahl an angeschlossenen Video Cams und Audio Quellen erfolgen und eine Chat Funktion hinzugefügt werden. Beide Apps sind eine gute Wahl um schnell einen Live Stream zu erstellen.
Höheren Ansprüchen wird die Streaming Software vMix gerecht. Auch mit der vMix Software lässt sich mittels Multicasting schnell eine Verbindung zu mehreren Plattformen erstellen und ein Live Stream starten. Die Software verfügt zudem über ein Studio, das auch professionellen Ansprüchen genügt und neben der Integration externer Quellen auch die Erstellung von Effekte ermöglicht. Hierzu bedarf es jedoch schon einiger Einarbeitung.
Filme sehen wie von den Filmemachern gedacht und gemacht, das wird eine neue von der UHD Alliance vorgestellte Funktion realisieren: Filmmaker Mode.
Auf der Internationalen Funkausstellung konnte ich mir am Stand von Panasonic diese neue Funktion vorstellen lassen und Fragen stellen. Das Ziel ist es, wie auch in der Filmmaker Mode Homepage dargestellt, Filme in genau der Fassung zu übertragen in der Filmemacher diese gedacht und erstellt haben. Das heisst alle typischerweise individuellen Einstellungen am TV wie Farbe, Kontrast, Bildformate etc. werden durch den Filmmaker Mode überspielt und der Film mit den Originaleinstellungen und selbst mit der originalen Framerate übertragen. Hierzu wird es künftig einen zusätzlichen Button auf der Fernbedienung geben. Wann die Funktion verfügbar sein wird, ist allerdings noch nicht klar.
Screenlife beschreibt ein neues Storytelling Format, bei welchem ganze Filme durch Screen Recording realisiert werden. Dies, so der bekannte Filmemacher Timur Bekmambetov, entspricht dem heutigen Lifestyle. Timur Bekmambetov hat in diesem Format bereits mehrere Kinofilme realisiert (Profile, Unfriended und Searching). Dabei ist der Filmemacher eher ein Schwergewicht im Filmgeschäft in dem er schon mit Budget von 100 Millionen, so für Ben Hur, umgegangen ist. Inspiriert, wie es im Artikel Timur Bekmambetov is done with hollywood and only wants to make movies on computer screens, wurde er durch den Kurzfilm Noah (sehenswert). Weitere Kurzfilme, die nicht unerwähnt bleiben sollen, sind ebenfalls in dem Artikel genannt.
Weshalb ist in dem Kontext des Screenlife Storytelling Formates also die Person von Timur Bekmambetov hervorzuheben. Sicher wegen seiner Bekanntheit, dem Können einen Langfilm zu realisieren, bei dem keine Langeweile aufkommt (Für Searching war ich am letzten Aufführungstag zu später Stunde ins Kino gegangen, dieser besteht tatsächlich nur aus Screen Recordings.) und an dieser Stelle hier im FMarket.de Blog aber vor allem wegen seines Engagements. Denn Timur Bekmambetov hat zu dem Screenlife Storytelling Format ein eigenes Manifest formuliert und stellt unter Screenlife.com eine ganze Community inklusive Software zur eigenen Erstellung von Videos bereit. Die Seite beinhaltet sämtliche Informationen zu diesem Storytelling Format, zahlreiche Erläuterungen zu der Idee, die bereits erwähnte Software zur Erstellung von Screenlife Videos und eine Community mit Uploads mit der Software erstellter Videos.
Fazit: Screenlife ist sicherlich nicht das Ende des Films, wie wir ihn kennen. Aber wie sehr sich dieses als Storytelling Format an der Realität bewegt zeigen einige der Videos in der Community, die teilweise viel Ähnlichkeit mit Let’s-Play-Videos zeigen und auch der virtuelle Arbeitsplatz mit Videochat ist allgegenwärtig und sehr anschaulich im Film Profile dargestellt. Spannend in dem Kontext Kinofilm ist sicher auch die künftige Entwicklung des digitalen Kinos, welches uns ebenfalls ganz real heute schon Live Übertragungen bringt oder Austragungsort von eSports Event mit Screening auf der Leinwand ist.