alles über die High Definition 3D-Technik in "The Final Destination"

„Final Destination 4“ ist der erste Teil der Horrorfrachise, die in nativem 3D und HD gefilmt wurde. Die Verfahren gibt es zwar schon seit Jahrzehnten, dennoch ergeben sich einig technische Herausforderungen. Die heutige High-Definition-3D-Technologie wurde mithilfe des PACE Fusion System entwickelt und macht so einen Quantensprung möglich – dem Kinozuschauer bietet sich eine völlig neue Perspektive und Bildtiefe, die das Publikum in eine neue Dimension katapultiert.

Produzent Craig Perry beschreibt die Verwendung der revolutionären Technik des Fusion Systems in „Final Destination 4“ als ganz neues Spiel: „Diese Serie bietet sich aufgrund der Versatzstücke für 3D geradezu an. Wenn die Leute sich jetzt ,Final Destination 4‘ anschauen, erleben sie die Handlung nicht vor sich oder auf ihrem Schoß, sondern auch um sich herum. Sie tauchen völlig in das Filmbild mit seiner eigenen Welt ein.“

Ellis, der bereits „Final Destination 2“ inszeniert hat, fühlt sich besonders von dem Pioniergeist animiert, mit dem er das Publikum in das interaktivere Erlebnis einführt. „3D hat für mich eindeutig den Ausschlag gegeben“, sagt er. „Mir war sofort klar, wie perfekt sich der Stoff für die Technik eignet, und ich wollte mich unbedingt in sie einarbeiten. Ich habe das Thema lange recherchiert, und als ich erfuhr, dass Vince Pace und James Cameron hinter Fusion 3D stecken, war mir klar: Das funktioniert.“ Vince Pace, der schon lange mit Cameron zusammenarbeitet, hat leidenschaftlich an seiner Vision gearbeitet. Er berichtet, dass Fusion 3D nicht nur eine Dienstleistung erbringt oder Experten zur Verfügung stellt – er sieht das Engagement seiner Firma als kreative Partnerschaft: Die Filmemacher arbeiten auf allen Produktionsebenen Hand in Hand mit PACE.

Kameramann Glen MacPherson erklärt für Laien verständlich, wie das Konzept 3D funktioniert. „Um 3D-Bilder zu filmen, braucht man zwei Kameras: Eine steht für unser rechtes Auge, die andere für das linke“, sagt er. „Beide muss man auf dasselbe Objekt richten können – das nennt man Konversion. Die beiden Bilder aus jeweils etwas versetztem Blickwinkel werden mithilfe der 3D-Brille zu einem Bild vereint – genau wie beim menschlichen Auge – um so eine räumliche Wahrnehmung zu ermöglichen.“ Aus MacPhersons Sicht war die Arbeit des Kamerateams bereits vorgezeichnet: „Dies unterscheidet sich total von der Arbeit an einem herkömmlichen 2D-Film“, sagt er emphatisch. „Man muss jede einzelne Einstellung viel intensiver planen, damit sie in 3D funktioniert.“

Szenenbild 01

Neben den Sony-F23-Kameras – die erstmals für 3D-Aufnahmen mit den nur fünf vorhandenen, speziell für 3D eingerichteten Ausrüstungen eingesetzt wurden – konnte das Team beim Dreh die exklusive mobile PACE-Fusion-Post-Production-Einheit verwenden. Sie besteht aus einem normalen Wohnwagen und erlaubt dem Regisseur und seinem Team, jede beliebige Aufnahme sofort in perfekter 3D-Qualität anzuschauen und zu überprüfen. Durch diese Möglichkeit konnten Ellis und MacPherson jede Unstimmigkeit durch etwaige Wiederholungen der Aufnahme sofort korrigieren, bevor sie sich der nächsten Szene zuwandten. MacPherson beschreibt genauer, wie wertvoll die mobile Arbeitseinheit ist: „In dem Wohnwagen befindet sich ein Projektionssystem für 3D. Wir konnten also eine Testaufnahme machen, zum Wohnwagen laufen und sofort sehen, ob der Effekt so aussah, wie wir ihn uns vorstellten. Im 3D-Verfahren gibt es immer Unvollkommenheiten. Wenn ein Bild also vertikal etwas verrutscht oder ein Zoom sich verschoben hatte, konnten wir das sofort ausgleichen. Das erlaubte uns, erheblich schneller zu drehen – in der Gewissheit, jeden Patzer sofort korrigieren zu können.“

Sobald die Schauspieler auf den Geschmack gekommen waren, die Szenen im Wohnwagen anzuschauen, setzten sie sich dort regelrecht fest, aber laut Mykelti Williamson galt das nicht nur als „ultracool“, sondern half den Darstellern auch sehr bei ihrer Arbeit. „Ich habe versucht, nicht allzu oft in den Wohnwagen zu gehen, aber es hat mir wirklich geholfen, mich in die 3D-Welt einzugewöhnen“, erinnert sich Williamson. „Wenn man erstmal begriffen hat, wie sehr sich die Wahrnehmung dadurch verändert, findet man diese neue Welt derart spannend, dass man am liebsten sofort weiterdrehen möchte, um danach wieder neue Szenen sehen zu dürfen. Bei dieser Technik und der Weiterentwicklung der Brillen vergisst man ganz, dass man sie trägt – stattdessen hat man den Eindruck, das Leben der Helden direkt mitzuerleben, nur dass die gar nicht merken, dass wir zuschauen. Ich war schwer beeindruckt.“

Szenenbild 05

Ellis machte sich ursprünglich als einer der angesehensten Regisseure des 2. Drehteams einen Namen – seine Spezialität waren große, spektakuläre Action-Sequenzen. Bei „Final Destination 4“ setzt er die 3D-Technik ein, um hautnah in die Action einzusteigen. Dazu gehört auch die Eingangssequenz beim Autorennen.
MacPherson berichtet: „David möchte, dass der Film möglichst gut unterhält und Spaß macht, ohne dass er von der 3D-Technik dominiert wird. Wir mussten uns etwas überlegen, damit diese Actionszenen funktionieren, und das war gar nicht so einfach. Wir mussten die großen 3D-Kameraeinheiten manchmal in sehr engen Räumen unterbringen. Wir montierten sie auf eine Steadicam oder benutzten sie als normale Handkamera, filmten unter Wasser in einem Swimmingpool, stürzten sie an einer Halteleine von Hausdächern, filmten in unmittelbarer Nähe von Feuer und Explosionen, und bei den Rennsequenzen montierten wir diese Kameras auf einen Kranausleger, der auf dem Kamerawagen mit 150 km/h über die Piste bretterte. Wir haben diese Kameras auf vielerlei Arten eingesetzt, die für 3D-Kameras sicher eine Premiere darstellen – für diese neuen Modelle war es auf jeden Fall ein Debüt.“ „Schon vor Beginn der Dreharbeiten montierten wir Kameras auf Wagen und filmten damit auf einem leeren Parkplatz am Vergnügungspark Magic Mountain in Los Angeles, um zu sehen, wie sie reagierten, weil die große Eingangssequenz ja beim Autorennen spielt. Wir merkten, dass die Vibration der Wagen den Bildabgleich der beiden Kamerabilder stört, weil sie sehr empfindlich sind – wir konnten die Kameras daher nicht einfach auf die Rennwagen montieren. In den meisten Fällen montierten wir sie auf einen speziellen Wagen, auf dem wir sie stabilisieren konnten. Aber aufgrund dieser Tests verloren wir durch die Ausrüstung keinen einzigen Drehtag“, sagt Ellis. „Das sagt eine Menge aus über das Engagement der Crew und Vinces Unterstützung.“

Der Tod lässt sich nicht austricksen … und High Definition auch nicht. Alle Produktionsabteilungen, darunter die Maske, die Spezialeffekte, die visuellen Effekte und die Ausstattung, mussten sich auf die HD-Bilder in 3D besonders vorbereiten. Während der Dreharbeiten war Mike McCarty für die speziellen Masken-Effekte zuständig. Für ihn ergaben sich durch die neue Technik eine ganze Reihe von Problemen, angefangen natürlich mit dem Filmblut. „Auf HD sehen die Farben anders aus als auf normalem Film“, berichtet McCarty. „Auf HD tendiert alles mehr zu Orange-Tönen. Am Anfang sah unser Blut also eher so aus wie das alte Blut, das man in den 1970ern und 1980ern verwendete. Wir mussten alles dunkler tönen, bis es fast wie getrocknetes Blut aussah. Normalerweise intensiviert man im Film die Farben, um sie theatralischer und auffälliger wirken zu lassen und gerade nicht so, wie sie für das normale Auge erscheinen. Aber HD hat von sich aus genau diesen Effekt: Alles wirkt intensiver.“

Szenenbild 02

Produktionsdesigner Hinkle musste ebenfalls genau überlegen, wie er die Sets so gestaltete, dass sie sich möglichst praktisch filmen ließen und trotzdem den untrüglichen Kameraaugen der 3D-/HD-Ausrüstung genügten. „Das war anfangs ein riesiges Problem. Zunächst machten wir eine Reihe von Testaufnahmen, um ein Gefühl für den Raum zwischen der Kamera, den Darstellern und den Kulissen im Hintergrund zu bekommen, zwischen den seitlichen Wänden und dem Vordergrund. Mit der Zeit stimmten Glen McPherson und ich uns immer genauer ab, und das Ergebnis war, dass die Sets immer größer wurden. Und wenn ich größer sage, meine ich das im physikalischen Sinn. Wir dehnten sie aus, um vor allem Raum zwischen der Kamera und dem Schauspieler und den sonstigen Gegenständen auf dem Set zu schaffen. Manche wunderbaren Sequenzen entwickelten sich auf diese Weise zu sehr aufwändigen Unternehmungen.“ Perry fügt hinzu: „HD lässt sich leider gar nicht überlisten: Man sieht jedes Detail. Ein Beispiel: In Massenszenen werden echte Statisten manchmal durch Pappkameraden oder aufblasbare Puppen ersetzt. Aber auf den 3D-Bildern sehen die Pappkameraden tatsächlich flach aus und auf HD wirken die Puppen unecht, obwohl sie ja dreidimensional sind. Das Leinwandbild ist absolut scharf und klar. Da kann man einfach nicht tricksen.“

Sowohl 3D also auch HD sind Techniken, die auf der Leinwand größtmögliche Realität garantieren sollen, denn je lebensechter die Bilder wirken, desto direkter wirken sie auf unsere Sinne. Der für die visuellen Effekte verantwortliche Erik Henry merkte schnell, dass er aufgrund der 3D-Bilder auch seine Arbeit von Grund auf neu überdenken musste. „Aus den Gesprächen mit Vince Pace erfuhr ich, dass die Zukunft der 3D-Bilder weniger mit Spielereien zu tun hat, etwa den Objekten, die man auf die Zuschauer zufliegen lässt“, sagt Henry. „Stattdessen geht es jetzt darum, Einstellungen auch in der Tiefe so zu konstruieren, wie wir sie wahrnehmen, wenn wir sie live erleben würden. 3D-Bilder sind deshalb interessant, weil sie die Bilder realistischer machen. 20 Jahre lang habe ich mich mit 2D-Bildern beschäftigt, doch selbst die winzigsten Details, die man für selbstverständlich hält, funktionieren in 3D nicht unbedingt“, stellt er fest. „Deshalb war es für uns so schwierig, die Einstellungen mit den visuellen Effekten zu planen. Normalerweise lösen wir das mit einem eingefügten Matte-Bild, oder wir entfernen etwas aus dem 2D-Bild. Doch jetzt arbeiten wir gleichzeitig mit zwei Kameras in unterschiedlichen Positionen. Deshalb muss man auch das Matte-Bild ganz anders gestalten, und die Artefakte des entfernten Objekts müssen auch in der zweiten Kamera, also im ‚Auge‘ entfernt werden. Anders gesagt: Es gibt keine einfache Methode, die Arbeit an einem Auge einfach auf das andere Auge zu übertragen.“

Szenenbild 07

Trotz der größeren Herausforderung erlebte Henry die Zusammenarbeit der Experten für visuelle Effekte mit den Stuntleuten, den Fachleuten für Spezialeffekte, den Maskenbildnern und den übrigen Teammitgliedern als lohnende Erfahrung: „Die Einstellungen mit den visuellen Effekten sind zwar unglaublich kompliziert, aber zum Glück kann ich mich auf die Kollegen aller anderen Abteilungen verlassen. Alle ergänzten sich prächtig, und wir mussten gemeinsam die optimale Lösung erarbeiten.“

Obwohl die 3D-Experimente aus technischer Sicht spannend waren, bestanden die Filmemacher darauf, dass die 3D-Elemente im Drehbuch, in der Entwicklung der Figuren auf keinen Fall zu sehr in den Vordergrund rückten. Der Film sollte wie ein ganz normaler 2D-Film wirken. Deshalb drehten sie im Grunde zwei Filme: einen auf 2D und einen auf 3D. „Wir müssen uns darauf einstellen, dass noch nicht alle Kinos 3D-Filme zeigen können“, sagt Ellis. „Unterm Strich heißt das für mich, dass es in diesem Film wie immer um eine tolle Story geht – und um Figuren, mit denen wir mitfiebern. Auch in 2D muss der Film funktionieren. Wenn er uns in 2D gruselt, dann stehen uns in 3D die Haare zu Berge.“

Perry ergänzt: „Vince Pace gelang es, unserem gesamten Team seine Philosophie nahe zu bringen, wie man Bilder aufbaut und Geschichten erzählt – das kommt diesem Film sehr zugute. Es ist zwar cool, wenn Dinge aus der Leinwand auf uns zufliegen, aber 3D muss sich dem Erzählfluss unterordnen, darf nicht nur als Gag eingesetzt werden. Man muss bei der Verwendung sehr strategisch vorgehen.“ Die Filmemacher merkten, wie die Einstellungen derart an Tiefe gewannen, dass sie absolut lebensecht wirkten. Zum Beispiel erzählt Williamson alias George dem Paar Nick und Lori aus seinem Leben. „Man hat den Eindruck, dass man neben ihm auf dem Sofa sitzt und ihm zuhört. Die Zuschauer wissen ja noch gar nicht, wie überzeugend 3D auch in solchen ruhigeren Szenen wirken kann“, sagt Ellis. Autor Eric Bress stellt fest: „Solche Filme schaut man sich am besten in einem vollen Kino an, denn sowohl das Gruseln als auch das Lachen steckt an. Das gilt heute mehr denn je, denn die Zuschauer werden mitten in das Geschehen versetzt – in der überhöhten Realität des Films werden sie noch unmittelbarer in das Reich des Todes gezogen.“

Pixars OBEN – die Produktionsphasen eines CGI-Films

Realfilm-Spielfilme sind einfach zu produzieren: Kamera aufbauen, Schauspieler Text aufsagen lassen, abfilmen, fertig. Um Bilder für CGI-Filme wie Pixars OBEN zu erstellen, werden acht unterschiedliche Arbeitsphasenphasen benötigt. Diese stelle ich euch heute in diesem Artikel vor. Natürlich gehört das Drehbuchschreiben, das Charakterdesign und die Vertonung u.ä. ebenfalls zum Produktionsprozeß, heute liegt das Augenmerk auf der Produktion der Bilder. Mehr zum gesamten Produktionsprozeß findet ihr in diesem Artikel. Hatte ich erwähnt, dass sieben der acht Schritte vollständig digital im Rechner ablaufen? Und fürs Storyboard kann man mittlerweile auch Grafiktabletts einsetzen. 😉

.

1_Storyboard

Eigentlich ist der Film schon fertig, bevor er gedreht wird. Storyboard-Artists designen im ersten Schritt aus dem Drehbuch die per Hand gezeichneten Bilder. Diese illustrieren nicht nur die Geschichte, sondern definieren auch Parameter wie Framing, Kameraeinstellungen und Bewegungen. Reiht man die einzelnen Bilder eingescannt im Rechner aneinander und gibt ihnen eine Laufzeit, erhält man ein sogenanntes Animatic. Hiermit kann man den Szenen die entsprechende Zeitcharakteristik geben und das Timing des Films planen. Animatics eignen sich hervorragend um Filme bereits in einer frühen Phase zu präsentieren und den Synchronsprechern eine sehr solide Basis für ihre Arbeit zu geben. Das Storyboard zu OBEN stammt von Enrico Casarosa.

1_Storyboard.progression16.jpg_rgb

.

2_Layout

In der Layout-Phase wird der Film grob im jeweils benutzten CGI-Programm angelegt. Die Szene mit ihren Elementen wird gebaut, allerdings nicht in allen Details. Die noch simplen Charaktere werden in ihrer Schlüsselbewegungsphase positioniert. Zudem wird die virtuelle Kamera ausgerichtet, welche den Abstand zu den Figuren, die Einstellung und die Tiefenschärfe festlegt. Im Abschluß dieser Phase liegt der Film in allen Einstellungen in grober Fassung vor.

2_Layout.progression16.jpg_rgb

.

3_SetModelDress

Das Set der Szene wird vollständig ausmodelliert und gestaltet. Weitere Details der Textur werden später mit den Schattierungen hinzugefügt. Organische Sets sind immer schwieriger und komplexer als technisch-gegenständliche Sets wie z.B. Gebäude. Es ist weit komplexer Formen in der Natur überzeugend natürlich darzustellen. Auf diesem Bild sieht man, dass die Blätter alle in Richtung Kamera ausgerichtet sind. Dies ist zwar unnatürlich, vereinfacht aber die Szene und damit die Komplexität, was Renderleistung spart. Zudem sind auch die Figuren in einer karikierten Form dargestellt – vereinfacht und doch prägnant.

3_SetModelDress.progression16.jpg_rgb

.

4_Animation

Endlich kommt Bewegung ins Spiel! Die Figuren werden animiert, also die Körper und Gesichter der Charaktere, als auch die in der Szene befindlichen Requisiten und Gegenstände. Hierzu wird in der Regel Keyframe-Animation eingesetzt. Schlüsselpunkte definieren den jeweiligen Bewegungsstatus mit sämtlichen Parametern. Einige Bilder später wird ein neuer Keyframe gesetzt und die Bewegung des jeweiligen Objektes verändert. Die Zwischenphasen der Bewegung werden durch den Computer berechnet. Mit dynamischen Systemen lassen sich aber auch Bewegungen von Objekten automatisieren. Beispielsweise unterliegen die Gegenstände in Russells Rucksack einem dynamischen System: bewegt sich Russell auf und ab, bewegen sich auch die Objekte gemäß ihre physikalischen Eigenschaften. Selbstverständlich kann der Animator auch hier durch Keyframes manuell eingreifen. Die Animation der Kleidung erfolgt im Simulation Department.

4_Animation.progression16.jpg_rgb

.

5_Clothing Simulation

Während man in den ersten CGI-Filmen noch auf unbekleidete oder flächige Darsteller zurückgriff, kommen heute komplexe Stoffsimulationen für die Kleidung zum Einsatz. Wie knittert eine Leinenhose beim Laufen? Wie fällt ein Seidentuch auf den Boden? Welche bewegt sich ein locker sitzende Hose zum Charakter. Ein Fall für Experten der Clothing Simulation. Der Stoff wird anhand dynamischer Simulation animiert. Im Film OBEN hat es Pixar mit der bisher komplexesten Kleidungssimulation zu tun: Carl Fredricksen trägt lockere weite Kleidung, die von einem Gürtel gehalten wird. Russells Kleidung ist schwierig, da es sich um mehrere Schichten handelt: der Rucksack über dem Halstuch über dem Gürtel mit den Buttons über einem Shirt über Shorts. Da gibt es viel physikalische Interaktion, die es für ein überzeugendes Ergebnis zu berechnen gilt.

5_ClothingSim.progression16.jpg_rgb

.

6_Shading

Beim Shading werden die finalen Texturen der Materialien eingefügt. Alle Materialien besitzen charakteristische Oberflächen, die aus Textur, Farbe, Muster und Materialeigenschaften wie z.B. Reflexivität oder Transparenz bestehen. Nur wenn diese Parameter stimmen, wird ein glaubhafter Eindruck erzeugt. Pflanzen haben beispielsweise glänzende Blätter, die mit einer dahinter befindlichen Lichtquelle durchscheinend sind. Gemäß dem Prinzip der „Symplexity“, also der „simplen Komplexität“, sind die Texturen stilisiert um größere Muster zu erzeugen. Manchmal ähneln sie einem Pinselstrich. es geht also nicht im einen Photorealismus, sondern um glaubwürdig aussehende Charakteristiken, die den Regenwald lebendig und glaubwürdig werden lassen.

6_Shading.progression16.jpg_rgb

.

7_Effects

Jetzt kömmen die Effektbastler an die Reihe. Bei Effekten geht es nicht nur um Explosionen. Auch natürliche Phänomene wie das im Flußbett laufende Wasser und die Tropfen und Wasserspritzer von Carls Schuh, nachdem er in den Bach eintaucht, gehören dazu. Die Effekte sind also recht unauffällig und lassen dennoch die Figuren in der Interaktion mit der Szene sehr lebendig wirken.

7_Effects.progression16.jpg_rgb

.

8_Lighting

Jetzt kommt nochmal Magie ins Spiel. Die Lighting-Abteilung ist für die Integration aller Elemente wie Characteren, Set, Spezialeffekten, Clothingsimulation und Animationen verantwortlich- das finale Bild wird kreiert. In der digitalen Welt scheint ja keine Sonne, für die Beleuchtung sorgen unterschiedliche künstliche Lichtquellen. Diese werden nach ihren Vorbildern in der realen Welt in Charakteristiken wie Größe, Intensität und Farbtemperatur gestaltet und inden virtuellen Raum eingefügt. Um die Szene gut auszuleuchten und komplexe Lichtstimmungen zu schaffen, werden viele Dutzend Lichtquelen benötigt. Zudem werden Beleuchtungseffekte wie die durchs Blätterdach brechenden Sonnenstrahlen eingefügt. Erst das Licht lässt Figuren, Landschaft und Gegenstände real werden, die Bilder verlieren ihre Künstlichkeit. Im Raytracingverfahren berechnet der Computer in mehreren Durchgängen den Verlauf der Lichtstrahlen ausgehend von den Lichtquellen, die wiederum von den Objekten reflektiert werden, Gegenstände oder Haut durchleuchten zu einem hochkomplexen Lichtverlauf. So wundert es trotz „Symplicity“ nicht, dass die durchschnittliche Zeit um ein einziges Bild von OBEN zu rendern, bei fünf bis sechs Stunden betrug. Für besonders komplizierte Bilder brauchte man sogar bis zu 20 Stunden. Und nicht vergessen: eine Sekunde des Animationsfilms besteht aus 24 Einzelbildern…

8_Lighting.progression16.jpg_rgb


Ich hoffe, ihr hattet ein paar interessante Einblicke in die Welt der CGI-Filmproduktion. Vielen Dank an Disney/Pixar für die Bereitstellung der Produktionsbilder! Das Copyright für alle Bilder liegt bei Disney/Pixar. In Deutschland ist der Film ab dem 17. September 2009 zu sehen. Und natürlich in ausgewählten Kinos als stereoskopische Fassung in Disney 3D.

Wigald Boning ist ein Meerschweinchen – Synchronsprecher für "G-Force – Agenten mit Biss" vorgestellt

…und Götz Otto ist ein Maulwurf!

In Amerika auf Platz 1 der Kinocharts gestartet und mit einem US-Boxoffice von rund 86 Millionenen Dollar bis dato, dreht sich in der actiongeladenen Komödie „G-Force – Agenten mit Biss“ alles um ein geheimes Regierungsprogramm, in dem Tiere zu Spionage-Agenten im Kampf gegen Korruption und Verbrechen ausgebildet werden. Stimmliche Unterstützung für die deutsche Synchronfassung holen sich die tierischen Undercoveragenten bei Schauspieler Götz Otto, Moderatorin Sonya Kraus und Comedian Wigald Boning, die dem Dreamteam Biss und Witz verleihen und es mit Cleverness und jeder Menge Action seinen schwierigen Job erledigen lässt.

Sonya Kraus spricht Meerschweinchen Juarez, eine aufgeweckte Kampfsportlerin, die sich von ihren männlichen Kollegen nicht unterbuttern lässt und ihren weiblichen Charme sehr gekonnt als Waffe einsetzt.

Sonya_1

Ihr zu Füßen – im wahrsten Sinne der Worte – liegt Götz Otto als Maulwurf Speckles, der vom Untergrund aus agiert und das Team mit seinem Hightech-Spionage-Equipment aus einigen brisanten Situationen hilft.

goetz1

Das interessiert Wigald Boning als Meerschweinchen Hurley zunächst recht wenig, seine Zielorientiertheit richtet sich eher auf die nächste Futterration als auf die Rettung der Menschheit. Bis er in Teamleader Darwin seinen vermeintlichen Bruder entdeckt, dem er zeigen möchte, was in ihm steckt…

Wigald_2

Übrigens: Im englischsprachigen Original sprechen illustre Schauspieler wie  Nicholas Cage (Speckles), Jon Favreau (Hurley) und Penélope Cruz (Juarez) die Rollen. Da stellt sich wieder die Frage: guckt man den Film lieber in 3D oder als OV?! „G-Force – Agenten mit Biss“ startet am 15. Oktober in unseren Kinos – und natürlich in einer stereoskopischen Fassung.

(alle Fotos ©WDSMP/Kurt Krieger)

Produktions-Featurettes zu Joe Dantes "The Hole"

Das Teaser-Plakat zu „The Hole 3D“ habe ich euch bereits geliefert, heute gibt es noch ein paar Einblicke in die Produktion von Dantes neuestem Film. In den Featurettes kommen natürlich der Regisseur Joe Dante, Artdirector Carl Mason, 3D Stereographer Max Penner, der Vizepresident von Bold Films Jonathan Oakes und weitere zu Wort. Und selbstverständlich gibt es erste Szenen des Films zu sehen.

[vodpod id=Groupvideo.3151288&w=425&h=350&fv=config%3Dhttp%3A%2F%2Fwww.movieset.com%2Fswf%2Fconfig-embed.xml%2Fpy90tq%2F71aqj2]

[vodpod id=Groupvideo.3151294&w=425&h=350&fv=config%3Dhttp%3A%2F%2Fwww.movieset.com%2Fswf%2Fconfig-embed.xml%2Fpy90tq%2Fchrfhw]

[vodpod id=Groupvideo.3151301&w=425&h=350&fv=config%3Dhttp%3A%2F%2Fwww.movieset.com%2Fswf%2Fconfig-embed.xml%2Fpy90tq%2Fd1jixj]

[vodpod id=Groupvideo.3151306&w=425&h=350&fv=config%3Dhttp%3A%2F%2Fwww.movieset.com%2Fswf%2Fconfig-embed.xml%2Fpy90tq%2Frum7g9]

(via Movieset)

Zwei Welten, drei Dimensionen – alles über die 3D-Technik in "Coraline"

"Coraline" verbindet StopMotion mit modernster 3D-Technik

"Coraline" verbindet StopMotion mit modernster 3D-Technik - © Universal

Coraline ist der erste Stop-Motion-Animationsfilm, der vollständig in stereoskopischem 3D gedreht wurde, und bietet dem Zuschauer, so Henry Selick, „die einmalige Erfahrung, vollständig in eine dreidimensionale Erlebniswelt einzutauchen“. Coraline startet am 13. August 2008 in unseren Kinos, natürlich in ausgewählten Kinos in einer stereoskopischen Fassung.

Als allererster 3D-Stop-Motion-Film gilt John Norlings Kurzfilm „In Tune with Tomorrow“, der ursprünglich für die Weltausstellung 1939 in New York produziert wurde. Über die Jahrzehnte entwickelten sich beide Verfahren unabhängig voneinander weiter und eroberten ihren Platz in der Geschichte der Kinoindustrie und Filmmagie. Vor wenigen Jahren übertrug Walt Disney Pictures Selicks Stop-Motion-Spielfilm „The Nightmare Before Christmas“ aus dem Jahr 1993 auch in das 3D-Format.

Nachdem Kameramann Pete Kozachik bei der Bearbeitung des Films zu Rate gezogen wurde und das Ergebnis gesehen hatte, gab er dem Verfahren grünes Licht. 2006 kam die neue 3D-Digitalversion heraus und war so erfolgreich, dass der Film seither jeden Herbst wieder in die Kinos kommt. Selick offenbart: „Als ich „Nightmare“ und „James und der Riesenpfirsich“ drehte, haben wir schon etwas mit 3D experimentiert. Ich bin mit Lenny Lipton befreundet, der mit dieser Technologie führend ist und jetzt bei RealD arbeitet.“

Regisseur Henry Selick mit Stopmotion-Figur Coraline

Regisseur Henry Selick mit Stopmotion-Figur Coraline - © Universal

„So um das Jahr 2004 herum sah ich Lennys neueste Entwicklungen in diesem Bereich. Bill Mechanic und ich stellten fest, dass die 3D-Erfahrung Coralines Geschichte am Besten zur Geltung bringen würde. Seither sind die Digital-Projektion, das RealD-Verfahren und die neuen stereoskopischen Systeme immer eindrucksvoller geworden – die aktuellen Brillen sind sogar bequemer!“ Auch Neil Gaiman war beeindruckt: „Das erste Mal, als ich das 3D-Material von „Coraline“ sah, blieb mir der Mund offen stehen. Noch nie hatte ich so tolle 3D-Szenen gesehen – und der Realismus der Stop-Motion-Animation wirkt wie ein echter Spielfilm.“

Lipton arbeitet seit 1972 an der Weiterentwicklung des 3D-Verfahrens. RealD Cinema ist eine digitale Projektionstechnologie mit hoher Auflösung, die anders als frühere Systeme nicht zwei Projektoren braucht. RealD verwendet einen einzigen Projektor, der abwechselnd das Frame für das linke und dann für das rechte Auge projiziert. Jedes Frame wird drei Mal in hoher Geschwindigkeit projiziert, was das Flackern der Bilder verringert und eine fließende Bilderabfolge ermöglicht. Durch die speziellen Brillen betrachtet, die jedem Auge nur „seine“ Bilder zeigen, ist das Ergebnis eine nahtlose Reihe von 3D-Bildern, die sich auf sämtliche Ausmaße der Leinwand erstrecken – aber nie darüber hinaus. Kozachik sagt: „3D funktioniert endlich ohne Einschränkungen, zum großen Teil Dank der digitalen Projektion – eine Linse, ein Projektor.“

Auf Einladung von Selick stattete Lipton LAIKA einen Besuch ab, um eine Reihe von Seminaren zu dieser neuen stereoskopischen Technologie abzuhalten; der Regisseur gibt zu, dass es für die Produktion noch während der Arbeit viel zu lernen gab. „Ausschlaggebend für dieses 3D-Erlebnis“, sagt er, „war, die Essenz dieser Miniaturwelten einzufangen, indem wir zwei Bilder für jeden Frame fotografierten – eines für das linke und eines für das rechte Auge. Also zwei Bilder, aber nicht zwei Kameras.“

Lead Animator Travis Knight bei einer Szene

Lead Animator Travis Knight bei der Arbeit - © Universal

Dennoch waren auf den 52 verschiedenen Stages bei LAIKA ständig sieben einzelne 3D-Kameras im Einsatz. Kozachik meint: „Es war der komplizierteste Stop-Motion-Dreh, bei dem ich je dabei war. Es sind doppelt so viele Einstellungen – rund 1.500 – in „Coraline“ wie davor in „Nightmare“. Man könnte sagen, dass es sieben Second Units und keine First Unit gab – oder aber, dass es eben sieben First Units waren. Ich war am Anfang einer Sequenz dabei und habe Anweisungen zur Beleuchtung oder Anpassung des Sets gegeben – dann über-nahm die jeweilige Unit. Die Monitore am Stage geben immer einen guten Eindruck davon, was schließlich auf der Kinoleinwand zu sehen sein wird.“

„Meine Priorität waren die Stages, die gerade ihre Arbeit aufnahmen oder „hot spot“-Fragen hatten. Schon vor langer Zeit habe ich gelernt zu delegieren.“

Mit einer einzigen 3D-Kamera wird das gleiche Frame zwei Mal fotografiert, bevor man an das nächste Frame geht. Die Kamera wird so programmiert, dass sie sich nach links und rechts dreht, um jedes Frame für das jeweilige Auge einzufangen. Die Auswahl eine „Machine Vision“-Kamera, die sonst bei Industrie-Robotern eingesetzt wird, gab den Filmemachern mehr Flexibilität in den Kamerabewegungen und die Freiheit, sich bei Nahaufnahmen dreidimensional um die Figuren herum zu bewegen.

Außerdem, so Selick, stellte man fest, dass „man für 3D den Abstand zwischen der Linse und dem Subjekt normalerweise so einstellt, wie es dem menschlichen Auge entspricht. Da wir aber mit Miniatur-Figuren gedreht haben, spürten wir, dass wir diesen Abstand verkürzen konnten.“

Assistenz-Kameraman Mike Gerzevitz vermißt die Bildtiefe

Assistenz-Kameraman Mike Gerzevitz vermißt die Bildtiefe - © Universal

„Wir wollten die Augen der Zuschauer näher zusammenbringen – entsprechend dem Abstand zwischen den Augen der Figuren im Film, damit man unmittelbar in deren Welt einsteigen kann“, so Kozachik. „So bekommen die Zuschauer die gleichen visuellen Hinweise wie in ihrem Alltag, aber nichts, was sie zum Schielen bringen würde.“

Selick erklärt: „Die heutige 3D-Technologie kann als ‚stereoskopisch’ bezeichnet werden, weil sich die Zuschauer alles mit beiden Augen anschauen können, wie man es als menschliches Wesen eben tut. Man bekommt ein Gefühl für Tiefe. RealD vermittelt die gesamte Stop-Motion-Welt, die wir als Filmemacher dem Publikum bieten möchten. Bei „Coraline“ setzen wir 3D ein, um das Publikum in die von uns erschaffene Welt eintauchen zu lassen und um die Energie zu vermitteln, die unsere Miniatur-Sets wirklich ausstrahlen. Darum geht es, und nicht nur um Gimmicks wie Dinge, die aus der Leinwand hervor schießen. Die haben wir zwar auch, aber sparsam eingesetzt.“ Kozachik fügt hinzu: „Solche Momente unterstützen die Story und wurden behutsam ins Drehbuch eingebaut. Man gab uns den Rat: ‚Man soll eher die Räume öffnen als dem Zuschauer Dinge ins Gesicht springen zu lassen.’“

Arbeiten am Stopmotion-Set

Arbeiten am Stopmotion-Set - © Universal

Zu diesem Zweck beschwört der Filmemacher auch die Mantras zweier seiner Mentoren, die Oscar-preisgekrönten Visual Effects Artists Dennis Muren und Phil Tippett, nämlich „eine Einstellung, ein Gedanke“ und „worum geht es in der Einstellung?“. Glücklicherweise stellte Kozachik fest, dass „wenn man erst einmal die Basics des stereoskopischen Verfahrens gemeistert hat, es sich zu einem weiteren Kamera-Werkzeug entwickeln kann – vorausgesetzt, es ist nicht das Einzige. Bei „Coraline“ haben wir es als Instrument eingesetzt, mit dessen Hilfe man die Geschichte erzählen kann.“

„Allerdings haben wir mit diesem stereoskopischen Verfahren auch Dinge getan – z.B. beim Fokus und der Tiefenschärfe – von denen man uns abgeraten hatte, und ich finde, alles ist gut gelungen. Wir wollten uns keine Patzer leisten; Henry und ich haben diesmal alles ziemlich auf die Spitze getrieben.“ Beide Welten in „Coraline“ sind in 3D zu sehen; erwartungsgemäß hätten die Filmemacher ihre Story in 2D beginnen können. Erst als Coraline die andere Welt betritt, hätten die Zuschauer dann ihre 3D-Brillen aufgesetzt. Selick war jedoch davon überzeugt, man sollte die Unterschiede zwischen den Welten in der gesamten Filmsprache und Erzählweise verankern. Er sagt: „In Coralines realer Welt haben wir die Sets etwas klaustrophobischer gestaltet. Die Farben sind ausgewaschener, denn ihr Alltagsleben soll eher fade wirken.“

eine digitale 3D-Kamera filmt die Konversation am Küchentisch

eine digitale 3D-Kamera filmt die Konversation am Küchentisch - © Universal

„Wenn sie die andere Welt betritt, sehen die Sets ganz ähnlich aus, sind aber insgesamt tiefer und bieten mehr Raum. Die Farben sind etwas kräftiger und wir bewegen die Kamera mehr. In ihrer realen Welt steht die Kamera fest und bildet eine Reihe von eher langweiligen Tableaus ab. Die „echte“ Welt wirkt wie eine Theateraufführung und die andere Welt daher so viel „realer“ auf sie – und auf die Zuschauer.“

Rillen für Schienen wurden in die Böden eingebaut und einige Wände waren abnehmbar, damit sich die Kamera bewegen konnte, wenn auch nur um jeweils einen Millimeter. Damit sich das Publikum besser mit Coralines Blickwinkel identifizieren kann, war die Kamera normalerweise tiefer als die Augenhöhe eines Erwachsenen.

Lead Animator Travis Knight kontrolliert das Framing

Lead Animator Travis Knight kontrolliert das Framing - © Universal

Die liebevoll ausgestalteten Details und üppige Ausstattung in der Arbeit der Filmemacher wird durch 3D noch hervorgehoben, obwohl „Coraline“ (wie gängige Filme) auch auf 2D konvertiert oder digital ausgedruckt werden kann. Obwohl „Coraline“ also auch in 2D gezeigt werden kann und wird, begeistert sich Dakota Fanning: „Mit der 3D-Brille sieht alles viel toller aus!“ Die Schauspielerin spricht aus Erfahrung: während einer Vorführung des vollendeten Filmmaterials lugte sie kurz unter ihrer 3D-Brille hervor – und stellte fest, dass der Filmgenuss mit Brille um einiges größer war. Sie fügt hinzu: „Selten findet man einen Film, den man sich immer wieder anschauen und in dem man jedes Mal neue Dinge entdecken kann. Ich bin stolz darauf, ein Teil davon sein zu dürfen und werde „Coraline“ immer behalten, um ihn auch meinen Kindern zu zeigen.“

Neil Gaiman (l.), Buchautor von "Coraline" und Regisseur Henry Selick (r.)

Neil Gaiman (l.), Buchautor von "Coraline" und Regisseur Henry Selick (r.) - © Universal

Online-Collaboration: Crowdsourcing-Film "Live Music"

Wenn man zusammen ein Lexikon schreiben kann (Wikipedia), kann man auch durch Crowdsourcing Filme erstellen. Genau das hat Yair Landau, einst Leiter der Digitalfilmsparte bei Sony, mit dem CGI-Kurzfilmprojekt „Live Music“ jetzt bewiesen. Der Neologismus Crowdsourcing beschreibt die Auslagerung auf die Intelligenz und die Arbeitskraft einer Masse von Freizeitarbeitern im Internet. Amateure mit Liebe zum Projekt erarbeiten die zu verwendenen Ergebnisse. Und so wurde der 5-minütige Kurzfilm wurde nicht durch ein klassisches Studio, sondern durch Einzelpersonen realisiert, die sich über die Facebook-Plattform vernetzten. Mehr als 50.000 Menschen aus 101 Ländern registrierten sich auf der Seite, 17.000 luden die erforderliche Software herunter.

massanimationDer Plot ist eine recht klassische Romeo-und-Julia-Geschichte mit unterschiedlichen Musikinstrumenten als Charaktere.  Das vorgebene Film-Drehbuch wurde in viele kleine Sequenzen unterteilt. Zwei Monate hatten die Teilnehmer Zeit, um aus den Vorgaben eigene Szenen zu entwickeln. Im wöchentlichen Rhythmus konnten die User dann über die besten Resultate gemeinsam entscheiden, die Gewinner erhielten kleine Belohnungen, beispuelsweise vom Hardware-Partner Intel. Die finale Auswahl der Szenen traf hingegen eine professionelle Jury: die besten 51 Schnipsel wurden herausgesucht und zusammengefügt- der Film ist fertig! Als Preis bekam jeder der 51 Animatoren einen Betrag von 500 Dollar, außerdem wird ihr Name im Abspann erwähnt.

Landau nennt das Mass-Animation-Verfahren „Einen eindeutigen Schritt in Richtung Demokratisierung des kreativen Storytelling“. Doch findet das Projekt nicht nur Freunde: Zwar haben die 51 Gewinner jeweils 500 Dollar für ihren Beitrag erhalten, im Vergleich zu den Produktionskosten von einer Million Dollar sind diese 25.500 Dollar sozialabgabenfreie Lohnkosten natürlich nur ein Bruchteil. Neben der „Ausbeutung“ der Teilnehmer wird das Zerstören der Animationsbranche beklagt. Solch ein Lohnpreisdumping kann natürlich kein professionell arbeitendes Filmstudio unterbieten. Für die Teilnehmer des Projektes ist es aber sicherlich ein Sprungbrett für weitere Projekte. Auch die prominente Platzierung von Intel wird kritisiert. Intel drängt immer wieder als Hardware- und Renderingpartner in das Feld der CGI-Filme, konkurrierend zu Pixars „Renderman“. Das mag zum Gefühl des kollektiven Filmemachens nicht passen, doch liefert der Computerriese nicht nur das Budget, sondern auch die Technik und eben die Rechenleistung.

Ob die Qualität des Films den heutigen Sehgewohnheiten in Sachen Animationsgeschick, professionellem Look und tragfähiger Geschichte reicht, wird wohl jeder selbst beurteilen müssen. „Live Music“ wird im August auf der SIGGRAPH 2009 uraufgeführt und läuft als Vorfilm des 3D-Films „Planet 51“, der bei uns am 3.12.2009 im Kino startet. Landau hat bereits neue Pläne für einen abendfüllenden Spielfilm.

Hier geht es zur Mass-Animation-Seite auf Facebook. Und natürlich gibt es noch den Werbeteaser zum Kurzfilm:

während Til Schweiger die neue Heidi ist, castet UFA online

Deutschland sucht jetzt keine Topmodels mehr, sondern den nächsten weiblichen Schauspielstar in Hollywood. Einer der erfolgreichsten deutschen Filmpersonen leitet nun die Castingjury: Til Schweiger löst ab heute Heidi Klums Germanys Next Topmodel-Show auf RTL ab, die ja ebenfalls den Großteil der letzten Staffel in L.A. produzierte. Ab heute abend läuft die Show „Mission Hollywood“ im Fernsehen. Aber es gibt für Nachwuchstalente auch eine Chance im Internet- Onlinecastings von UFA online.

Drehbuchautor, Hauptdarsteller, Regisseur, Produzent, Werbemodel- und jetzt auch noch Castingjury. Til Schweiger macht alles, was Geld und Quote bringt. Zwar hat er es selber in Hollywood immer mal wieder probiert (als Rennfahrer, Nazi oder rechte Hand des Bösewichts gegen Lara Croft), so richtig groß raus gekommen ist damit aber nicht. Also Seitenwechsel. Nun sucht er aus 12 jungen Frauen den nächsten Nachwuchs-Hollywoodstar. Im Auftrag von RTL läuft die Show Mission Hollywood ab dem 8. Juni wöchentlich Montag abend zur besten Sendezeit um 20.15h. Durch Challenges, z.B. das Nachstellen von Filmszenen, wird schließlich die Siegerin ermittelt. Muss ich erwähnen, dass die Filmszenen beispielsweise die Orgasmus-im-Restaurant-Szene aus „Harry und Sally“, die Stripszenen aus „9 1/2 Wochen“ oder knutschende Frauen aus „Eiskalte Engel“ sind? Hauptsache Quote. Hauptpreis ist übrigens eine Nebenrolle (aber eine Sprechrolle!) im zweiten Teil der Teenie-Vampir-Franchise Twilight mit dem Titel „New Moon“. Vielleicht wird es auch erst der dritte Teil, mal gucken, wie fix das deutsche Management war. Uns wird sicherlich eine ganze Menge Crosspromotion, nicht nur mit Til Schweiger-Werbespots, erwarten.

Eine ganz andere Möglichkeit zum Einstieg in das Filmgeschäft bietet die UFA Film & TV Produktion GmbH, Marktführer im Bereich Film- und Fernsehproduktion in Deutschland. Seit Februar können sich Nachwuchstalente selber über das Internetportal Your Chance für Rollen in Film und Fernsehen bewerben. Digitales Casting, voll im Web 2.0-Trend. Wer mitmachen will, lädt einfach Videos von sich hoch- und gibt alles beim Schauspielern, Posen, Witze erzählen, Jonglieren oder Eiskunstlaufen. Mehrere Tausend Nutzer haben sich mittlerweile registriert. Aus der Branche übliche Sedcards, also Profile mit Fotos und Videos, gibt es natürlich auch hier. Ein Magazin bietet Informationen über die Hintergründe der Produktionen oder Wissenswertes für Komparsen.

Seit dem Start wurden bereits 16 Castings über das Portal durchgeführt. Zwar bringt einen das nicht nach Hollywood, aber in unterschiedliche deutsche Formate: eine Rolle für „Alles was zählt“ wurde neu besetzt, SOKO Leipzig fand 247 Komparsen, eine Rolle für den Kinofilm „Die Teufelskicker“ wurde ausgeschrieben. Auch Philip Simon wurde über das Portal entdeckt und ging am 22. Mai mit seinem eigenen wöchentlichen Comedy-Format beim Radiosender 104.6 RTL auf Sendung. Zukünftig werden auch Kandidaten für „Das Quiz mit Jörg Pilawa“ und Protagonisten für die ZDF-Serie „Unser Charly“ über das Portal besetzt.

Aktuell laufen Castings für den Film „Go West – Freiheit um jeden Preis“, die Reality-Serie „20something in Berlin“, die Videotagebuch-Doku „Virgin Diaries“ und die Schwindelshow „Sag die Wahrheit“.

Ob passiv auf der Couch oder aktiv als Bewerber- Castingshows sind fester Bestandteil der Unterhaltungsbranche geworden. Dass sich daraus wirklich Hollywood-Stars entwickeln, dürfte in Deutschland eher die Ausnahme bleiben. Trotz (oder gerade wegen) Til Schweiger.

Hier noch der Trailer zu Mission Hollywood:

nächster deutscher 3D-Kinofilm: The Gate (Alex Winter)

Regisseur Alex Winter dreht ein 3D-Remake des Films The Gate vom ungarischen Filmemacher Tibor Takács aus dem Jahr 1987. Könnte der erste deutsche 3D-Film in unseren Kinos werden. Naja, fast, es handelt sich um eine deutsch-britische Koproduktion.

Horror aus dem Hintergarten: drei Kinder entdecken nach dem Fällen eines alten Baumes ein seltsames Loch. Durch die Beerdigung ihres Hundes öffnen die Kinder versehentlich ein Tor direkt zum Bösen: Dämonen einer alten vergangenen Kultur werden entfesselt. Und sind auf der Suche nach zwei Menschenopfern, um deren Welt zu beherrschen. So entwickelt sich ein Kampf zwischen Gut und Böse, im dem die Kinder versuchen, die Welt vor der Übernahme durch die Dämonen zu retten.

Gedreht wird noch dieses Jahr auf dem Produktionsgelände der Kölner MMC-Studios. Die dazugehörige Kölner Produktionsfirma MMC Independant hat für dieses Projekt von der Filmstiftung NRW eine Förderung von 900.000 Euro erhalten.

Ein Filmstart steht noch nicht fest, soll aber im Jahr 2010 liegen.

weitere Plünderung von Literaturklassikern – Sequel zu Journey to the Center of the Earth

Nach dem finanziellen Erfolg (241 Mio $ Einspiel bei 60 Mio $ Produktionskosten) des ersten in 3D gefilmten Langspielfilms Journey to the Center of the Earth rumort die Gerüchteküche um eine Fortsetzung. Das Sequel mit dem Titel Mysterious Travels: The Lost Map of Treasure Island vereint gleich drei Klassiker der Abenteuer-Literatur: „Mysterious Island“ von Jules Vernes, „Treasure Island“ von Robert Louis Stevenson und Jonathan Swifts „Gullivers Travels“.

Dafür tut sich New Line erneut mit Walden Media und Contrafilm zusammen. Richard Outten schreibt am Drehbuch, in dem sich Prof. Trevor Anderson und sein Neffe auf eine Reise zu einer mysteriösen Insel begeben, die in den drei Buchklassikern im Mittelpunkt des Geschehens stand. Journey-Regisseur Eric Brevig unterstützt Outten bei der Skriptfassung, hat aber das Projekt noch nicht als Regisseur angenommen. Auch die Darsteller, inklusive Brendan Fraser, haben noch keine Verträge für die Fortsetzung unterzeichnet.

Es gibt auch noch keine Statements, ob der Film erneut in einer 3D-Fassung produziert wird. Vergleicht man zu Journey die Nutzerkommentare bei IMDb, ist dies dringend angeraten, da Story und Dramaturgie eher schlecht wegkommen, und der Film vornehmlich für sein stereoskopisches Erlebnis, wenn auch mit sehr plakativen Effekten, gelobt wird. Eine 3D-Fortsetzung wäre also dringend empfohlen. Dennoch hoffe ich, dass man auch verstärkt in die Geschichte investiert, ins Publikum sabbernde Dinosaurier hatten wir jetzt schon genug…

Filmproduktionsprozess digital

Die technische voranschreitende Entwicklung der Digitalisierung ermöglicht Neuerungen im gesamten Filmproduktions-Zyklus. Nicht nur das Abspiel wird von analogem auf digitales Material umgestellt, auch die Produktion und Distribution durchlaufen hiermit Veränderungen. Die nachfolgende Abbildung erläutert die einzelnen Schritte der Produktion.

Filmproduktionsprozess

Filmproduktionsprozess

In der Pre-Production werden Drehbücher und Storyboards digital angefertigt. Über entsprechende Zugriffe wird kollaboratives, asynchrones Arbeiten ermöglicht. Veränderungen am Text können schnell umgesetzt oder bearbeitet werden. Zeichnungen für das Storyboard können direkt über Zeichentabletts als digitale Bilder angefertigt werden. Bilder lassen sich ergänzen oder verändern, oder Farbvariationen testen und über Compositing weitere Ebenen hinzufügen. Previsualisierungen wie Animatics bieten einen zeitbasierten Ablauf der Bilder, um Handlung, Timing und Stimmungen der Szenen festzulegen, oftmals werden Tonebenen wie Sprache, Musik und Geräusche an die Bilder angelegt. Einzelne Bilder, Tonebenen oder das Timing kann leicht verändert und direkt getestet werden.

In der Produktion werden die Szenen in Bild und Ton erstellt. Hochauflösende digitale Filmkameras finden fortschreitende Verbreitung. Ein großer Vorteil digitalen Materials ist die Möglichkeit zur direkten Kontrolle der gedrehten Szenen. Es muss kein analoges Filmmaterial über Nacht entwickelt werden, die digitalen Aufzeichnungen können direkt vor Ort gesichtet und auf Qualität überprüft werden.

Das erzeugte Material kann mit einer Datenverbindung oder auf einem Datenträger an die Postproduktion geschickt werden. Dort werden Bild und Ton digital bearbeitet. Animationen und Spezialeffekte lassen sich einfügen. Da diese heute fast ausschließlich computergeneriert sind, lässt sich durch die digitalen Aufnahmen viel Zeit für den sonst erforderlichen Schritt des Rollfilm-Scans einsparen. Auch der Schnitt des Materials kann an entsprechenden Workstations mit beispielsweise Avid oder Final Cut digital erfolgen. Vorabversionen lassen sich beispielsweise für Testscreenings oder Abnahmen ausspielen. Schließlich erfolgt das digitale Mastering, in dem die Endversion des Films als Digital Source Master (DSM) ausgespielt, und an den Verleih weitergeleitet wird.
Im Auftrag des Verleihs übernimmt ein Playout-Center oder Kopierwerk die Archivierung der hochauflösenden Master und die Vervielfältigung des Films auf digitalen Datenträgern für die Kinos. Ein Digital Cinema Distribution Master (DCDM) wird erstellt. Es beinhaltet sämtliche projektionsbezogenen Daten, wie Bild, Ton, unterschiedliche Sprachversionen und Untertitel. Es besteht die Möglichkeit der Erweiterung mit individuellen Codecs.
In der Distribution erfolgt der Versand mittels Datenträger oder über per Datenübertragung im Push- oder auch Pullprinzip. Dabei sind Verschlüsslungen erforderlich, um einen Schutz gegen Raubkopien zu bieten. Sogenannte Intermediaries übernehmen die verlustfreie Übertragung der Daten per Datenleitung.
Im Vorführraum des Kinos werden die Filme auf den Server überspielt oder mit speziellen Festplatten als Wechselplatte integriert. Zusammen mit den digitalen Schlüsseln werden die Filme für die Vorführung freigeschaltet und für das Abspiel, die Projektion, vorbereitet. Hierbei lassen sich über Peripheriesysteme auch die vorgeschaltete Produkt- und Trailerwerbung kombinieren und systematisierte Abläufe zusammen mit den Theater Management System (TMS) steuern.

Anhand der einzelnen Schritte wird deutlich, wie sich durch die voranschreitende Digitalisierung Arbeitsprozesse verändern. Zusammenarbeit kann kollaborativer, dezentralisierter und effizienter gestaltet werden. Während die ersten Schritte bereits zunehmend den analogen Bereich verlassen haben, hinkt die digitale Projektion gerade in Deutschland noch sehr hinterher. Es gilt Synergien zu nutzen und Geschäftsfelder zu besetzen. Also, in die Hände gespuckt und 1 und 0 fabrizieren!