Tim Burtons neues Werk „Alice im Wunderland“ bringt uns eine Vielzahl verrückter und doch liebenswerter Charaktere aus Unterland. Ich habe euch bereist die Rote Königin Iracebeth und die Entstehung ihres Reichs vorgestellt (kann man hier und auch hier nochmal nachlesen). Heute möchte ich euch das Weiße Kaninchen vorstellen, dass im Film nicht nur für die Kaninchenlöcher zuständig ist.

McTwisp, das Weiße Kaninchen (im Original gesprochen von Michael Sheen) ist immer zu spät und ständig in Eile. Mit dem Auftrag Alice zu finden und sie nach Unterland zurückzubringen, damit sich ihr Schicksal erfüllen kann, taucht es auf ihrer Gartenfeier auf und versucht sie in das Kaninchenloch zu locken. “Er ist ein warmherziger Charakter,” sagt Sheen über seine Figur, “aber er kann auch penibel und streng mit Alice sein. Er hat Ecken und Kanten, eine Art nervöse Energie und denkt ständig, er sei zu spät dran. Zeit ist ihm wirklich wichtig, aber wenn es darauf ankommt, kann er auch ziemlich tapfer sein.”

Ein sympathisches Kerlchen, wie ich finde. Wie das Weiße Kaninchen im Film zum Leben erweckt wird, zeigen euch die folgenden Progression-Aufnahmen:

Schritt 1: Das weiße Kaninchen ist die erste animierte Figur, auf die Alice im Film trifft. Im ersten Bearbeitungsschritt für diese Szene wird eine Storyboard-Skizze des Kaninchens angefertigt.

ALICE IN WONDERLAND

Schritt 2: Die Imageworks-Künstler kreieren eine niedrig-auflösende Version der computeranimierten Figur und setzen sie anschließend in die computeranimierte Umgebung. Die geringe Auflösung ermöglicht es den Animatoren, schneller und flexibler an der Szene arbeiten.

ALICE IN WONDERLAND

Schritt 3: Ist die Animation der Figur abgeschlossen, wird eine hoch-auflösende Version des weißen Kaninchens an einem viel detaillierterem Model erstellt, das als „pit render“ bezeichnet wird.
ALICE IN WONDERLAND

Schritt 4: Ist die Entwicklung der Bewegungsabläufe abgeschlossen, erhält das Kaninchen sein Fell und seine Kleidung. Für diesen Prozess greifen die Animatoren auf komplexe Computerprogramme zurück, die extra dazu geschaffen wurden, um das Fell und das Gewebe der Kleidung so realitätsgetreu wie möglich darzustellen.
ALICE IN WONDERLAND

Schritt 5: In der finalen Szene werden alle hochauflösenden Elemente vereint und erhalten ihre abschließende Beleuchtung und Struktur: das vollständig bekleidete Kaninchen mitsamt Fell sowie die computeranimierte Umwelt, der matt gezeichnete Hintergrund und die Blätter, die sich bewegen.
ALICE IN WONDERLAND

„Alice im Wunderland“ startet am 4. März 2010 in unseren stereoskopischen 3D-Kinos. Ich hoffe, McTwisp hat Zeit. 🙂

Bisher konnte niemand AVATAR von der Kinokasse verdrängen, doch gibt es bald einen mächtigen Gegner: Die Rote Königin aus Tim Burtons neuem Film „Alice im Wunderland“. Disney bringt dieses kreative-phantastische Werk am 4. März in unsere stereoskopischen 3D-Kinos, und dann wird es eng in Zeitplan.

Technisch ist der Film zwar anders konzipiert, Burton vereint aber eine große Palette von Schauspiel, CGI-Charakteren und Motion-Capturing zur Umsetzung seiner Vision. Ohne moderne digitale Tricktechnik geht nichts. Und Disney lässt uns Anteil haben an der Entstehung seiner optischen Tricks. Am Wochenende hatte ich bereits erste Progression-Aufnahmen einer Szene mit der Roten Königin veröffentlicht (kann man sich hier noch mal ansehen).

Iracebeth, die Rote Königin wird von Helena Bonham Carter gespielt. Sie ist die tyrannische Herrscherin von Unterland. Mit ihrem überdimensional großen Kopf, ihrem hitzigen Gemüt und ihrem Hang dazu Leute gleich köpfen zu lassen, regiert sie über ihre Untertanen mit Angst und Schrecken. “Sie hat emotionale Probleme,” sagt Bonham Carter über ihre Figur. “Wegen nichts und wieder nichts verliert sie die Fassung. Ihre Wutanfälle sind wie die eines Zweijährigen.” Ihre jüngere Schwester, die Weiße Königin, hat es auf den Thron und die Krone abgesehen, die Iracebeth ihr einst gestohlen hat.

Hier kommt ein weiteres Set von Bildern, das die Entstehung des Reichs der Roten Königin zeigt:

Schritt 1: Die Rote Königin wird vor einem Greenscreen-Hintergrund gefilmt, der mit grünen Requisiten ausgestattet wurde. Die Säulen werfen passende Schatten und die Holz-Frösche dienen der Darstellerin als Spielpartner für die Szene und geben ihr eine Orientierung für die Blickrichtung.

ALICE IN WONDERLAND

Schritt 2: Zahlreiche der benutzten Techniken wurden erst während der Produktion entwickelt. So wurde der Kopf der Roten Königin um das Zweifache vergrößert und ihre Taille verschmälert, um sie wie eine Karikatur wirken zu lassen. Ihr Hals und das Kinn wurden nahtlos an den Kragen und die Schultern geschnitten.

ALICE IN WONDERLAND

Schritt 3: Die Imageworks-Animatoren fügen computeranimierte Frösche und die roten Ritter hinzu sowie Vögel, die den Kronleuchter halten, und Affen, die die Kerzenleuchter tragen. Menschliche Höflinge, die separat vor einem Greenscreen gefilmt wurden, werden rechts von der Königin platziert. Dies war eine große Herausforderung für das Team der Visual-Effects-Abteilung.

ALICE IN WONDERLAND

Schritt 4: Die Frösche erhalten ihre richtige Haut sowie perfekt angepasste Kleidung und die Vögel bekommen ein realitätsgetreues Federkleid.

ALICE IN WONDERLAND

Schritt 5: Zum Abschluss erhalten alle Oberflächen ihre Beleuchtung und Struktur. Die Greenscreen-Aufnahmen werden farblich angeglichen, so dass sie in die Szene passen.

ALICE IN WONDERLAND

„Alice im Wunderland“ startet am 4. März 2010 in unseren stereoskopischen 3D-Kinos.

Alle Bilder © Disney

Disney hat verstanden, dass sich Menschen nicht nur für den Film selbst, sondern auch für seine Entstehung und die technische Umsetzung interessieren. Im September 2009 hatte ich euch schon mal einen Artikel über die unterschiedlichen Produktionsphasen eines Animationsfilms geliefert (kann man hier nachlesen). Für Disneys neuesten Phantasie-Streich „Alice im Wunderland“ gibt es nun eine Serie von Progressions-Aufnahmen, die ich euch vorstellen möchte. Tim Burton setzt in seinem Film reale Schauspieler, computergenerierte Figuren, Motioncapturing und jede Menge Compositing ein, um alles zusammen zu führen. Dafür werden viele Aufnahmen vor Greenscreengefilmt, um reale Schauspieler in virtuelle Szenerien zu versetzen. Durch neu entwickelte Techniken sind auch Größenunterschiede oder Verzerrungen wie bei der Kopfgröße der Roten Königin möglich und ergeben einen ganz individuellen Look.

Aber seht selbst Bild für Bild:

Schritt 1: Die Rote Königin wird vor einem Greenscreen-Hintergrund gefilmt. Dabei wurde eine hoch-auflösende 4K-Digital-Kamera verwendet, damit ihr Kopf vergrößert werden kann ohne dabei an Bildqualität einzubüßen. Der Stuhl, auf dem sie sitzt, ist ebenfalls grün, um ihn später durch sein digitales Duplikat zu ersetzen.

ALICE IN WONDERLAND

Schritt 2: Die Macher verwendeten spezielle Programme, die im Laufe der Produktion für diese Zwecke entwickelt wurden. Sie ermöglichten es, den Kopf der Roten Königin zu vergrößern sowie ihren Hals und das Kinn nahtlos an den Kragen ihres Kostüms anzufügen.

ALICE IN WONDERLAND

Schritt 3: Die Rote Königin wird in eine vorläufige computeranimierte Umgebung mit einfachen Modellen der späteren Ausstattung im Hintergrund gesetzt. Erste Versionen der Affen, die die Kerzenleuchter halten, werden ebenfalls hinzugefügt.

ALICE IN WONDERLAND

Schritt 4: Die Affen erhalten durch die Animatoren von Imageworks ihr Fell und ihre Kleidung.

ALICE IN WONDERLANDSchritt 5: Den Kerzen werden in diesem Schritt ihre Flammen hinzugefügt.

ALICE IN WONDERLAND

Schritt 6: Die Abschluss-Szene beinhaltet die richtige Beleuchtung, Struktur und eine finale Farbanpassung.

ALICE IN WONDERLAND

Das ist natürlich wunderbares Futter für DigitaleLeinwand.de. Zwar ist viel Technik von Nöten, um die phantastische Unterwelt zu erschaffen, alle verfügbaren Mitte werden eingesetzt, neue Techniken entwickelt. Doch ist es kein purer Selbstzweck, die Technik tritt zurück und dient völlig der Geschichte. Ich war eh schon gespannt auf Tim Burtons Fassung von Alice im Wunderland, mittlerweile freue ich mich wirklich sehr darauf!

Seit langer  Zeit beschäftige ich mich mit Trailern in ihrer Funktion als wichtigstes Werbemittel für Kinofilme. Ein Trailer vermittelt nicht nur Informationen über die Schauspieler, Regisseur und die Handlung, sondern gibt auch einen visuellen Eindruck des Film. Dieser Look wird zur bestimmenden Ausrichtung des ganzen Films. Dabei geht es nicht nur um Effekte oder besonders markante Szenen, sondern um das gesamte Produktionsdesign.

Seit einiger Zeit gibt es das Phänomen der Fantrailer, Weiterlesen

Das Kino der dritten Dimension hat im letzten Jahr gezeigt, dass die Lichtspielhäuser technisch den Heimkinoanlagen immer noch den entscheidenden Schritt voraus sind. Doch nicht nur Hollywood reagiert auf eine neue Erlebniskultur in den Filmtheatern. Auch der kommunale Unternehmensverbund DSW21 aus Dortmund hat einen Kinowerbespot von der Produktionsfirma ZOOM-Entertainment GmbH in die dritte Dimension umwandeln lassen. In dem Spot bewegt sich Deutschlands erfolgreichste Parkour-Artistin Sandra Hess durch die Stadt und überwindet mit atemberaubenden Sprüngen die normalen städtischen Bauten. Unter der Regie von Ivan R. Sertic und unterlegt mit der Musik der international erfolgreichen Band King´s Tonic, die den Corporate Song von DSW21 eingespielt hat, sprintet Sandra Hess nun in drei Dimensionen zu ihrem Liebsten.

Zu sehen ist der Werbespot derzeit im Cinestar Dortmund im Vorprogramm von James Camerons Blockbuster „AVATAR- Aufbruch nach Pandora“. Oder auf der Webseite des Kölner Produktionshauses: www.zoom-entertainment.de. Und natürlich hier auf DigitaleLeinwand.de. Achtung, eine 3DBrille in Rot/Cyan wird dafür benötigt!

Die ZOOM-Entertainment GmbH ist als Dienstleister im Bereich der Kino- & TV-Werbung tätig. Eine weitere Kernkompetenz ist die Wandlung von 2D Spots in 3D Werbespots. Zu den Kunden der Kölner Agentur zählen Unternehmen wie Mercedes-Benz, UVEX oder DSW21. Mehr Beispiele gibt es auf der Webseite von ZOOM-Entertainment unter www.3d-werbespots.de/demo.htm

Derzeit wird viel über die Konvertierung von Hollywood-Filmen von 2D auf stereoskopisches 3D diskutiert, gestern gab es die Nachrichten bezüglich „Kampf der Titanen“ und den finalen Teilen der Harry Potter-Saga. Das sind zwar große Hollywood-Produktionen und keine Werbespots, die Arbeit ist jedoch die gleiche. Wie genau der Prozess der Umwandlung eigentlich von statten geht, ist den wenigsten bekannt. ZOOM Entertainment war so freundlich und hat DigitaleLeinwand MakingOf-Material der Umwandlung zur Verfügung gestellt.

Der besondere Clou dieser Produktion ist das Herstellungsverfahren. Der Spot wurde ursprünglich im Jahr 2007 in normaler zweideimensionaler Aufnahmetechnik realisiert. Bei dem von der ZOOM-Entertainment GmbH angewandten Verfahren wurde für die 3D-Darstellung jedes einzelne Filmbild (24 Bilder/Sekunde) in ein stereoskopisches Filmbild (S3D) umgewandelt. 2.400 Bilder wurden einzeln bearbeitet und für die realistische 3D-Darstellung optimiert.

Nun kann man nicht einfach die Filmbilder gegeneinander verschieben, sondern muss für den Tiefeneindruck die gesamten Szenen nachbauen und mit zwei virtuellen Kameras die Augen simulieren.

3d-pressebild_1

Wie ihr auf dem Bild sehen könnt, werden die einzelnen Elemente des Film separiert. Dafür stellt man die Objekte mit einer Bildbearbeitungssoftware frei und maskiert diese. Für die Ergänzung der Tiefendimension werden in einem 3D-Animations-Programm diese Elemente als 3D-Modelle nachgebaut, das betrifft nicht nur die Gebäude, Straßen und Objekte, sondern auch die Person, die man als Drahtgitter-Modell nachbaut. Anstatt einer erzeugten Textur werden nun die Videodaten als eine Art Haut auf die 3D-Elemente projiziert. Die Elemente werden entsprechend ihrer Anordnung in der Tiefe zueinanander ausgerichtet, und zwar in etwa so, wie sich die Entfernungen damals bei der Aufnahme verhielten. Das sieht zwar bei manchen Objekten wie dem freundlichen Seniorenpärchen ein wenig nach flachen Schablonen aus, ist für den schnellen Eindruck aber ausreichend. Komplexe Figuren wie die Parkour-Läuferin werden nicht als flaches, sondern als räumliches, dreidimensionales Modell angelegt.

Nun werden die einzelnen Elemente animiert. Alles was sich im Film durch den Raum bewegt, muss sich natürlich auch in dieser nachgebauten dreidimensionalen Welt bewegen. Besonders aufwändig sind dabei die Bewegungsabläufe der Hauptfigur.

Da Filme selten aus einer starren Kameraperspektive gefilmt werden, gehört das Setzen der Kamerafahrten und die Einstellung der virtuellen Brennweiten zum nächsten Schritt im Animationsablauf.

3d_pressebild_2

Für jedes Auge wird ein eigenes Video erzeugt. So wie die Augen auseinander stehen, wird auch die Kamera um die so genannte Stereobasis versetzt. Im virtuellen Raum eines 3D-Animationsprogramms wie Cinema 4D braucht man kein sperriges Spiegelrig, da die Kameras virtuell gesetzt und positioniert werden können. Schließlich wird von der Animationssoftware für jede der beiden Kameras und jeden Frame ein Einzelbild berechnet. Damit man auf dem Computerdisplay auch 3D-Bilder sehen kann, müssen diese mit dem Anaglyphen-Farbsystem codiert werden. Die Bilder für das rechte Auge sind Rot, die Bilder für das linke Auge in Cyan, einem Blauton, codiert. Einige Programme können die beiden Bilder zusammengerechnet ausgeben, ansonsten kann dieser Prozess in einer Videosoftware vorgenommen werden.

Und da bewegte Bilder das Ganze viel eindrücklicher beschreiben, könnt ihr euch hier das MakingOf-Video der 3D-Konvertierung ansehen:

Ich hoffe euch einen interessanten Einblick in die 3D-Konvertierung gegeben zu haben. Wir werden in diesem Jahr sicherlich noch einiges an stereoskopischer 3D-Werbung im Vorprogramm von 3D-Filmen zu sehen bekommen. Dann heißt es gleich zu Beginn des Programms: Brille auf!

Hinweis: Beim 3D-Werbespot keine dritte Dimension erkannt? Für die Betrachtung benötigt man eine Anaglyphenbrille in den Farben Rot/Cyan. Hier habt keine Brille? Dann könnt ihr unter diesem Menupunkt eine bestellen.

Im Juli hatte ich über das erste Mass Animation Projekt mit dem Titel „Live Music“ berichtet. Nun gibt es von den Machern ein neues Projekt, in dem begabte 3D-Animatoren ihr Können unter Beweis stellen können. Und diesmal gibt es Spannenderes zu animieren als Musikinstrumente: Superhelden.

animation contest

Das DC Universe vereint eine ganze Schar von Helden und Villains, hier dürft ihr euch an Batman und dem Joker, Wonder Woman und Circe, sowie Superman und seinem Antagonisten Lex Luthor versuchen.

Für das neue Projekt werden wieder viele talentierte Animatoren gesucht. Man kann wählen, ob man für das Computerspiel eine Game-Charakter-Animation übernehmen möchte, oder lieber eine Szene aus dem dazugehörigen Gametrailer liefert. Schließlich wählt man sich aus den Storyboard-Vorlagen seine zu bearbeitende Szene. Nachdem man alles hübsch fertig animiert hat, lädt man seine Szene auf das Portal hoch. Die anderen User können nun die Qualität der Ausführung bewerten. So will man natürlich noch mehr Aufmerksamkeit schaffen, da jeder Animator all seine Freunde motiviert, für seinen Beitrag zu stimmen. Die besten Szenen werden dann schließlich zum Gametrailer zusammengesetzt oder fließen in das Spiel ein.

Alles was man zum Animieren benötigt, wird von Massanimation gestellt. Inklusive einer Spezial-Edition der 3D-Animations-Software Autodesk Maya. Auch erhält man vollständig geriggte 3D-Modelle der Charaktere und natürlich die benötigeten Szenen. Man richtet sich in seinem Werk nach dem Storyboard und den Designs. Während die offizielle Webseite nur repräsentativen Charakter hat, wird das komplette Projekt über Facebook abgewickelt, genau wie damals „Live Music“. Ihr könnt euch vorstellen, dass der Download ein wenig umfangreicher geraten ist, alleine die Maya Edition schlägt mit gut 460 MB auf die DSL-Leitung.

So soll es dann später mal aussehen. Hier das Storyboard für den Trailer:

[flv]http://cdn.massanimation.com/flv/sequence/Trailer1.flv[/flv]

Ich stehe genau wie bei „Live Music“ auch diesem Projekt ein wenig kritisch gegenüber. Das Storyboard ist vorgegeben, also sind Handlung, Einstellungen und Bewegungen bereits festgelegt. Nun braucht man die Scharen begabter Nerds um die Animationen abzuarbeiten. Und wer besonders gut ist, gewinnt vielleicht ein Laptop. Und seine Animation ist im Trailer oder im Spiel zu sehen. Da arbeiten Tausende Personen Stunden um Stunden, die meisten vermutlich für den Papierkorb. Und letztlich kommt ein Trailer, bzw. Spiel dabei heraus, der für eine nicht Hunger leidende Firma ein kommerzielles Produkt vertreibt. Ein weiterer Vorteil: man hat natürlich ein Zusammengehörigkeitsgefühl und alle Animatoren kaufen sich bestimmt auch das Spiel. Ich hatte Crowdsourcing und collective Filmmaking anders verstanden. Wie seht ihr das?

Nach dem Kino wird auch das Casting digital: Gerade sind die Gebrüder Coen mit ihrem Film „A serious Man“ in den Kinos, und schon wird am nächsten Projekt bereits gearbeitet. „True Grit“ heißt das Werk, und könnte ein Remake des gleichnamigen Westerns mit John Wayne auf Basis der Novelle von Charles Portis sein. Allzuviel ist über den Film noch nicht bekannt, aber Matt Damon, Jeff Bridges und Josh Brolin werden mitspielen, voraussichtlicher Start in den USA ist Weihnachten 2010.

Und jetzt werden kleine Mädchenherzen höher pochen: Für die weibliche Hauptrolle der Mattie sucht Paramount Pictures noch die passende Darstellerin- über ein Videocasting.

Neben öffentlichen Vorsprech-Terminen in den USA gibt es auch die Möglichkeit sich selber zu filmen. Neben dem Textausschitt gibt es auch klare Regieanweisungen: Gesucht wird ein Mädchen zwischen 12 und 16 Jahren für die Rolle der Mattie. Sie wird als einfache, unnachgiebige junge Frau aus dem Arkansas nach der Civil-War-Zeit beschrieben. Weiter:

„Her unusually steely nerves and straightforward manner are often surprising to those she meets. She possessed plenty of true grit and determination. Enough so that she insists on going with 2 marshals to hunt down the killer of her father.“

Den Skriptauszug aus dem Drehbuch zur Vorbereitung der Rolle gibt es hier zum Download:

skript mattie

Die Bewerbungsvideos können inklusive der Bewerbungsunterlagen an die Castingfirma geschickt werden. Nur sollte man sie nicht auf Youtube und Co hochladen, da die Firma die Clips herunterladen können muss….

Mehr Infos auf der offiziellen Webseite http://www.truegritcasting.com/index.html

Wer sich selbst von Mensch in Na’vi verwandeln möchte, das Avatarize Yourself aber zu automatisch und das Avatar-MakeUp zu, ähm, künstlerisch war, sollte die Photoshop-Variante wählen. Peter Ammentorp Lund hat ein Timelapse-Video seiner Verwandlung von Mensch nach Na’vi auf Vimeo zur Verfügung gestellt. Als direktes Tutorial geht es zu flott, aber die Arbeitsschritte kann man sich durchaus abgucken. Wenn es auch mehr Wolf als Kätzchen wird, aber das liegt am Ausgangsmaterial! 🙂

Es gibt offensichtlich eine ganze Menge Fans von „AVATAR – Aufbruch nach Pandora“ in Deutschland. Das merkt man nicht nur an der Kinokasse, sondern auch an den linguistischen Bemühungen. Vor Weihnachten hatte ich einen Artikel über die Erfindung der Sprache der Eingeborenen von Pandora, den Na’vi, gebracht. Fans aus der ganzen Welt haben sich nun auf die Sprache gestürzt, um für ihren Flug nach Pandora gewappnet zu sein. Das Kompendium ist mittlerweile neben Englisch auch auf Deutsch, Französisch, Portugiesisch, Spanisch und Russisch erhältlich (Danke an Negord für den Hinweis!). Außerdem gibt es einen eigenen Bereich im Forum für Deutsch -Na’vi. Hier das Pxìllan aka Quentin Martinez übersetzte deutsche Kompendium (zum Vergrößern auf das Bild klicken):

Navi Kompendium Deutsch

Navi Kompendium Deutsch

Und hier hattet viele Anfragen nach dem im Film benutzten Font gestellt. Der lautet „Papyrus“. Die Schriftart wurde 1982 vom Designer Chris Costello gestaltet und veröffentlicht. Auf der Webseite gibt es sogar ein Filmchen zum Font. Damals war das alles noch Handarbeit mit Kalligraphie-Stift und texturiertem Papier. Der Einsatz von Papyrus als alt aussehende Schrift mit einem Touch von Hieroglyphen gilt als etwas überansprucht, das traf nicht nur auf Gegenliebe. Wer Papyrus unbedingt mal  ausprobieren möchte, sollte sich bei Boldfonts umsehen.

James Camerons „AVATAR – Aufbruch nach Pandora“ läuft im Kino wie frisches Popcorn. Doch der Weg bis zum fertigen Film war lang. Erst durch die Eigenentwicklung der benötigten Techniksysteme konnte Cameron seine Vision des Films realisieren. Dieser umfangreiche Artikel bietet euch einen Einblick in diese Arbeit. Außerdem gibt es noch zwei Featurettes über die Vision von Cameron und über das Performance Capturing mit beeindruckendem MakingOf-Material.

Cameron suchte nach einem Weg, die Erschaffung außerirdischen Lebens ins 21. Jahrhundert zu führen. Als er 1995 die rasenden Fortschritte in der Erschaffung digitaler Charaktere sah, glaubte er, dass sein in einer anderen Welt angesiedeltes Traumprojekt vielleicht realisiert werden könnte. Nachdem er bereits in der Entwicklung digitaler Charaktere Meilensteine wie die Aliens in „Abyss“ (1989) oder den verflüssigten Killerroboter in „Terminator 2-Tag der Abrechnung“ (1991) geschaffen hatte, wollte er die neue Kunstform der digitalen Animation auch zu neuen Höhen treiben. Aus diesem Grund schrieb er das Treatment zum visuell enorm ambitionierten „Avatar – Aufbruch nach Pandora“.  Doch als dieses Treatment von Experten für Digitalanimation genau analysiert worden war, erkannte Cameron, dass man von fotorealistischen Technologien noch Jahre entfernt war. Deshalb wurde das Projekt zunächst auf Eis gelegt.

Featurette über James Camerons Vision:

Die Entwicklung des Performance-Capturings

Als Cameron sich 2005 wieder dem Projekt zuwandte, schien es so, als stünde der notwendige technologische Durchbruch unmittelbar bevor. Damals allerdings gab es noch Bedenken, dass die Charaktere vielleicht nicht ganz real wirken würden, dass der störende Aspekt der „toten Augen“, Augen also, die nicht lebendig wirkten, auch hier zum Tragen kommen würde – wie schon in den ersten Filmen, die mit dem Performance-Capture-Verfahren gearbeitet hatten. Camerons Team wollte weit über die Ergebnisse dieser frühen Versuche hinausgehen, denn die Figuren sollten absolut lebensecht wirken. Um das zu erreichen, wurde ein neues „gesichts- und bildbezogenes Performance-Capture-System“ entwickelt. Man verwendete eine Kamera, die über eine Apparatur am Kopf getragen wurde, um auch die kleinsten mimischen Nuancen auf den Gesichtern der Schauspieler einfangen zu können und später auf ein computergeneriertes Modell zu übertragen.

Cameron wollte bei der Erschaffung seiner Außerirdischen kein Makeup benutzen. Aliens mit menschlichen Zügen werden seit Jahrzehnten von Schauspielern gespielt, von den B-Movies der 50iger Jahre bis hin zu TV-Ablegern von Star Trek. Jede Art und Methode Gummi auf das Gesicht eines Schauspielers zu applizieren, wurde versucht. Und es zeigte sich schnell, wie eingeschränkt dieses Verfahren ist. Die Größe der Augen und der Augenabstand können nicht verändert werden. Man kann weder die Körperproportionen ändern noch die Gesamtgröße eines Charakters. Eine Gummimaske beschränkt die Darstellungsmöglichkeiten der Schauspieler und wirkt wie eine Barriere zwischen dem Schauspieler und der Kamera.

Die Perfomance-Capture Methode umgeht diese negativen Aspekte. Obwohl die CG-Figuren den Schauspielern ähneln, unterscheiden sie sich in ihren grundsätzlichen Proportionen. Die Augen der Na’vi sind im Durchmesser zweimal so groß wie menschliche Augen und liegen auch weiter auseinander. Die Na’vi sind wesentlich schlanker als Menschen, haben längere Hälse, unterschiedliche Knochen- und Muskelstrukturen, darunter auch Hände mit nur drei Fingern, das offensichtlichste Unterscheidungsmerkmal (Plus Daumen, die Avatare haben vier. Ist euch nicht aufgefallen, oder?). Als digitale Figuren können die Na’vi und die Avatare in ihrer Gestalt viel größer als Menschen sein. Blaues Make-Up hätte die Haut abgedunkelt, aber mit digitaler Technik erhalten die Figuren eine lichtdurchlässige Haut. Diese verhält sich ähnlich wie menschliche Haut, wenn die Pigmente auf der Hautoberfläche nicht den roten Schimmer des darunter fließenden Bluts verdecken, beispielsweise, wenn starkes Sonnenlicht die Ohren der Figuren von hinten beleuchtet. Die Verbindung dieser Feinheiten ermöglicht es, scheinbar lebendige Kreaturen zu erschaffen.

Beim Motion-Capture-Verfahren bringt man reflektierende Marker auf den Gesichtern der Schauspieler an, um mimischen Ausdruck einfangen zu können. Für AVATAR ging man andere Wege. Die Schauspieler trugen spezielle Kopfapparaturen, ähnlich Football-Helmen. Daran wurde eine kleine Kamera mit Beleuchtung (und Na’vi-Ohren) angebracht. Diese Vorrichtung war auf die Gesichter der Schauspieler ausgerichtet, so konnte die Kamera mimischen Ausdruck und Muskelbewegungen so detailliert aufnehmen, wie das zuvor nie möglich gewesen war. Am wichtigsten war aber, dass die Kamera Augenbewegungen aufnehmen konnte, wozu frühere Systeme nicht in der Lage gewesen waren.

Mit Hilfe der Kopfapparaturen konnte man den Gesichtsausdruck der Schauspieler so klar und präzise wie nie zuvor einfangen. Und weil dieses System unabhängig von den Motion-Capture-Kameras der Vergangenheit operierte, wurden letztere nur für die Aufzeichnung von Körperbewegungen eingesetzt. So konnte man sich damit viel weiter von den Schauspielern entfernen. Dies wiederum ermöglichte es dem Team von AVATAR, das Capture-Verfahren in einem viel größeren Studioraum, genannt „The Volume“, als je zuvor einzusetzen. Bei AVATAR war dieser sechsmal so groß wie frühere Volume- Versionen. Hier konnten nun echte galoppierende Pferde, Stunts mit komplizierten Draht- und Kabelsystemen, und sogar Luftkämpfe zwischen Flugzeugen und fliegenden Kreaturen erfasst werden. Damit waren die revolutionären Kopfapparaturen nicht nur der Schlüssel für die kleinsten Gefühlsnuancen der Charaktere, sondern auch für die größten und spektakulärsten Szenen des Films.

Die Schauspieler arbeiteten unermüdlich daran, diese körperlichen, sprachlichen und emotionalen Nuancen, die von elementarer Bedeutung für ihre Figuren und Camerons Vision waren, in ihre Darstellungen zu integrieren, während Cameron entschlossen war, all das auch in den digitalen Inkarnationen der Schauspieler sichtbar zu machen.

Worthington und die anderen Darsteller empfanden es als befreiend, im Volume auf der nackten Bühne zu arbeiten, während sie die speziellen Anzüge und Kopfapparaturen für das Performance Capture trugen. „Wir haben uns das Performance-Capture-Verfahren zu eigen gemacht und hatten damit viel Spaß“, erklärt Worthington. „Obwohl Jakes Avatar 2 Meter 70 groß und komplett blau ist, hat er doch meine Persönlichkeit und Seele in sich. Es ist einfach spektakulär, dass Jim dies gelungen ist.“

„Performance Capture ist unglaublich befreiend“, fährt Worthington fort. „Man kann sich nicht verstecken, jede Einstellung muss wahrhaftig sein. Am Anfang ist das Ganze etwas nervenaufreibend, aber man vergisst schließlich, dass man eine Art Helm trägt und ein paar hundert Punkte auf seinem Gesicht hat.“

„Man fragt sich“, fügt Laz Alonso hinzu, „ob man mental in der Lage sein wird, auf die graue, nüchterne [Performance Capture] Bühne zu schauen und dann eine riesige Schlange oder üppigen Regenwald sehen zu können. ‚The Volume’ ist ein absolut trister Ort. Aber dank Jims Inszenierung, dem Performance-Capture-Verfahren und der virtuellen Kamera nimmt etwas Großartiges seinen Anfang. Man beginnt, diese Tiere und diese unglaubliche Umgebung wirklich zu sehen. Man dringt so tief in diese Welt vor, dass man beginnt, Pandora vor Augen zu haben, es zu riechen, zu hören und auch zu fühlen.“

Die Art und Weise, wie The Volume die Fantasie belebte, erinnerte Joel David Moore an die Wurzeln der Schauspielerei. „Wenn man auf der Performance-Capture-Bühne arbeitet, führt das einen in die alten Theatertage zurück, wenn man nur eine Wand, einen Tisch und ein paar Stühle vor sich hatte und sich alles andere vorstellen musste.“

Featurette über das Performance Capturing:

Virtuelle Kamera, Simul-Cam und Previz

Eine weitere Innovation, die speziell für AVATAR entwickelte virtuelle Kamera, erlaubte es Cameron, Sequenzen in digital kreierten Welten so zu drehen, als befände er sich auf einem Studioset in Hollywood. Durch diese virtuelle Kamera sah der Regisseur nicht Zoë Saldana, sondern Neytiri, die von ihr gespielte, über drei Meter große und blauhäutige Figur. An Stelle von Sam Worthington und Sigourney Weaver sah er ihre riesigen blauen Avatare, komplett mit Schwänzen und großen goldenen Augen. Und anstelle des nüchternen grauen Raums, der sich ihm mit „The Volume“ darbot, sah er den üppigen Regenwald von Pandora, die schwebenden Hallelujah Berge oder Hell’s Gate, die Siedlung der Menschen. Eigentlich ist The Volume im Bezug zum Film vergleichbar mit den Hell’S Gate und den Wäldern Pandoras. Aus der tristen grauen Technik wurde eine lebendige phantasievolle Landschaft. Die virtuelle Kamera sorgte nicht nur dafür, dass für die digitale Animation Regisseur und Darstellung von zentraler Bedeutung wurden, sondern erschuf auch ein neues Paradigma für die Produktion. Sie erlaubte es Cameron zum ersten Mal überhaupt, die ‚digitale Version’ eines Schauspielers und die digitalen Schauplätze zum gleichen Zeitpunkt in der Kamera sehen zu können, während er mit den Schauspielern in The Volume arbeitete. „Die virtuelle Kamera ermöglichte es Jim, Schauspieler in einer Unmittelbarkeit zu inszenieren, wie das zuvor nicht möglich war. Gleichzeitig bekommen auch die Darsteller ein viel besseres Gefühl für ihre digitalen Figuren, denn sie können die digitale Szene und die digitale Szenerie nahezu sofort sehen, anstatt Monate warten zu müssen, bis die Effekt-Firmen lange nach Ende der Dreharbeiten die fertigen Sequenzen liefern. Die bereits in der Kamera sichtbaren Digitalbilder besaßen in etwa die Auflösung eines Videogames. Nachdem Cameron eine bestimmte Szene gefilmt und geschnitten hatte, wurde sie dann Weta Digital übergeben. Dort arbeitete man dann monatelang daran, fertige, hochauflösende Bilder zu erschaffen. Tatsächlich wurde also jede Einstellung zweimal kreiert. Zunächst von Cameron auf einer Studiobühne, dann von den Mitarbeitern von Weta, die in monatelanger Feinarbeit die Einstellung fertig stellten.

Die virtuelle Kamera, die aussieht wie eine Mischung aus Lenkrad und Videogame Controller, ist eigentlich überhaupt keine Kamera, denn sie nimmt nichts auf. Stattdessen ahmt sie eine Kamera nach, während sie mit digitalen Bildern „eingespeist“ wird, die eine Gruppe leistungsfähiger Computer liefert, die die digitale Bühne The Volume umsäumen. Auf einem kleinen Bildschirm auf der Apparatur sind dann die digitalen Bilder der Umwelt und der Figuren zu sehen, die diese Computer einspeisen.

Dank dieser Technik konnte Cameron Szenen, gerade auch die Actionsequenzen, aus jedem erdenklichen Blickwinkel filmen. Dadurch konnte er auf der virtuellen Studiobühne spontaner, flexibler und mit mehr Optionen inszenieren als je zuvor. „Zum Beispiel konnte uns Jim nun bitten, einen vertikalen Maßstab von 5:1 zu kreieren“, erklärt Steven Rosenbaum von der Effektschmiede Weta Digital. „Wenn er dann die Kamera auf eine Höhe von 90 Zentimetern führte, wurde daraus eine Kranfahrt auf eine Höhe von 4 Meter 50. Und das in Echtzeit. Tatsächlich konnte Jim die Kameracrew in ein Team aus drei Meter großen Na’vi-Männern verwandeln.“

„Lange, nachdem die Schauspieler das Studio verlassen hatten, saß ich immer noch in ‚The Volume’, drehte mit der virtuellen Kamera notwendige Zusatzeinstellungen für jede Szene“, erinnert sich Cameron. „Allein durch das Abspielen einer Einstellung kann ich das Ganze aus verschiedenen Perspektiven sehen, kann sogar bis zu einem gewissen Grad die Position der Schauspieler verändern. Wir können das Licht damit neu setzen, alles Mögliche damit machen.“

„Das ist Filmemachen auf einem völlig neuen Level“, fügt Schauspieler Laz Alonso hinzu. „So, als würde man die Grundschule mit einem Promotionsprogramm am Massachusetts Institute of Technology vergleichen.“

cameron kamerasystem

Ein weiteres technisch innovatives Werkzeug in Camerons filmischem „Instrumentarium“ war die Simul-Cam, die in Echtzeit digitale Figuren und Schauplätze in den Realdreh integrierte. Im Prinzip ermöglicht es diese Technologie, mit einer normalen fotografischen Kamera so umzugehen wie mit einer virtuellen, wenn sie das virtuelle Produktionsinstrumentarium über die Realproduktion legt. Produzent Landau erklärt das näher: „Jim konnte auf einem realen Set drehen, im Kamerasucher aber digitale Figuren und Schauplätze sehen, die real nicht existierten. Das ermöglichte es ihm, diese Szene mit der gleichen Sensibilität zu drehen wie eine real inszenierte.“

Auch die Previsualisierung, kurz Previz, bekam eine völlig neue Tiefe. Cameron ließ vorab alle Sets designen und nach den Plänen virtuell bauen. In Los Angeles hat er bereits mit den virtuellen Sets gearbeitet, während sie in Neuseeland real aufgebaut wurden. Au den virtuellen Sets wurde bereits geprobt, so dass die Liveaction-Sequenzen gut vorbereitet waren. Statt der üblichen 60 bis 90 Tage Drehvorbereitungszeit am Set hatte Cameron gerade mal 6 Tage benötigt. Alle Bilder waren vorbereitet. Cameron hatte bereits entschieden, wo die Kamera steht und welche Beleuchtung gesetzt wird.

Die menschliche Seele der digitalen Figuren

Doch ohne die Spezialeffekte, und wir reden bei AVATAR von rund 3000 Effektshots, geht gar nichts. Weta Digital, der in Neuseeland ansässigen Oscar-gekrönten Top-Effektschmiede von Peter Jackson, war für Cameron erste Wahl. Es waren die von Weta erschaffenen bahnbrechenden fotorealistischen Charaktere wie Gollum in „Der Herr der Ringe-Die zwei Türme“ (2002) und „Der Herr der Ringe- Die Rückkehr des Königs“ (2003) oder auch der völlig lebensecht wirkende „King Kong“, die Cameron glauben ließen, dass man die Na’vi mit Leben erfüllen könnte.

cameron und team

Von Beginn an war es für Cameron von entscheidender Bedeutung, dass jedes Detail der Darstellungen der Schauspieler auch in ihren digitalen Stellvertretern auf der Leinwand zu sehen sein musste. Weta versicherte ihm, dass ein Team von Animatoren von absolutem Weltruf es zu seiner Mission machen würde, die Darstellungen der Schauspieler zu 100 Prozent auf ihre Na’vi-Figuren oder Avatare zu übertragen. Dazu war es nötig, dass Daten mit höchster Präzision in dem Moment aufgezeichnet werden mussten, in dem eine Szene gespielt wurde. Und es erforderte auch, dass das Team von Animatoren über ein Jahr lang an der Entwicklung der Apparaturen arbeitete, die es den digitalen Charakteren ermöglichten, sich in ihren Gefühlen genauso auszudrücken wie die Schauspieler, deren Darstellungen sie spiegelten.

Fragt man die Animatoren von Weta Digital, wird man als Antwort hören, dass die Avatare und die Na’vi animiert wurden. Fragt man James Cameron, wird man von ihm erfahren, dass diese Charaktere von den Schauspielern dargestellt wurden. Die Wahrheit ist: beide Seiten haben Recht. Die Animatoren mussten großes Geschick beweisen, damit der Ausdruck der digitalen Figuren genau dem der Schauspieler entsprach. Dabei nahm man sich auch keinerlei Freiheiten mit diesen Darstellungen heraus. Nichts wurde ausgeschmückt oder übertrieben. Ziel der Animatoren war es, die Arbeit der Schauspieler wahrheitsgetreu zu übertragen, nicht mehr und sicherlich nicht weniger zu tun, als das was Sam Worthington, Zoë Saldana oder Sigourney Weaver in „The Volume“ vorgegeben hatten. Natürlich ergänzten die Animatoren gewisse Details, die die Schauspieler nicht zeigen konnten, wie etwa die Schwanz- und Ohrbewegungen. Aber sogar dabei folgten sie ihrem Ziel, in Übereinstimmung mit den Gefühlen zu bleiben, die die Schauspieler während der Aufnahme mit dem Performance-Capture-Verfahren gezeigt hatten. Wenn also Neytiri mit dem Schwanz schlägt und wütend ihre Ohren senkt, dann verstärkt das nur den Ausdruck von Zorn, den Zoë Saldana sichtbar machte, als sie die entsprechende Szene spielte.

Avatar - Szenenbild18

„Die Schauspieler fragten mich, ob wir versuchten, sie zu ersetzen“, erinnert sich Cameron. „Doch es genau das Gegenteil war der Fall. Wir versuchten, ihnen noch mehr Kräfte zu verleihen, ihnen neue Methoden zur Verfügung zu stellen, um sich auszudrücken und ihre Charaktere zu erschaffen, ohne an irgendwelche Grenzen zu stoßen. Ich will keine Schauspieler ersetzen, denn ich liebe es, mit ihnen zu arbeiten. Das ist meine Aufgabe als Regisseur. Was wir ersetzen wollten, sind die fünf Stunden, die man ihm Stuhl sitzen muss, während die Maske aufgetragen wird. Denn das war bisher nötig, um Figuren wie Außerirdische, Werwölfe, Hexen, Dämonen und vieles mehr erschaffen zu können. Jetzt aber kann man jeder oder alles sein, was man will. Man kann das Alter oder sogar das Geschlecht ändern. Und das ohne den Zeitaufwand und die unangenehmen Begleiterscheinungen eines komplexen Make-ups.“

Saldana trainierte Monate, um sich körperlich an ihre Figur anzugleichen, um Neytiris natürliche athletische Eleganz authentisch ausdrücken zu können. Sie wusste, dass sie sich nicht nur mit ihrer Stimme ausdrücken musste, wie das bei einem normalen Animationsfilm der Fall gewesen wäre. Sie wusste, dass hier von ihr eine „Gesamtdarstellung“ gefordert wurde, dass jede Nuance ihres Gesichtsausdrucks und ihrer Körperbewegungen erfasst werden würde.

Über ein Jahr lang, mit Unterbrechungen, arbeitete Cameron mit seinen Schauspielern in The Volume. Diese Arbeitsbeziehung unterschied sich in ihrer Intensität in keinster Weise von einem Film, der konventionell realisiert wurde. Scheinwerfer, Kameras oder Kameraschienen allerdings gab es nicht. Das war Schauspielerei pur. Dadurch konnte sich jeder völlig auf seine Darstellung und die emotionale Authentizität jedes Moments konzentrieren, ohne von Kameras abgelenkt zu werden. Regisseur und Darsteller waren gleichermaßen begeistert von diesem Prozess, freuten sich über die enge Arbeitsbeziehung und die Konzentration, die das Performance-Capture-Verfahren ermöglichte. Aber erst, als Cameron und seine Schauspieler die ersten, von Weta fertig gestellten Szenen sahen, wurde ihnen wirklich bewusst, wie revolutionär ihr Film sein würde.

cameron und weaver am set

Ein entscheidendes Kriterium für AVATAR war die absolute Authentizität, die für die Darstellung aller Charaktere erreicht werden sollte. „Lebendig, voller Seele und emotional“, das würden, so Produzent Landau, die Charaktere des Films sein. Und Cameron ergänzt: „Jede darstellerische Nuance erschufen die Schauspieler selbst, die alles, was man ihre digitalen Stellvertreter im Film machen sieht, tatsächlich spielten. Bis hin zu kleinsten Handbewegung. Diese Charaktere sind exakt und ausschließlich das, was die Schauspieler erschaffen haben.“

Der Film geht noch einen Schritt weiter, fügt diese fotorealistischen Charaktere in eine Welt ein, die auch vom Computer erschaffen ist, aber völlig real erscheint. Jede Pflanze, jeder Baum, jeder Fels entstand in den Computern von Weta Digital in Neuseeland. Bemerkenswerte Durchbrüche in der Beleuchtung, im Setzen von Schatten und in der Bildberechnung ermöglichten eine fotorealistische Welt zu erschaffen, die in ihren Details außerirdisch oder fremdartig ist, aber für das menschliche Auge absolut natürlich wirkt. Über ein Petabyte, das sind 1.000 Terabyte, Speicherkapazität brauchte Weta für alle digitalen Elemente des Films: die vielen Pflanzen und Tiere, die Insekten, Gesteinsformationen, Berge und Wolken. Zum Vergleich: Für „Titanic“ (1997) waren nur 2 Terabyte erforderlich, um das Schiff zu erschaffen und es mit seinen tausenden Passagieren (Cameron entwickelte damals das Crowdsystem) schließlich sinken zu lassen.

Der Einsatz von stereskopischem 3D

Und zusätzlich zu dieser ganzen Komplexität wurde AVATAR in stereoskopischem 3D-Verfahren (S3D), gedreht. Deshalb musste nicht nur Weta Digital (und die weiteren beteiligten Effektfirmen ILM, Framestore, Prime Focus, Hybride und Hydraulix) in der Entwicklung der digitalen Szenen mit S3D arbeiten, sondern auch die real gedrehten Szenen mussten dreidimensional gefilmt werden. In der Vorbereitung von AVATAR arbeitete Cameron an einem neuen digitalen 3D-Kamerasystem. Dieses entwickelte er zusammen mit seinem Partner Vince Pace von Pace Technologies und sie griffen dabei auf Technologie von Sony und Fujinon zurück. Sieben Jahre nahm dieser Prozess in Anspruch, brachte schließlich das weltweit bisher technisch ausgereifteste stereoskopische Kamerasystem hervor. Durch sie wurde möglich, dass die real gedrehten Szenen mit den digitalen harmonisch zu einer Einheit verschmolzen. Bevor aber AVATAR realisiert werden konnte, war es Camerons Ziel, mit dieser neuen digitalen 3D-Kamera das Erlebnis Tiefseeforschung mit beispiellos klaren Bildern einem weltweiten Publikum zurückzubringen. Camerons Erforschung des Inneren der Titanic war Gegenstand seines 3D-IMAX-Films  GHOSTS OF THE ABYSS („Die Geister der Titanic“, 2003), diesem folgte Camerons ALIENS OF THE DEEP („Aliens der Meere“, 2005).

Egal, welche Schauplätze und Welten im Film besucht werden, immer ist es eine allumfassende Erfahrung, die dem Zuschauer das Gefühl vermittelt, als würde er selbst die Abenteuer der Figuren erleben. Cameron und Landau haben sich seit langem für das 3D-Kino eingesetzt und unermüdlich daran gearbeitet, um mit 3D die Qualitäten von Film, das völlige Abtauchen in eine andere Welt, noch zu verstärken. Beide aber legen Wert auf die Feststellung, dass AVATAR auch in 2D ein solches Erlebnis bieten und auch in vielen Kinos zweidimensional aufgeführt werden soll.

„Jim und ich haben daran gearbeitet, unsere Leidenschaft für 3-D mit anderen zu teilen, mit dem Vertrieb von Filmen, auf Ausstellungen und mit Zuschauern auf der ganzen Welt“, erzählt Produzent Landau. „Wir spüren, dass es bereits eine 3D-Renaissance gibt. Wir leben dreidimensional, warum also nicht auch Filme auf gleiche Art erleben. Unabhängig davon aber, ob man nun den Film in 2D oder 3D sehen wird, wird man immer das Gefühl haben, als würde man sich in einer weit entfernten Welt befinden und sich unter deren Bewohnern bewegen.“

Viele ältere 3D-Filme benutzten das dreidimensionale Format als „Gag“, als Effekt, der auch als solcher erkannt werden sollte. So warf man auf der Leinwand Objekte in Richtung Zuschauer, ordnete Charaktere oder Requisiten so an, dass es aussah, als ragten sie von der Leinwand direkt ins Kino hinein. Cameron aber sieht in 3D ein Fenster in eine Welt, in der sich das Format in der Handlung auflöst, ohne die Aufmerksamkeit auf sich selbst zu lenken.

Cameron und sein Verständnis von Technik

Auf Grund der vielschichtigen Technologie, die speziell für dieses Projekt entwickelt werden musste, ist AVATAR für Cameron der Film, der ihn mit Abstand am stärksten herausforderte. Die Filmemacher betraten hier Neuland, suchten nach und fanden schließlich Lösungen im Laufe ihrer Arbeit. 18 Monate allein wurde die Pipeline für das Performance-Capture-Verfahren entwickelt, bevor die ersten Szenen mit den Schauspielern erfasst werden konnten.
„Ich habe schon immer versucht, Grenzen zu überschreiten“, beschreibt sich Cameron, „aber im Fall von AVATAR musste ich selbst bis an meine Grenzen gehen. Diesen Film zu machen, ähnelte dem Versuch, von einer Klippe zu springen und den Fallschirm auf dem Weg nach unten zu stricken.“

Dennoch sind diese revolutionären Technologien kein Selbstzweck, sondern nur Werkzeuge im Instrumentarium des Filmemachers. Sie sind immer in den Dienst der Geschichte, der Emotionen und der Figuren gestellt. „Letztendlich“, so Produzent Jon Landau, „wird das Publikum von AVATAR nicht auf die Technik, sondern auf die Geschichte und die Figuren reagieren, die Jim erschaffen hat. Die Technik ist nur ein Mittel für Jim, eine Geschichte zu erzählen, die sonst nicht erzählt werden könnte.“ James Cameron fügt hinzu: „Alles reduziert sich immer auf die Frage: Haben wir hier eine gute Geschichte? Über die Charaktere wird man diskutieren, ob sie nun menschlich oder außerirdisch sind, und über die Reise, die sie antreten.“

Wie Cameron diese bahnbrechenden technologischen Instrumente anwendete, das vergleicht Landau mit Camerons Umgang mit den damals innovativen technischen Fortschritten bei „Titanic“ (1997), der unter seinen 11 Oscars auch den als „Bester Film“ gewann. „Bei TITANIC erreichte Jim mit visuellen Effekten, dass sich der Zuschauer als Teil eines historischen Ereignisses erlebte. Bei AVATAR benutzt er die neue Technologie, um den Zuschauer in die Zukunft, in eine andere Welt zu entführen.“ „Die Technologie“, fügt Cameron hinzu, „hat ein so hohes Niveau erreicht, dass sie völlig unsichtbar wird. Was bleibt ist die Magie. Das Gefühl, dass man wirklich vor Ort ist, dass die Geschichte, die Charaktere und ihre Emotionen real sind.“

„Jim dreht seine Filme nicht für sich“, erklärt Jon Landau. „Er macht sie für den Zuschauer.“ Dem pflichtet auch Cameron selbst bei: „Mir geht es wirklich darum, dem Zuschauer eine filmische Erfahrung zu bieten, die ihn völlig zufriedenstellt. Ich hoffe, dass alle Zuschauer hier beim Verlassen des Kinos sagen werden ‚Ich habe keinen Film gesehen, ich habe einen Filmerlebt.’“

cameron am set

Was bleibt hinzuzufügen? James Cameron hat für den Film ein ganzes Set an Cutting-Edge-Techniken entwickelt, die das Filmemachen verändern. Bereits jetzt werden das Kamerasystem und das Capturing für weitere Projekte eingesetzt. Und bei den hervorragenden Kassenzahlen wird eine Fortsetzung immer wahrscheinlicher. Ich finde es ist Zeit für eine Nominierung von Performance-Capturing-Artists für den Oscar. Zoe Saldana sehen wir nie in ihrer menschlichen Gestalt im Film, und doch ist sie mit ihrer ganzen physischen Präsenz vertreten. Hollywood, bist Du so weit?

Leute, ich freue mich schon jetzt auf die DVD, bzw. Blu-ray con AVATAR. Nicht wegen des Films, den muss man definitiv im Kino sehen, sondern wegen des ganzen Bonus-Materials und der Making-Ofs. Ich weiß nicht, wie es euch geht, aber ich kann mich daran gar nicht satt sehen.