Mensch oder Maschine möchte man bei diesen Bildern fragen! Für den ersten stereoskopischen 3D-Film von Oscar-Preisträger Martin Scorsese „The Invention of Hugo Cabret“ werden Szenen mit einem absolut unglaublichen S3D-Segway-Rig gefilmt.

Der Steadicam-Operator Chris Fawcett (mehr unter http://steadivision.com) hat ein paar Backstage-Bilder aus den Shepperton Studios in London von den Dreharbeiten veröffentlicht. Das Gefährt basiert auf einem Segway Personal Transporter, dem Elektro-Roller mit zwei Rädern, der über Gewichtsverlagerung gesteuert wird. Praktisch eine Dolly ohne Schienen- fantastische Idee! Großer Vorteil: man hat die Hände frei für die Bedienung der Kameras. Auf diese Basis können nun verschiedene 3D-Rigs montiert werden. Das Rig lässt sich sowohl im Stehen wie im Sitzen steuern und bedienen. Für Hugo Cabret kommt ein 3D Beam-Splitter-Rig mit zwei ARRI Alexa Kameras zum Einsatz.

Es gibt aber auch andere Konfigurationen, beispielsweise mit einem S3D-Steadycam-Rig von Philippe Bordelais:

Absolut großartig! Ich bin sehr gespannt auf die Bilder, die wir damit zu sehen bekommen.Wenn die Technik stimmt, muss man keinen Kühlschrank über die Bühne rollen. Die Story und die Verfilmung stimmen sicher. Die Verfilmung des Kinderbuchs von Brian Seltznick „Die Erfindung von Hugo Cabret“ soll Ende 2011 in die 3D-Kinos kommen, ein deutscher Starttermin steht noch nicht fest.

(via 3D-Life.it)

Bilder © steadivision.com · Alle Rechte vorbehalten.

Nach dem iPad kommt der nächste potentielle Verkaufsschlager aus dem Hause Apple: iSpecs. So zumindest der interne Arbeitstitel für just zum Patent angemeldete 3D-Brille. Angeschlossen an den iPod erhält der Betrachter ein dreidimensionales Bild, vermutlich ähnlich der Cinemizer-Brille von Zeiss.

Spannend: die Brille enthält auch eine Kamera, welche die Umgebung aufnimmt. Und ein auch ein Accelerometer ist enthalten, dass die Bewegungen des Kopfes bestimmt. Mit dem eingebauten Mikrofon sind Voice-Control-Befehle möglich. Das taugt zu weit mehr, als nur zum Abspielen von stereoskopischen Filmen. Sicherlich werden diverse spannende Userinteraction-Systeme für Games möglich. Und vielleicht ist die Brille sogar brauchbar für Augmented Reality-Applikationen?

Es ist nicht der erste Vorstoß von Apple in dieser Richtung, sondern eine Ergänzung eines vorherigen Patentantrages. Was belegen dürfte, dass Apple weiter über die Möglichkeiten nachgedacht hat und sich durchaus ein sinnvolles Produkt damit vorstellen kann. Und wie ich die Apple-Jünger kenne, geht es weg wie geschnitten iPod.

Seit der Berlinale wurde gemunkelt, nun gibt es Gewissheit: Martin Scorsese, derzeit mit „Shutter Island“ in Deutschland sehr erfolgreich, dreht seinen nächsten Film in stereoskopischem 3D. Und wie es sich gehört, wird bereits in 3D gedreht und nicht erst im Nachhinein konvertiert.

Mit der Verfilmung des Romans „The Invention of Hugo Cabret“ von Brian Seltznick dreht Marty nun erstmals einen Kinderfilm- und erstmals in stereoskopischem 3D.

Die Geschichte von „Die Entdeckung des Hugo Cabret“ ist im Paris der 30er Jahre angesiedelt. der 12jährige Waisenjunge Hugo lebt versteckt in einem Bahnhof und ist bemüht das Lebenswerk seines Vaters wieder zum Laufen zu bringen- die Reparatur eines stark beschädigten Automatenmenschen (sagen wir heute Roboter?!).

Einige Schauspieler konnten bereits für das Projekt verpflichtet werden: Sacha Baron Cohen wird zum Bahnhofsaufsehers, Ben Kingsley spielt einen alten Mann, Chloe Moretz eine exzentrische Bücherwürmin.Die Titelrolle spielt Asa Butterfield, bekannt aus den Filmen „Der Junge im gestreiften Pyjama“ oder „Eine Zauberhafte Nanny“.

Dier erste Klappe fällt im Juni in London (nicht in Paris). GK Films produziert den Film, das Drehbuch kommt von John Logan. Verleih Sony hat den 9. Dezember 2011 als Starttermin für die USA benannt. Einen deutschen Starttermin gibt es bisher noch nicht.

So reiht sich mit Marty Scorsese ein Weiterer in die Reihe großer Regisseur ein, die S3D als neue filmische Möglichkeit verstehen. Und ich freue mich schon jetzt auf seine Umsetzung!

3D-Kino ist ein Schwerpunkt auf DigitaleLeinwand.de, da es eine wesentliche Neuerung basierend auf der Digitalisierung der Kinos ist. Eigentlich hat sich das 3D-Kino sogar als der Motor der Digitalisierung herausgestellt. Und dann kam Technicolor mit der Ankündigung, dass man für Kinos ein kostensparendes, analoges 3D-Modell entwickelt habe. Den Artikel kann man hier nochmal nachlesen.

490_Tech3D_webart

Technicolor kündigte die Aktivität der Tochterfirma TC Germany unter der Leitung von Dr. Balthasar Schamm an. Doch leider war es nicht so einfach TC Germany zu erreichen, bisher gab es keine Internetseite, und keine Kontaktinformationen. Ich habe mich daher an die amerikanische Mutter gewandt, und ein paar Informationen erhalten. Vor allem interessierte mich natürlich der Rollout und der Vergleich in der Bildqualität gegenüber dem digitalen 3D-Kino. Zu Vorführzwecken soll ein Kino in Berlin mit dem analogen 3D-System ausgerüstet werden, doch bisher ist nicht durchgesickert, wo und wann das sein wird.

Da zur Berlinale eh alle Filmschaffenden in berlin sind, stellt Technicolor heute sein System ausgewählten Vertretern vor. Und zwar in der Astor Film Lounge, was ich ein wenig verwunderlich finde, da dieses Kino bereits im Dezember 2008 digital umgerüstet wurde. Aber als schönes Kino natürlich ein wunderbarer Ort auch für Presseveranstaltungen.

DigitaleLeinwand.de ist natürlich dabei und ich werde euch berichten. Liebe Vorführer und Kinobetreiber, wenn es noch brennende Fragen gibt, die ihr diesbezüglich beantwortet haben wollt- stellt sie einfach in den Kommentaren oder schickt mir eine Mail, dann versuche ich das für euch zu klären.

Tim Burtons neues Werk „Alice im Wunderland“ bringt uns eine Vielzahl verrückter und doch liebenswerter Charaktere aus Unterland. Ich habe euch bereist die Rote Königin Iracebeth und die Entstehung ihres Reichs vorgestellt (kann man hier und auch hier nochmal nachlesen). Heute möchte ich euch das Weiße Kaninchen vorstellen, dass im Film nicht nur für die Kaninchenlöcher zuständig ist.

McTwisp, das Weiße Kaninchen (im Original gesprochen von Michael Sheen) ist immer zu spät und ständig in Eile. Mit dem Auftrag Alice zu finden und sie nach Unterland zurückzubringen, damit sich ihr Schicksal erfüllen kann, taucht es auf ihrer Gartenfeier auf und versucht sie in das Kaninchenloch zu locken. “Er ist ein warmherziger Charakter,” sagt Sheen über seine Figur, “aber er kann auch penibel und streng mit Alice sein. Er hat Ecken und Kanten, eine Art nervöse Energie und denkt ständig, er sei zu spät dran. Zeit ist ihm wirklich wichtig, aber wenn es darauf ankommt, kann er auch ziemlich tapfer sein.”

Ein sympathisches Kerlchen, wie ich finde. Wie das Weiße Kaninchen im Film zum Leben erweckt wird, zeigen euch die folgenden Progression-Aufnahmen:

Schritt 1: Das weiße Kaninchen ist die erste animierte Figur, auf die Alice im Film trifft. Im ersten Bearbeitungsschritt für diese Szene wird eine Storyboard-Skizze des Kaninchens angefertigt.

ALICE IN WONDERLAND

Schritt 2: Die Imageworks-Künstler kreieren eine niedrig-auflösende Version der computeranimierten Figur und setzen sie anschließend in die computeranimierte Umgebung. Die geringe Auflösung ermöglicht es den Animatoren, schneller und flexibler an der Szene arbeiten.

ALICE IN WONDERLAND

Schritt 3: Ist die Animation der Figur abgeschlossen, wird eine hoch-auflösende Version des weißen Kaninchens an einem viel detaillierterem Model erstellt, das als „pit render“ bezeichnet wird.
ALICE IN WONDERLAND

Schritt 4: Ist die Entwicklung der Bewegungsabläufe abgeschlossen, erhält das Kaninchen sein Fell und seine Kleidung. Für diesen Prozess greifen die Animatoren auf komplexe Computerprogramme zurück, die extra dazu geschaffen wurden, um das Fell und das Gewebe der Kleidung so realitätsgetreu wie möglich darzustellen.
ALICE IN WONDERLAND

Schritt 5: In der finalen Szene werden alle hochauflösenden Elemente vereint und erhalten ihre abschließende Beleuchtung und Struktur: das vollständig bekleidete Kaninchen mitsamt Fell sowie die computeranimierte Umwelt, der matt gezeichnete Hintergrund und die Blätter, die sich bewegen.
ALICE IN WONDERLAND

„Alice im Wunderland“ startet am 4. März 2010 in unseren stereoskopischen 3D-Kinos. Ich hoffe, McTwisp hat Zeit. 🙂

Bisher konnte niemand AVATAR von der Kinokasse verdrängen, doch gibt es bald einen mächtigen Gegner: Die Rote Königin aus Tim Burtons neuem Film „Alice im Wunderland“. Disney bringt dieses kreative-phantastische Werk am 4. März in unsere stereoskopischen 3D-Kinos, und dann wird es eng in Zeitplan.

Technisch ist der Film zwar anders konzipiert, Burton vereint aber eine große Palette von Schauspiel, CGI-Charakteren und Motion-Capturing zur Umsetzung seiner Vision. Ohne moderne digitale Tricktechnik geht nichts. Und Disney lässt uns Anteil haben an der Entstehung seiner optischen Tricks. Am Wochenende hatte ich bereits erste Progression-Aufnahmen einer Szene mit der Roten Königin veröffentlicht (kann man sich hier noch mal ansehen).

Iracebeth, die Rote Königin wird von Helena Bonham Carter gespielt. Sie ist die tyrannische Herrscherin von Unterland. Mit ihrem überdimensional großen Kopf, ihrem hitzigen Gemüt und ihrem Hang dazu Leute gleich köpfen zu lassen, regiert sie über ihre Untertanen mit Angst und Schrecken. “Sie hat emotionale Probleme,” sagt Bonham Carter über ihre Figur. “Wegen nichts und wieder nichts verliert sie die Fassung. Ihre Wutanfälle sind wie die eines Zweijährigen.” Ihre jüngere Schwester, die Weiße Königin, hat es auf den Thron und die Krone abgesehen, die Iracebeth ihr einst gestohlen hat.

Hier kommt ein weiteres Set von Bildern, das die Entstehung des Reichs der Roten Königin zeigt:

Schritt 1: Die Rote Königin wird vor einem Greenscreen-Hintergrund gefilmt, der mit grünen Requisiten ausgestattet wurde. Die Säulen werfen passende Schatten und die Holz-Frösche dienen der Darstellerin als Spielpartner für die Szene und geben ihr eine Orientierung für die Blickrichtung.

ALICE IN WONDERLAND

Schritt 2: Zahlreiche der benutzten Techniken wurden erst während der Produktion entwickelt. So wurde der Kopf der Roten Königin um das Zweifache vergrößert und ihre Taille verschmälert, um sie wie eine Karikatur wirken zu lassen. Ihr Hals und das Kinn wurden nahtlos an den Kragen und die Schultern geschnitten.

ALICE IN WONDERLAND

Schritt 3: Die Imageworks-Animatoren fügen computeranimierte Frösche und die roten Ritter hinzu sowie Vögel, die den Kronleuchter halten, und Affen, die die Kerzenleuchter tragen. Menschliche Höflinge, die separat vor einem Greenscreen gefilmt wurden, werden rechts von der Königin platziert. Dies war eine große Herausforderung für das Team der Visual-Effects-Abteilung.

ALICE IN WONDERLAND

Schritt 4: Die Frösche erhalten ihre richtige Haut sowie perfekt angepasste Kleidung und die Vögel bekommen ein realitätsgetreues Federkleid.

ALICE IN WONDERLAND

Schritt 5: Zum Abschluss erhalten alle Oberflächen ihre Beleuchtung und Struktur. Die Greenscreen-Aufnahmen werden farblich angeglichen, so dass sie in die Szene passen.

ALICE IN WONDERLAND

„Alice im Wunderland“ startet am 4. März 2010 in unseren stereoskopischen 3D-Kinos.

Alle Bilder © Disney

Disney hat verstanden, dass sich Menschen nicht nur für den Film selbst, sondern auch für seine Entstehung und die technische Umsetzung interessieren. Im September 2009 hatte ich euch schon mal einen Artikel über die unterschiedlichen Produktionsphasen eines Animationsfilms geliefert (kann man hier nachlesen). Für Disneys neuesten Phantasie-Streich „Alice im Wunderland“ gibt es nun eine Serie von Progressions-Aufnahmen, die ich euch vorstellen möchte. Tim Burton setzt in seinem Film reale Schauspieler, computergenerierte Figuren, Motioncapturing und jede Menge Compositing ein, um alles zusammen zu führen. Dafür werden viele Aufnahmen vor Greenscreengefilmt, um reale Schauspieler in virtuelle Szenerien zu versetzen. Durch neu entwickelte Techniken sind auch Größenunterschiede oder Verzerrungen wie bei der Kopfgröße der Roten Königin möglich und ergeben einen ganz individuellen Look.

Aber seht selbst Bild für Bild:

Schritt 1: Die Rote Königin wird vor einem Greenscreen-Hintergrund gefilmt. Dabei wurde eine hoch-auflösende 4K-Digital-Kamera verwendet, damit ihr Kopf vergrößert werden kann ohne dabei an Bildqualität einzubüßen. Der Stuhl, auf dem sie sitzt, ist ebenfalls grün, um ihn später durch sein digitales Duplikat zu ersetzen.

ALICE IN WONDERLAND

Schritt 2: Die Macher verwendeten spezielle Programme, die im Laufe der Produktion für diese Zwecke entwickelt wurden. Sie ermöglichten es, den Kopf der Roten Königin zu vergrößern sowie ihren Hals und das Kinn nahtlos an den Kragen ihres Kostüms anzufügen.

ALICE IN WONDERLAND

Schritt 3: Die Rote Königin wird in eine vorläufige computeranimierte Umgebung mit einfachen Modellen der späteren Ausstattung im Hintergrund gesetzt. Erste Versionen der Affen, die die Kerzenleuchter halten, werden ebenfalls hinzugefügt.

ALICE IN WONDERLAND

Schritt 4: Die Affen erhalten durch die Animatoren von Imageworks ihr Fell und ihre Kleidung.

ALICE IN WONDERLANDSchritt 5: Den Kerzen werden in diesem Schritt ihre Flammen hinzugefügt.

ALICE IN WONDERLAND

Schritt 6: Die Abschluss-Szene beinhaltet die richtige Beleuchtung, Struktur und eine finale Farbanpassung.

ALICE IN WONDERLAND

Das ist natürlich wunderbares Futter für DigitaleLeinwand.de. Zwar ist viel Technik von Nöten, um die phantastische Unterwelt zu erschaffen, alle verfügbaren Mitte werden eingesetzt, neue Techniken entwickelt. Doch ist es kein purer Selbstzweck, die Technik tritt zurück und dient völlig der Geschichte. Ich war eh schon gespannt auf Tim Burtons Fassung von Alice im Wunderland, mittlerweile freue ich mich wirklich sehr darauf!

Nicht nur Schauspieler und Regisseure werden mit dem Academy Award, besser bekannt als Oscar, ausgezeichnet, sondern auch Firmen, die für die Filmindustrie fortschrittliche Technik entwickeln. Sie gehen in der Regel an Erfindungen, die nicht im zurückliegenden Jahr entwickelt wurden, sondern schon eine Zeitlang in der Praxis Einsatz finden. Im Jahr 2010 vergibt die Academy of Motion Picture Arts and Sciences insgesamt 15 Technik-Oscars, zwei davon gehen nach Deutschland.

Zum einen erhalten die Ingenieure Michael Cieslinski, Reimar Lenz und Bernd Brauner von Arri Film & TV Services den Scientific and Engineering Award für die Entwicklung des ARRISCAN. Dies ist ein Filmscanner, der analoges Bildmaterial in hochauflösende digitale Daten umwandelt. Ein wesentlicher Schritt für das digitale Kino, aber auch für die Umwandlung für DVD oder Blu-ray.

Der zweite Technik-Oscar dieses Jahr geht an den deutschen Software-Ingenieur Hilmar Koch. Gemeinsam mit seinen amerikanischen Kollegen Hayden Landis und Ken McGaugh wird er mit dem Technical Achievement Award ausgezeichnet. Die Ingenieure haben mit dem sogenannten Ambient Occlusion Rendering eine besondere Abschattungsmethode entwickelt, die in der 3D-Computergrafik verwendet wird. Laut Academy schafft diese noch realistischere Bilder und wird bereits als auf breiter Ebene beim Lichtsetzen im CGI-Bereich angewendet.

Die Auszeichnungen werden am 20. Februar bei einem Gala-Dinner in Beverly Hills verliehen. Die Oscar-Show gibt es in diesem Jahr später als gewohnt am 7. März live aus Hollywood.

DigitaleLeinwand gratuliert herzlich zur entwickelten Technik und natürlich zu dieser großartigen Auszeichnung!

James Camerons „AVATAR – Aufbruch nach Pandora“ läuft im Kino wie frisches Popcorn. Doch der Weg bis zum fertigen Film war lang. Erst durch die Eigenentwicklung der benötigten Techniksysteme konnte Cameron seine Vision des Films realisieren. Dieser umfangreiche Artikel bietet euch einen Einblick in diese Arbeit. Außerdem gibt es noch zwei Featurettes über die Vision von Cameron und über das Performance Capturing mit beeindruckendem MakingOf-Material.

Cameron suchte nach einem Weg, die Erschaffung außerirdischen Lebens ins 21. Jahrhundert zu führen. Als er 1995 die rasenden Fortschritte in der Erschaffung digitaler Charaktere sah, glaubte er, dass sein in einer anderen Welt angesiedeltes Traumprojekt vielleicht realisiert werden könnte. Nachdem er bereits in der Entwicklung digitaler Charaktere Meilensteine wie die Aliens in „Abyss“ (1989) oder den verflüssigten Killerroboter in „Terminator 2-Tag der Abrechnung“ (1991) geschaffen hatte, wollte er die neue Kunstform der digitalen Animation auch zu neuen Höhen treiben. Aus diesem Grund schrieb er das Treatment zum visuell enorm ambitionierten „Avatar – Aufbruch nach Pandora“.  Doch als dieses Treatment von Experten für Digitalanimation genau analysiert worden war, erkannte Cameron, dass man von fotorealistischen Technologien noch Jahre entfernt war. Deshalb wurde das Projekt zunächst auf Eis gelegt.

Featurette über James Camerons Vision:

Die Entwicklung des Performance-Capturings

Als Cameron sich 2005 wieder dem Projekt zuwandte, schien es so, als stünde der notwendige technologische Durchbruch unmittelbar bevor. Damals allerdings gab es noch Bedenken, dass die Charaktere vielleicht nicht ganz real wirken würden, dass der störende Aspekt der „toten Augen“, Augen also, die nicht lebendig wirkten, auch hier zum Tragen kommen würde – wie schon in den ersten Filmen, die mit dem Performance-Capture-Verfahren gearbeitet hatten. Camerons Team wollte weit über die Ergebnisse dieser frühen Versuche hinausgehen, denn die Figuren sollten absolut lebensecht wirken. Um das zu erreichen, wurde ein neues „gesichts- und bildbezogenes Performance-Capture-System“ entwickelt. Man verwendete eine Kamera, die über eine Apparatur am Kopf getragen wurde, um auch die kleinsten mimischen Nuancen auf den Gesichtern der Schauspieler einfangen zu können und später auf ein computergeneriertes Modell zu übertragen.

Cameron wollte bei der Erschaffung seiner Außerirdischen kein Makeup benutzen. Aliens mit menschlichen Zügen werden seit Jahrzehnten von Schauspielern gespielt, von den B-Movies der 50iger Jahre bis hin zu TV-Ablegern von Star Trek. Jede Art und Methode Gummi auf das Gesicht eines Schauspielers zu applizieren, wurde versucht. Und es zeigte sich schnell, wie eingeschränkt dieses Verfahren ist. Die Größe der Augen und der Augenabstand können nicht verändert werden. Man kann weder die Körperproportionen ändern noch die Gesamtgröße eines Charakters. Eine Gummimaske beschränkt die Darstellungsmöglichkeiten der Schauspieler und wirkt wie eine Barriere zwischen dem Schauspieler und der Kamera.

Die Perfomance-Capture Methode umgeht diese negativen Aspekte. Obwohl die CG-Figuren den Schauspielern ähneln, unterscheiden sie sich in ihren grundsätzlichen Proportionen. Die Augen der Na’vi sind im Durchmesser zweimal so groß wie menschliche Augen und liegen auch weiter auseinander. Die Na’vi sind wesentlich schlanker als Menschen, haben längere Hälse, unterschiedliche Knochen- und Muskelstrukturen, darunter auch Hände mit nur drei Fingern, das offensichtlichste Unterscheidungsmerkmal (Plus Daumen, die Avatare haben vier. Ist euch nicht aufgefallen, oder?). Als digitale Figuren können die Na’vi und die Avatare in ihrer Gestalt viel größer als Menschen sein. Blaues Make-Up hätte die Haut abgedunkelt, aber mit digitaler Technik erhalten die Figuren eine lichtdurchlässige Haut. Diese verhält sich ähnlich wie menschliche Haut, wenn die Pigmente auf der Hautoberfläche nicht den roten Schimmer des darunter fließenden Bluts verdecken, beispielsweise, wenn starkes Sonnenlicht die Ohren der Figuren von hinten beleuchtet. Die Verbindung dieser Feinheiten ermöglicht es, scheinbar lebendige Kreaturen zu erschaffen.

Beim Motion-Capture-Verfahren bringt man reflektierende Marker auf den Gesichtern der Schauspieler an, um mimischen Ausdruck einfangen zu können. Für AVATAR ging man andere Wege. Die Schauspieler trugen spezielle Kopfapparaturen, ähnlich Football-Helmen. Daran wurde eine kleine Kamera mit Beleuchtung (und Na’vi-Ohren) angebracht. Diese Vorrichtung war auf die Gesichter der Schauspieler ausgerichtet, so konnte die Kamera mimischen Ausdruck und Muskelbewegungen so detailliert aufnehmen, wie das zuvor nie möglich gewesen war. Am wichtigsten war aber, dass die Kamera Augenbewegungen aufnehmen konnte, wozu frühere Systeme nicht in der Lage gewesen waren.

Mit Hilfe der Kopfapparaturen konnte man den Gesichtsausdruck der Schauspieler so klar und präzise wie nie zuvor einfangen. Und weil dieses System unabhängig von den Motion-Capture-Kameras der Vergangenheit operierte, wurden letztere nur für die Aufzeichnung von Körperbewegungen eingesetzt. So konnte man sich damit viel weiter von den Schauspielern entfernen. Dies wiederum ermöglichte es dem Team von AVATAR, das Capture-Verfahren in einem viel größeren Studioraum, genannt „The Volume“, als je zuvor einzusetzen. Bei AVATAR war dieser sechsmal so groß wie frühere Volume- Versionen. Hier konnten nun echte galoppierende Pferde, Stunts mit komplizierten Draht- und Kabelsystemen, und sogar Luftkämpfe zwischen Flugzeugen und fliegenden Kreaturen erfasst werden. Damit waren die revolutionären Kopfapparaturen nicht nur der Schlüssel für die kleinsten Gefühlsnuancen der Charaktere, sondern auch für die größten und spektakulärsten Szenen des Films.

Die Schauspieler arbeiteten unermüdlich daran, diese körperlichen, sprachlichen und emotionalen Nuancen, die von elementarer Bedeutung für ihre Figuren und Camerons Vision waren, in ihre Darstellungen zu integrieren, während Cameron entschlossen war, all das auch in den digitalen Inkarnationen der Schauspieler sichtbar zu machen.

Worthington und die anderen Darsteller empfanden es als befreiend, im Volume auf der nackten Bühne zu arbeiten, während sie die speziellen Anzüge und Kopfapparaturen für das Performance Capture trugen. „Wir haben uns das Performance-Capture-Verfahren zu eigen gemacht und hatten damit viel Spaß“, erklärt Worthington. „Obwohl Jakes Avatar 2 Meter 70 groß und komplett blau ist, hat er doch meine Persönlichkeit und Seele in sich. Es ist einfach spektakulär, dass Jim dies gelungen ist.“

„Performance Capture ist unglaublich befreiend“, fährt Worthington fort. „Man kann sich nicht verstecken, jede Einstellung muss wahrhaftig sein. Am Anfang ist das Ganze etwas nervenaufreibend, aber man vergisst schließlich, dass man eine Art Helm trägt und ein paar hundert Punkte auf seinem Gesicht hat.“

„Man fragt sich“, fügt Laz Alonso hinzu, „ob man mental in der Lage sein wird, auf die graue, nüchterne [Performance Capture] Bühne zu schauen und dann eine riesige Schlange oder üppigen Regenwald sehen zu können. ‚The Volume’ ist ein absolut trister Ort. Aber dank Jims Inszenierung, dem Performance-Capture-Verfahren und der virtuellen Kamera nimmt etwas Großartiges seinen Anfang. Man beginnt, diese Tiere und diese unglaubliche Umgebung wirklich zu sehen. Man dringt so tief in diese Welt vor, dass man beginnt, Pandora vor Augen zu haben, es zu riechen, zu hören und auch zu fühlen.“

Die Art und Weise, wie The Volume die Fantasie belebte, erinnerte Joel David Moore an die Wurzeln der Schauspielerei. „Wenn man auf der Performance-Capture-Bühne arbeitet, führt das einen in die alten Theatertage zurück, wenn man nur eine Wand, einen Tisch und ein paar Stühle vor sich hatte und sich alles andere vorstellen musste.“

Featurette über das Performance Capturing:

Virtuelle Kamera, Simul-Cam und Previz

Eine weitere Innovation, die speziell für AVATAR entwickelte virtuelle Kamera, erlaubte es Cameron, Sequenzen in digital kreierten Welten so zu drehen, als befände er sich auf einem Studioset in Hollywood. Durch diese virtuelle Kamera sah der Regisseur nicht Zoë Saldana, sondern Neytiri, die von ihr gespielte, über drei Meter große und blauhäutige Figur. An Stelle von Sam Worthington und Sigourney Weaver sah er ihre riesigen blauen Avatare, komplett mit Schwänzen und großen goldenen Augen. Und anstelle des nüchternen grauen Raums, der sich ihm mit „The Volume“ darbot, sah er den üppigen Regenwald von Pandora, die schwebenden Hallelujah Berge oder Hell’s Gate, die Siedlung der Menschen. Eigentlich ist The Volume im Bezug zum Film vergleichbar mit den Hell’S Gate und den Wäldern Pandoras. Aus der tristen grauen Technik wurde eine lebendige phantasievolle Landschaft. Die virtuelle Kamera sorgte nicht nur dafür, dass für die digitale Animation Regisseur und Darstellung von zentraler Bedeutung wurden, sondern erschuf auch ein neues Paradigma für die Produktion. Sie erlaubte es Cameron zum ersten Mal überhaupt, die ‚digitale Version’ eines Schauspielers und die digitalen Schauplätze zum gleichen Zeitpunkt in der Kamera sehen zu können, während er mit den Schauspielern in The Volume arbeitete. „Die virtuelle Kamera ermöglichte es Jim, Schauspieler in einer Unmittelbarkeit zu inszenieren, wie das zuvor nicht möglich war. Gleichzeitig bekommen auch die Darsteller ein viel besseres Gefühl für ihre digitalen Figuren, denn sie können die digitale Szene und die digitale Szenerie nahezu sofort sehen, anstatt Monate warten zu müssen, bis die Effekt-Firmen lange nach Ende der Dreharbeiten die fertigen Sequenzen liefern. Die bereits in der Kamera sichtbaren Digitalbilder besaßen in etwa die Auflösung eines Videogames. Nachdem Cameron eine bestimmte Szene gefilmt und geschnitten hatte, wurde sie dann Weta Digital übergeben. Dort arbeitete man dann monatelang daran, fertige, hochauflösende Bilder zu erschaffen. Tatsächlich wurde also jede Einstellung zweimal kreiert. Zunächst von Cameron auf einer Studiobühne, dann von den Mitarbeitern von Weta, die in monatelanger Feinarbeit die Einstellung fertig stellten.

Die virtuelle Kamera, die aussieht wie eine Mischung aus Lenkrad und Videogame Controller, ist eigentlich überhaupt keine Kamera, denn sie nimmt nichts auf. Stattdessen ahmt sie eine Kamera nach, während sie mit digitalen Bildern „eingespeist“ wird, die eine Gruppe leistungsfähiger Computer liefert, die die digitale Bühne The Volume umsäumen. Auf einem kleinen Bildschirm auf der Apparatur sind dann die digitalen Bilder der Umwelt und der Figuren zu sehen, die diese Computer einspeisen.

Dank dieser Technik konnte Cameron Szenen, gerade auch die Actionsequenzen, aus jedem erdenklichen Blickwinkel filmen. Dadurch konnte er auf der virtuellen Studiobühne spontaner, flexibler und mit mehr Optionen inszenieren als je zuvor. „Zum Beispiel konnte uns Jim nun bitten, einen vertikalen Maßstab von 5:1 zu kreieren“, erklärt Steven Rosenbaum von der Effektschmiede Weta Digital. „Wenn er dann die Kamera auf eine Höhe von 90 Zentimetern führte, wurde daraus eine Kranfahrt auf eine Höhe von 4 Meter 50. Und das in Echtzeit. Tatsächlich konnte Jim die Kameracrew in ein Team aus drei Meter großen Na’vi-Männern verwandeln.“

„Lange, nachdem die Schauspieler das Studio verlassen hatten, saß ich immer noch in ‚The Volume’, drehte mit der virtuellen Kamera notwendige Zusatzeinstellungen für jede Szene“, erinnert sich Cameron. „Allein durch das Abspielen einer Einstellung kann ich das Ganze aus verschiedenen Perspektiven sehen, kann sogar bis zu einem gewissen Grad die Position der Schauspieler verändern. Wir können das Licht damit neu setzen, alles Mögliche damit machen.“

„Das ist Filmemachen auf einem völlig neuen Level“, fügt Schauspieler Laz Alonso hinzu. „So, als würde man die Grundschule mit einem Promotionsprogramm am Massachusetts Institute of Technology vergleichen.“

cameron kamerasystem

Ein weiteres technisch innovatives Werkzeug in Camerons filmischem „Instrumentarium“ war die Simul-Cam, die in Echtzeit digitale Figuren und Schauplätze in den Realdreh integrierte. Im Prinzip ermöglicht es diese Technologie, mit einer normalen fotografischen Kamera so umzugehen wie mit einer virtuellen, wenn sie das virtuelle Produktionsinstrumentarium über die Realproduktion legt. Produzent Landau erklärt das näher: „Jim konnte auf einem realen Set drehen, im Kamerasucher aber digitale Figuren und Schauplätze sehen, die real nicht existierten. Das ermöglichte es ihm, diese Szene mit der gleichen Sensibilität zu drehen wie eine real inszenierte.“

Auch die Previsualisierung, kurz Previz, bekam eine völlig neue Tiefe. Cameron ließ vorab alle Sets designen und nach den Plänen virtuell bauen. In Los Angeles hat er bereits mit den virtuellen Sets gearbeitet, während sie in Neuseeland real aufgebaut wurden. Au den virtuellen Sets wurde bereits geprobt, so dass die Liveaction-Sequenzen gut vorbereitet waren. Statt der üblichen 60 bis 90 Tage Drehvorbereitungszeit am Set hatte Cameron gerade mal 6 Tage benötigt. Alle Bilder waren vorbereitet. Cameron hatte bereits entschieden, wo die Kamera steht und welche Beleuchtung gesetzt wird.

Die menschliche Seele der digitalen Figuren

Doch ohne die Spezialeffekte, und wir reden bei AVATAR von rund 3000 Effektshots, geht gar nichts. Weta Digital, der in Neuseeland ansässigen Oscar-gekrönten Top-Effektschmiede von Peter Jackson, war für Cameron erste Wahl. Es waren die von Weta erschaffenen bahnbrechenden fotorealistischen Charaktere wie Gollum in „Der Herr der Ringe-Die zwei Türme“ (2002) und „Der Herr der Ringe- Die Rückkehr des Königs“ (2003) oder auch der völlig lebensecht wirkende „King Kong“, die Cameron glauben ließen, dass man die Na’vi mit Leben erfüllen könnte.

cameron und team

Von Beginn an war es für Cameron von entscheidender Bedeutung, dass jedes Detail der Darstellungen der Schauspieler auch in ihren digitalen Stellvertretern auf der Leinwand zu sehen sein musste. Weta versicherte ihm, dass ein Team von Animatoren von absolutem Weltruf es zu seiner Mission machen würde, die Darstellungen der Schauspieler zu 100 Prozent auf ihre Na’vi-Figuren oder Avatare zu übertragen. Dazu war es nötig, dass Daten mit höchster Präzision in dem Moment aufgezeichnet werden mussten, in dem eine Szene gespielt wurde. Und es erforderte auch, dass das Team von Animatoren über ein Jahr lang an der Entwicklung der Apparaturen arbeitete, die es den digitalen Charakteren ermöglichten, sich in ihren Gefühlen genauso auszudrücken wie die Schauspieler, deren Darstellungen sie spiegelten.

Fragt man die Animatoren von Weta Digital, wird man als Antwort hören, dass die Avatare und die Na’vi animiert wurden. Fragt man James Cameron, wird man von ihm erfahren, dass diese Charaktere von den Schauspielern dargestellt wurden. Die Wahrheit ist: beide Seiten haben Recht. Die Animatoren mussten großes Geschick beweisen, damit der Ausdruck der digitalen Figuren genau dem der Schauspieler entsprach. Dabei nahm man sich auch keinerlei Freiheiten mit diesen Darstellungen heraus. Nichts wurde ausgeschmückt oder übertrieben. Ziel der Animatoren war es, die Arbeit der Schauspieler wahrheitsgetreu zu übertragen, nicht mehr und sicherlich nicht weniger zu tun, als das was Sam Worthington, Zoë Saldana oder Sigourney Weaver in „The Volume“ vorgegeben hatten. Natürlich ergänzten die Animatoren gewisse Details, die die Schauspieler nicht zeigen konnten, wie etwa die Schwanz- und Ohrbewegungen. Aber sogar dabei folgten sie ihrem Ziel, in Übereinstimmung mit den Gefühlen zu bleiben, die die Schauspieler während der Aufnahme mit dem Performance-Capture-Verfahren gezeigt hatten. Wenn also Neytiri mit dem Schwanz schlägt und wütend ihre Ohren senkt, dann verstärkt das nur den Ausdruck von Zorn, den Zoë Saldana sichtbar machte, als sie die entsprechende Szene spielte.

Avatar - Szenenbild18

„Die Schauspieler fragten mich, ob wir versuchten, sie zu ersetzen“, erinnert sich Cameron. „Doch es genau das Gegenteil war der Fall. Wir versuchten, ihnen noch mehr Kräfte zu verleihen, ihnen neue Methoden zur Verfügung zu stellen, um sich auszudrücken und ihre Charaktere zu erschaffen, ohne an irgendwelche Grenzen zu stoßen. Ich will keine Schauspieler ersetzen, denn ich liebe es, mit ihnen zu arbeiten. Das ist meine Aufgabe als Regisseur. Was wir ersetzen wollten, sind die fünf Stunden, die man ihm Stuhl sitzen muss, während die Maske aufgetragen wird. Denn das war bisher nötig, um Figuren wie Außerirdische, Werwölfe, Hexen, Dämonen und vieles mehr erschaffen zu können. Jetzt aber kann man jeder oder alles sein, was man will. Man kann das Alter oder sogar das Geschlecht ändern. Und das ohne den Zeitaufwand und die unangenehmen Begleiterscheinungen eines komplexen Make-ups.“

Saldana trainierte Monate, um sich körperlich an ihre Figur anzugleichen, um Neytiris natürliche athletische Eleganz authentisch ausdrücken zu können. Sie wusste, dass sie sich nicht nur mit ihrer Stimme ausdrücken musste, wie das bei einem normalen Animationsfilm der Fall gewesen wäre. Sie wusste, dass hier von ihr eine „Gesamtdarstellung“ gefordert wurde, dass jede Nuance ihres Gesichtsausdrucks und ihrer Körperbewegungen erfasst werden würde.

Über ein Jahr lang, mit Unterbrechungen, arbeitete Cameron mit seinen Schauspielern in The Volume. Diese Arbeitsbeziehung unterschied sich in ihrer Intensität in keinster Weise von einem Film, der konventionell realisiert wurde. Scheinwerfer, Kameras oder Kameraschienen allerdings gab es nicht. Das war Schauspielerei pur. Dadurch konnte sich jeder völlig auf seine Darstellung und die emotionale Authentizität jedes Moments konzentrieren, ohne von Kameras abgelenkt zu werden. Regisseur und Darsteller waren gleichermaßen begeistert von diesem Prozess, freuten sich über die enge Arbeitsbeziehung und die Konzentration, die das Performance-Capture-Verfahren ermöglichte. Aber erst, als Cameron und seine Schauspieler die ersten, von Weta fertig gestellten Szenen sahen, wurde ihnen wirklich bewusst, wie revolutionär ihr Film sein würde.

cameron und weaver am set

Ein entscheidendes Kriterium für AVATAR war die absolute Authentizität, die für die Darstellung aller Charaktere erreicht werden sollte. „Lebendig, voller Seele und emotional“, das würden, so Produzent Landau, die Charaktere des Films sein. Und Cameron ergänzt: „Jede darstellerische Nuance erschufen die Schauspieler selbst, die alles, was man ihre digitalen Stellvertreter im Film machen sieht, tatsächlich spielten. Bis hin zu kleinsten Handbewegung. Diese Charaktere sind exakt und ausschließlich das, was die Schauspieler erschaffen haben.“

Der Film geht noch einen Schritt weiter, fügt diese fotorealistischen Charaktere in eine Welt ein, die auch vom Computer erschaffen ist, aber völlig real erscheint. Jede Pflanze, jeder Baum, jeder Fels entstand in den Computern von Weta Digital in Neuseeland. Bemerkenswerte Durchbrüche in der Beleuchtung, im Setzen von Schatten und in der Bildberechnung ermöglichten eine fotorealistische Welt zu erschaffen, die in ihren Details außerirdisch oder fremdartig ist, aber für das menschliche Auge absolut natürlich wirkt. Über ein Petabyte, das sind 1.000 Terabyte, Speicherkapazität brauchte Weta für alle digitalen Elemente des Films: die vielen Pflanzen und Tiere, die Insekten, Gesteinsformationen, Berge und Wolken. Zum Vergleich: Für „Titanic“ (1997) waren nur 2 Terabyte erforderlich, um das Schiff zu erschaffen und es mit seinen tausenden Passagieren (Cameron entwickelte damals das Crowdsystem) schließlich sinken zu lassen.

Der Einsatz von stereskopischem 3D

Und zusätzlich zu dieser ganzen Komplexität wurde AVATAR in stereoskopischem 3D-Verfahren (S3D), gedreht. Deshalb musste nicht nur Weta Digital (und die weiteren beteiligten Effektfirmen ILM, Framestore, Prime Focus, Hybride und Hydraulix) in der Entwicklung der digitalen Szenen mit S3D arbeiten, sondern auch die real gedrehten Szenen mussten dreidimensional gefilmt werden. In der Vorbereitung von AVATAR arbeitete Cameron an einem neuen digitalen 3D-Kamerasystem. Dieses entwickelte er zusammen mit seinem Partner Vince Pace von Pace Technologies und sie griffen dabei auf Technologie von Sony und Fujinon zurück. Sieben Jahre nahm dieser Prozess in Anspruch, brachte schließlich das weltweit bisher technisch ausgereifteste stereoskopische Kamerasystem hervor. Durch sie wurde möglich, dass die real gedrehten Szenen mit den digitalen harmonisch zu einer Einheit verschmolzen. Bevor aber AVATAR realisiert werden konnte, war es Camerons Ziel, mit dieser neuen digitalen 3D-Kamera das Erlebnis Tiefseeforschung mit beispiellos klaren Bildern einem weltweiten Publikum zurückzubringen. Camerons Erforschung des Inneren der Titanic war Gegenstand seines 3D-IMAX-Films  GHOSTS OF THE ABYSS („Die Geister der Titanic“, 2003), diesem folgte Camerons ALIENS OF THE DEEP („Aliens der Meere“, 2005).

Egal, welche Schauplätze und Welten im Film besucht werden, immer ist es eine allumfassende Erfahrung, die dem Zuschauer das Gefühl vermittelt, als würde er selbst die Abenteuer der Figuren erleben. Cameron und Landau haben sich seit langem für das 3D-Kino eingesetzt und unermüdlich daran gearbeitet, um mit 3D die Qualitäten von Film, das völlige Abtauchen in eine andere Welt, noch zu verstärken. Beide aber legen Wert auf die Feststellung, dass AVATAR auch in 2D ein solches Erlebnis bieten und auch in vielen Kinos zweidimensional aufgeführt werden soll.

„Jim und ich haben daran gearbeitet, unsere Leidenschaft für 3-D mit anderen zu teilen, mit dem Vertrieb von Filmen, auf Ausstellungen und mit Zuschauern auf der ganzen Welt“, erzählt Produzent Landau. „Wir spüren, dass es bereits eine 3D-Renaissance gibt. Wir leben dreidimensional, warum also nicht auch Filme auf gleiche Art erleben. Unabhängig davon aber, ob man nun den Film in 2D oder 3D sehen wird, wird man immer das Gefühl haben, als würde man sich in einer weit entfernten Welt befinden und sich unter deren Bewohnern bewegen.“

Viele ältere 3D-Filme benutzten das dreidimensionale Format als „Gag“, als Effekt, der auch als solcher erkannt werden sollte. So warf man auf der Leinwand Objekte in Richtung Zuschauer, ordnete Charaktere oder Requisiten so an, dass es aussah, als ragten sie von der Leinwand direkt ins Kino hinein. Cameron aber sieht in 3D ein Fenster in eine Welt, in der sich das Format in der Handlung auflöst, ohne die Aufmerksamkeit auf sich selbst zu lenken.

Cameron und sein Verständnis von Technik

Auf Grund der vielschichtigen Technologie, die speziell für dieses Projekt entwickelt werden musste, ist AVATAR für Cameron der Film, der ihn mit Abstand am stärksten herausforderte. Die Filmemacher betraten hier Neuland, suchten nach und fanden schließlich Lösungen im Laufe ihrer Arbeit. 18 Monate allein wurde die Pipeline für das Performance-Capture-Verfahren entwickelt, bevor die ersten Szenen mit den Schauspielern erfasst werden konnten.
„Ich habe schon immer versucht, Grenzen zu überschreiten“, beschreibt sich Cameron, „aber im Fall von AVATAR musste ich selbst bis an meine Grenzen gehen. Diesen Film zu machen, ähnelte dem Versuch, von einer Klippe zu springen und den Fallschirm auf dem Weg nach unten zu stricken.“

Dennoch sind diese revolutionären Technologien kein Selbstzweck, sondern nur Werkzeuge im Instrumentarium des Filmemachers. Sie sind immer in den Dienst der Geschichte, der Emotionen und der Figuren gestellt. „Letztendlich“, so Produzent Jon Landau, „wird das Publikum von AVATAR nicht auf die Technik, sondern auf die Geschichte und die Figuren reagieren, die Jim erschaffen hat. Die Technik ist nur ein Mittel für Jim, eine Geschichte zu erzählen, die sonst nicht erzählt werden könnte.“ James Cameron fügt hinzu: „Alles reduziert sich immer auf die Frage: Haben wir hier eine gute Geschichte? Über die Charaktere wird man diskutieren, ob sie nun menschlich oder außerirdisch sind, und über die Reise, die sie antreten.“

Wie Cameron diese bahnbrechenden technologischen Instrumente anwendete, das vergleicht Landau mit Camerons Umgang mit den damals innovativen technischen Fortschritten bei „Titanic“ (1997), der unter seinen 11 Oscars auch den als „Bester Film“ gewann. „Bei TITANIC erreichte Jim mit visuellen Effekten, dass sich der Zuschauer als Teil eines historischen Ereignisses erlebte. Bei AVATAR benutzt er die neue Technologie, um den Zuschauer in die Zukunft, in eine andere Welt zu entführen.“ „Die Technologie“, fügt Cameron hinzu, „hat ein so hohes Niveau erreicht, dass sie völlig unsichtbar wird. Was bleibt ist die Magie. Das Gefühl, dass man wirklich vor Ort ist, dass die Geschichte, die Charaktere und ihre Emotionen real sind.“

„Jim dreht seine Filme nicht für sich“, erklärt Jon Landau. „Er macht sie für den Zuschauer.“ Dem pflichtet auch Cameron selbst bei: „Mir geht es wirklich darum, dem Zuschauer eine filmische Erfahrung zu bieten, die ihn völlig zufriedenstellt. Ich hoffe, dass alle Zuschauer hier beim Verlassen des Kinos sagen werden ‚Ich habe keinen Film gesehen, ich habe einen Filmerlebt.’“

cameron am set

Was bleibt hinzuzufügen? James Cameron hat für den Film ein ganzes Set an Cutting-Edge-Techniken entwickelt, die das Filmemachen verändern. Bereits jetzt werden das Kamerasystem und das Capturing für weitere Projekte eingesetzt. Und bei den hervorragenden Kassenzahlen wird eine Fortsetzung immer wahrscheinlicher. Ich finde es ist Zeit für eine Nominierung von Performance-Capturing-Artists für den Oscar. Zoe Saldana sehen wir nie in ihrer menschlichen Gestalt im Film, und doch ist sie mit ihrer ganzen physischen Präsenz vertreten. Hollywood, bist Du so weit?

Leute, ich freue mich schon jetzt auf die DVD, bzw. Blu-ray con AVATAR. Nicht wegen des Films, den muss man definitiv im Kino sehen, sondern wegen des ganzen Bonus-Materials und der Making-Ofs. Ich weiß nicht, wie es euch geht, aber ich kann mich daran gar nicht satt sehen.

Das Digitale Kino kämpft um seinen landesweiten Rollout, und gerade beim wichtigsten Film des Jahres kommt es zum Gau: die Preview von James Camerons „AVATAR- Aufbruch nach Pandora“ kann aufgrund von DRM-Problemen nicht vorgeführt werden! Angeblich sind jetzt gerade hunderte Kinos in Deutschland davon betroffen, es dürfte sich dann wohl um sämtliche 3D-Kinos handeln…

Schuld ist angeblich ein fehlender KDM-Schlüssel, der die Filmdaten des Servers freigibt. Er enthält die AES-Datei, die das Aufführen des Film mit dieser dezidierten Gerätekombination erlaubt. Vermutlich sind die Aufführungen erst ab morgen mit dem vorhandenen Schlüssel erlaubt. Wie die Sicherheitstechnik gemäß DCI funktioniert, habe ich in diesem Artikel beschrieben.

Liebes Premierenpublikum, ich wünsche euch Geduld und eine schnelle Lösung des Problems! Und hoffentlich bald eine beeindruckende Vorpremiere!

Und damit ihr informiert bleibt, habe ich euch eine Twitterwall zum Thema AVATAR eingebunden: