Die Senatsverwaltung für Wirtschaft, Technologie und Frauen veranstaltet einen Wettbewerb zur Förderung der Kreativwirtschaft aus dem Bereich Visual Effects. Dazu zählt auch Projekte der stereoskopischen Filmproduktion. Den Geförderten stehen Zuschüsse aus dem ProFIT-Förderprogramm und Preisgelder in Aussicht.

createberlin

Mit der Wettbewerbsreihe „Berlin – Made to Create“ hat die Senatsverwaltung für Wirtschaft, Technologie und Frauen ein Förderprogramm für Unternehmen, Forschungseinrichtungen und freie Berufe des Clusters Kommunikation, Medien, Kreativwirtschaft ins Leben gerufen.

Die Förderung der Branchen Medien- und Kreativwirtschaft gehört zu den Hauptzielen der Wirtschaftspolitik der Länder Berlin und Brandenburg. Der neue Förderwettbewerb „Visual Effects“ findet im Rahmen der Initiative zur Förderung von Projekten im Bereich „Computer Generated Audiovisual Effects“ statt. Ziel ist die Entwicklung neuer Anwendungen und Technologien für die Film-, TV-, Kino-, Games- und Eventbranche zu fördern und deren Nutzung in Unterhaltung und Bildung zu intensivieren.

Bewerben können sich Unternehmen und Forschungseinrichtungen mit Sitz in der Hauptstadtregion, oder Unternehmen, die eine Gründung einer Betriebsstätte hier planen. Projektkonsortien sind erwünscht. Alle positiv bewerteten Beiträge erhalten eine Empfehlung für das Programm zur Förderung von Forschung, Innovationen und Technologien (ProFIT), mit einer Fördermöglichkeit in Millionenhöhe mit Zuschüssen bis zu 400.000 €.  Außerdem winken insgesamt 10.000 € Preisgeld (1. Platz  5.000 EUR, 2. Platz 3.000 EUR, 3. Platz 2.000 EUR).

Zur Expertenjury gehören neben der Medienboard Berlin-Brandenburg und der Zukunftsagentur Brandenburg auch Joachim Sauter (art+com AG), Friedrich Kirschner (zeitbrand.net), Prof. Lothar Holler (Hochschule für Film und Fernsehen Konrad Wolf), Prof. Dr. Ing. Frank Müller- Römer (MBM Medienberatung), Berthold Butscher (FhG FOKUS), Inga von Staden (projectscope) und Peter Brüggemann als Consultant an. Diese Kommission bewertet unter anderem anhand der Kriterien Originalität und Innovationsgehalt, Realisierbarkeit, Marktpotential, Kompetenz und Erfahrungen der Partner, sowie Angemessenheit der Planung die einzelnen Projekte. Einsendeschluss  ist der 31. Januar 2010.

Aus folgende Bereichen sollten die eingereichten Vorschläge stammen:

  • Projekte im Bereich der 3D-stereoskopischen Filmproduktion
  • nachhaltige Verbesserungen im Bereich visueller Simulationen im Filmbereich
  • der Einsatz von Computergame-Technologie für 3D-Previsualisierungen
  • digital Aging, virtuelle Filmsets, „multi-branching“, also die Entwicklung leistungsfähiger Datenbanksysteme zur Verarbeitung von Großprojekten im Unternehmensverbund
  • Themen wie Emotion Capturing oder Virtual Characters

Als Idealfall für Förderung wird die für Roland Emmerichs Demolition-Porn „2012“ eingesetzte Software „Volumebreaker“ genannt. Dieses PlugIn wurde speziell für den Film von Cebas VISUAL TECHNOLOGIE Inc. als PlugIn für Autodesks 3DMax entwickelt, und ermöglicht die Berechnung der Zerstörung nahezu jeder Volumenobjekte, wobei Oberfläche und und Details erhalten bleiben.

Hier gibt es weitere Informationen und die erforderlichen Dokumente zur Einreichung zum Download:

Visual Effects Wettbewerb – Aufruf für den Förderwettbewerb

Teilnahmeformular zum Einreichen von Projektvorschlägen bei der Investitionsbank Berlin

Projekt Zukunft-Wettbewerb „Create Berlin“

Weitere Informationen zum länderübergreifenden Förderwettbewerb auf den Intenretseiten der Investitionsbank Berlin (IBB)

Dann in die Hände gespuckt! Ich freue mich auf spannende Wettbewerbsbeiträge aus der Hauptstadtregion!

Update: Die Applikation läuft nicht mehr auf den McDonalds-Seiten, ihr könnt euch aber noch unter www.avatarizeyourself.com in euren eigenen AVATAR verwandeln.

Sam Worthington hat es getan. Zoe Saldana hat es getan. Und Sigourney Weaver auch. In James Camerons AVATAR verwandeln sie sich vom Menschen in die indigene Rasse des Planeten Pandora, den Na’vi. Ob Ureinwohner oder menschlicher Geist in seinem AVATAR- willst Du wissen, wie Du als Na’vi aussiehst? Kein Problem, hier findet ihr eine Applikation, mit der ihr es einfach ausprobieren könnt: Avatarize yourself!

Einfach im Fenster der Applikation unten in der Mitte auf  „Avatar erstellen“ klicken. Dann kommt ein bisschen Werbung vom Sponsor McDonalds Europe, der die Applikation in Auftrag gegeben hat, könnt ihr aber auch überspringen. Nun auf „Hochladen“ klicken und „Mein Foto hochladen“. Das Bild, am besten ein Passfoto, könnt ihr noch durch Drehen, Skalieren oder Verschieben anpassen. Wenn die Marker im Gesicht nicht genau erkannt werden, könnt ihr mit Passkreuzen noch den Gesichtsumriss , die Lage der Augen, Nase, Kinn und der Mundwinkel exakt positionieren. Je genauer ihr die Kreuze platziert, desto besser wird das Resultat. Den Rest macht die Maschine und präsentiert euch in der Gestalt eures AVATARS. Nun könnt ihr eure virtuelle Repräsentanz noch auf männlich oder weiblich stellen, zwischen den Emotionen neutral, glücklich und wütend wählen, sowie verschiedene Landschaften für den Hintergrund wählen. Wer möchte, kann dem Bild eine Nachricht hinzufügen und per Link, Mail, Widget oder Download speicher, weiterleiten oder teilen.

Entwickelt hat die Applikation Oddcast, ein Spezialist für Social Media und virale Marketing-Kampagnen. Digitale Personalisation, also das Aufbringen von Fotos auf bestehende Modell, virtuelle Charaktere, Morphing und Augmented Reality sind die Schwerpunkte der Company aus New York.

Die Figur, die ihr unten seht, ist übrigens mein AVATAR. Und wer jetzt was von Schlumpf sagt, fliegt raus. 😉

So, jetzt mach ich mich auf zur Fachkkonferenz 3D Media Workshop & Expo Berlin. Diese wird vom Fraunhofer Institute for Telecommunications Berlin seit gestern ausgerichtet. Heute stehen Projects and Initiatives, Displays and Rendering, 3D Business Models, Applications und Human Factors in 3D auf dem Programm. eine vollständige Übersicht findet ihr hier.
Leider sind die Workshops ausgebucht, allerdings kann man sich die Expo mit den unterschiedlichen Anbietern ansehen und sich dort informieren. Wer also noch nichts vorhat, sollte sich an das Einsteinufer 37 nach Tiergarten begeben.

logo

Ich hatte euch bereits vor einigen Wochen die ersten Vorschauvideos zu den Avatar-Spielzeugen vom Mattel gebracht, die anhand eines Markers und eines Computers mit Webcam dreidimensionale Objekte in Deiner Hand lebendig werden lassen- Augmented Reality, kurz AR, ist der Schlüssel. Guckt es euch hier nochmal an.

Jetzt gibt es das Spielzeug auch endlich zu kaufen! James Camerons AVATAR kommt also nicht nur ins Kino, sondern auch in die Kinderzimmer. In diesem Video gibt Mattel einen kurzen Werbetrailer (ist das eigentlich Musik aus POTC?):

Die Augmented Reality-Funktionen kann man dann auf der Webseite Avataritag.com freizuschalten, wo man natürlich auch weitere Informationen erhält. Dahinter steckt natürlich der Marktführer im filmbasierten Augmented Reality- Geschäft Total Immersion. AR-Applikationen waren dieses Jahr ein echter Hype für das Bewerben von Filmen wie Star Wars, Transformers, Harry Potter 6, District 9 usw., eine Übersicht bekommt ihr unter diesem Link. Das Besondere für AVATAR ist nun die Weiterentwicklung der Marker. Früher war es ein einfaches Symbol zum Referenzieren des Objektes im Raum, nun wurden ein paar „Knöpfe“ (also markierte Bereiche auf der Karte) hinzugefügt, die bei Berührung unterschiedliche Aktionen auslösen, z.B. Kampfmodi. Wie weit die einzelnen Figuren auch miteinander agieren können, wenn man mehrere iTags besitzt, muss ich erst noch ausprobieren. Und nein, einfach scannen und fotokopieren kann man die Karten natürlich nicht, mann muss sie auf der dazugehörigen Webseite registrieren.

Eine kleine Demo, welche Funktionen diese AR-Modelle mittlerweile aufweisen, gibt es hier:

Ich kann es nur noch mal wiederholen: wie großartig ist das? Mattel verkauft eine Pappkarte, und Du bekommst virtuelles Spielzeug. Und verkauf das mal in 30 Jahren auf dem Flohmarkt, mal gucken, ob dann die iTag-Server noch laufen, oder die Karten gegen echte Hologramme ausgetauscht werden…  😉

Wer schon immer wissen wollte, was sich hinter der IMAX-Technik und vor allem dem (analogen) stereoskopischen IMAX 3D-Format verbirgt, wird jetzt fündig. Ich hab da mal einen kleinen Film gedreht: Filmformat, Polarisationsfilter-Brillen, Projektoren, Leinwand- kommt alles zur Sprache. Apropos: der Film ist Englisch, damit er mehr Leute erreicht. Räusper…  😉

Manchmal macht ein kleiner Strich den Unterschied: Amerikanische Medien schreiben beim stereoskopischen Kino fast immer von 3-D. Zwischen der Zahl und dem Buchstaben befindet sich der kleine Bindestrich, der es zusammen hält. Vorteil: man kann in den Texte unterscheiden, ob es sich um einen computergenerierten Film (CGI) handelt, also ein Film, der mit Renderprogramm wie Maya oder wie aus dem Hause Pixar geschaffen wurde. Oder eben, ob die dritte Dimension beim Betrachten zu sehen ist, das, was wir unter einem (stereoskopischen) 3D-Film wie Coraline, The Final Destination oder OBEN verstehen. Der Nachteil: die Schreibweise 3-D mit dem Bindestrich ist in Deutschland eher ungewöhnlich. Das sieht man auf den Filmplakaten, aber auch an den Anfragen, mit denen Personen über die Suchmaschinen auf DigitaleLeinwand.de kommen. Sie suchen alle nach dem Begriff 3D, da hat ein Bndestrich nichts zu suchen.

Ich hätte gerne eure Meinung gewusst. Stimmt ab, welche Schreibweise ihr favorisiert. 3-D oder 3D oder sitzt ihr auf dem Zaun und es ist euch egal?

cinemaxx-maxximum 3d KopieCinestar und Cineplex haben vorgelegt, nun folgt die Umrüstung der letzten großen Kinokette: Cinemaxx rüstet um. Und vor allem rüstet der Multiplexveteran auf. „Fast 60 Leinwände“ werden mit 4K-Projektion digitalisiert und für den stereoskopischen 3D-Betrieb ausgerüstet. Bei 39 deutschen Cinemaxx-Kinos bedeutet dies sogar die Umrüstung von mehreren Leinwänden pro Kino. Und dabei wird nicht gespart: rund 5 Mio Euro werden in die Zukunft des Kinos investiert.

Da gönt man sich doch gleich noch ein eigenes Logo: „Maxximum 3D – 4K Technology“ listet alle Vorzüge der neuen Technik auf. Und man setzt einen Vorspann vor die Webseite, die doch auch ein wenig an die ersten 3D-Versuche der Gebrüder Lumiere mit dem in einen Bahnhof einfahrenden Zug erinnern. Nur wird man diesmal frontal von einem ICE überrollt. 🙂

4K-Projektoren, die eine Auflösung von Auflösung von 4096 × 2160 Bildpunkten liefern,  sind in Deutschland bisher eher selten vertreten, lediglich das Multiplex Gelsenkirchen betreibt derzeit diese hohe Auflösung. Alle weiteren Kinos sind derzeit mit 2K-Projektoren ausgerüstet. Im Cinemaxx werden 4K CineAlta-Projektoren von Sony eingesetzt. Marktführer RealD liefert die stereoskopische 3D-Technik. Bei 4K-Beamern werden die 3D-Bilder dabei nicht nacheinander, sondern gleichzeitig projiziert. Dies führt zu einer Reduktion der Auflösung auf 2K, was aber der gängigen DCI-Spezifikation entspricht. Auch werden von den Filmverleihern die Filme auch zumeist nur in 2K geliefert. Mehr über die Bildformate in diesem Artikel.

„3-D ist ein Wachstumstreiber“, betont Cinemaxx-Vorstandschef Christian Gisy gegenüber dem Handelsblatt. Es wird mit Mehreinnahmen von 5-6 Euro pro Kinobesuch gerechnet, da neben dem Ticket-Aufschlag auch die 3D-Brille gekauft werden muss. Ob allerdings bei einer flächendeckenden Verbreiteung von Digitalen Leinwänden und 3D-Kinos dieser Aufschlag akzeptiert wird, bleibt abzuwarten. Während z.B. bei UCI oder Cinestar keinerlei Gutscheine oder Rabatte für die 3D-Filme eingelöst werden können, wird Cinemaxx für die 3D-Filme gültige Gutscheine auf den Markt bringen. Der Clou: Für Inhaber einer Jahreskarte entstehen keine weiteren Kosten durch etwaige Aufschläge.

Der Zeitplan ist eindeutig fokussiert: die ersten Kinos werden The Final Destination bereits in digitalem 3D zeigen, etwa 30 Kinos spielen Pixars OBEN ab Mitte September, und bis zum Filmstart von James Camerons AVATAR wird mindestens ein Kino je Standort umgerüstet sein.

DigitaleLeinwand.de wünscht dem Cinemaxx einen hervorragenden Start in das digitale Projektionszeitalter!

In den USA folgt derzeit Messe um Messe. Bis gestern lief die SIGGRAPH 2009 (Special Interest Group on Graphics and Interactive Techniques) in New Orleans. Die japanischen Shinoda Labs rund um das Forscherteam von Takayuki Iwamoto präsentierten dort erstmals ein taktiles, also fühlbares Hologramm.

Dafür wurden Provision-Projektionsschirme mit dem Airborne Ultrasound Tactile Display kombiniert. Das Provision-System projiziert Objekte mit Hilfe eines LCD-Bildschirms und eines konkaven Spiegels in den Raum. Streng genommen handelt es sich dabei nicht um ein Hologramm, sondern nur um ein schwebendes projiziertes Objekt, aber das soll an dieser Stelle vernachlässigt werden.

Das Airborne Display bietet ein fein ansteuerbares Array von Ultraschall-Punkten. Durch den Schalldruck lassen sich fühlbare Reize ganz ohne mechanische berührende Komponenten erzeugen. Die räumliche Verteilung des Drucks hängt vom Brennpunkt ab, und kann über Phasenverzögerung und Amplitude der akustischen Wellen gesteuert werden. Den virtuell erzeugten Objekten kann man so ein Gewicht und damit eine Stofflichkeit geben, die Berührung vortäuscht.

Um die Position im Raum bestimmen zu können, werden die mit Infrarotkameras versehenen Wii-Motes eingesetzt. Die im Filmbeispiel gezeigte Hand ist mit einem reflektierenden Marker versehen, die nicht sichtbares (so genanntes diskretes) Infrarotlicht einer Leuchte zurückwirft. Anhand dieser Daten lässt sich die Position des Markers – und damit der Hand- mit Hilfe eines Handtracking-Systems recht genau bestimmen.

Stimmt nun die Position der Hand mit der Lage des virtuellen Objektes überein, wird mit den akustischen Wellen Druck an den jeweiligen Berührungspunkten erzeugt: Der User ist in der Lage, das virtuelle Objekt zu ertasten. Im Film ist dies anhand eines Balls, fallenden Regentropfen und einem kleinen Elefanten veranschaulicht.

Wer sich für die technischen Details und Parameter  interessiert, sollte sich das Abstract ansehen.

Nicht nur 3 Dimensionen werden im Kino eingesetzt, mitunter sind auch 4D-Kinos zu erleben. Vor allem Vergnügungsparks bieten diese Attraktion an, wo neben einem stereoskopischen Film auch Effekte wie Bewegung, Temperatur, Stromkitzeln, Berührungen durch Stofflappen oder Wasserspritzer die Filmhandlung aufgepeppen. So ein berührungsloses, durch Schalldruck gesteuertes System wäre natürlich eine Sensation, vornehmlich für das effektorientierte Genrekino. Wenn die Objekte nicht nur aus der Leinwand herausragen, sondern auch noch die Illusion einer Berührung schaffen, dürfte der Grad der Immersion weiter ansteigen. Und man stelle sich eine Schlägerei auf der Leinwand vor, bei der auch mal ein leichter Luftdruck-Schlag in Richtung Zuschauer geschickt wird. Mittendrin statt nur dabei. Aber keine Sorge, die Kosten für ein solches System sind viel zu hoch, als dass sie nächstes Jahr massenhafte Verbreitung im Kino finden würden. Zudem wären einzelne Sitzplätze in einem großen Kino schwer anzusteuern. Aber die Anfänge sind gemacht. 🙂

Und hier das Demovideo des Systems:

"Coraline" verbindet StopMotion mit modernster 3D-Technik

"Coraline" verbindet StopMotion mit modernster 3D-Technik - © Universal

Coraline ist der erste Stop-Motion-Animationsfilm, der vollständig in stereoskopischem 3D gedreht wurde, und bietet dem Zuschauer, so Henry Selick, „die einmalige Erfahrung, vollständig in eine dreidimensionale Erlebniswelt einzutauchen“. Coraline startet am 13. August 2008 in unseren Kinos, natürlich in ausgewählten Kinos in einer stereoskopischen Fassung.

Als allererster 3D-Stop-Motion-Film gilt John Norlings Kurzfilm „In Tune with Tomorrow“, der ursprünglich für die Weltausstellung 1939 in New York produziert wurde. Über die Jahrzehnte entwickelten sich beide Verfahren unabhängig voneinander weiter und eroberten ihren Platz in der Geschichte der Kinoindustrie und Filmmagie. Vor wenigen Jahren übertrug Walt Disney Pictures Selicks Stop-Motion-Spielfilm „The Nightmare Before Christmas“ aus dem Jahr 1993 auch in das 3D-Format.

Nachdem Kameramann Pete Kozachik bei der Bearbeitung des Films zu Rate gezogen wurde und das Ergebnis gesehen hatte, gab er dem Verfahren grünes Licht. 2006 kam die neue 3D-Digitalversion heraus und war so erfolgreich, dass der Film seither jeden Herbst wieder in die Kinos kommt. Selick offenbart: „Als ich „Nightmare“ und „James und der Riesenpfirsich“ drehte, haben wir schon etwas mit 3D experimentiert. Ich bin mit Lenny Lipton befreundet, der mit dieser Technologie führend ist und jetzt bei RealD arbeitet.“

Regisseur Henry Selick mit Stopmotion-Figur Coraline

Regisseur Henry Selick mit Stopmotion-Figur Coraline - © Universal

„So um das Jahr 2004 herum sah ich Lennys neueste Entwicklungen in diesem Bereich. Bill Mechanic und ich stellten fest, dass die 3D-Erfahrung Coralines Geschichte am Besten zur Geltung bringen würde. Seither sind die Digital-Projektion, das RealD-Verfahren und die neuen stereoskopischen Systeme immer eindrucksvoller geworden – die aktuellen Brillen sind sogar bequemer!“ Auch Neil Gaiman war beeindruckt: „Das erste Mal, als ich das 3D-Material von „Coraline“ sah, blieb mir der Mund offen stehen. Noch nie hatte ich so tolle 3D-Szenen gesehen – und der Realismus der Stop-Motion-Animation wirkt wie ein echter Spielfilm.“

Lipton arbeitet seit 1972 an der Weiterentwicklung des 3D-Verfahrens. RealD Cinema ist eine digitale Projektionstechnologie mit hoher Auflösung, die anders als frühere Systeme nicht zwei Projektoren braucht. RealD verwendet einen einzigen Projektor, der abwechselnd das Frame für das linke und dann für das rechte Auge projiziert. Jedes Frame wird drei Mal in hoher Geschwindigkeit projiziert, was das Flackern der Bilder verringert und eine fließende Bilderabfolge ermöglicht. Durch die speziellen Brillen betrachtet, die jedem Auge nur „seine“ Bilder zeigen, ist das Ergebnis eine nahtlose Reihe von 3D-Bildern, die sich auf sämtliche Ausmaße der Leinwand erstrecken – aber nie darüber hinaus. Kozachik sagt: „3D funktioniert endlich ohne Einschränkungen, zum großen Teil Dank der digitalen Projektion – eine Linse, ein Projektor.“

Auf Einladung von Selick stattete Lipton LAIKA einen Besuch ab, um eine Reihe von Seminaren zu dieser neuen stereoskopischen Technologie abzuhalten; der Regisseur gibt zu, dass es für die Produktion noch während der Arbeit viel zu lernen gab. „Ausschlaggebend für dieses 3D-Erlebnis“, sagt er, „war, die Essenz dieser Miniaturwelten einzufangen, indem wir zwei Bilder für jeden Frame fotografierten – eines für das linke und eines für das rechte Auge. Also zwei Bilder, aber nicht zwei Kameras.“

Lead Animator Travis Knight bei einer Szene

Lead Animator Travis Knight bei der Arbeit - © Universal

Dennoch waren auf den 52 verschiedenen Stages bei LAIKA ständig sieben einzelne 3D-Kameras im Einsatz. Kozachik meint: „Es war der komplizierteste Stop-Motion-Dreh, bei dem ich je dabei war. Es sind doppelt so viele Einstellungen – rund 1.500 – in „Coraline“ wie davor in „Nightmare“. Man könnte sagen, dass es sieben Second Units und keine First Unit gab – oder aber, dass es eben sieben First Units waren. Ich war am Anfang einer Sequenz dabei und habe Anweisungen zur Beleuchtung oder Anpassung des Sets gegeben – dann über-nahm die jeweilige Unit. Die Monitore am Stage geben immer einen guten Eindruck davon, was schließlich auf der Kinoleinwand zu sehen sein wird.“

„Meine Priorität waren die Stages, die gerade ihre Arbeit aufnahmen oder „hot spot“-Fragen hatten. Schon vor langer Zeit habe ich gelernt zu delegieren.“

Mit einer einzigen 3D-Kamera wird das gleiche Frame zwei Mal fotografiert, bevor man an das nächste Frame geht. Die Kamera wird so programmiert, dass sie sich nach links und rechts dreht, um jedes Frame für das jeweilige Auge einzufangen. Die Auswahl eine „Machine Vision“-Kamera, die sonst bei Industrie-Robotern eingesetzt wird, gab den Filmemachern mehr Flexibilität in den Kamerabewegungen und die Freiheit, sich bei Nahaufnahmen dreidimensional um die Figuren herum zu bewegen.

Außerdem, so Selick, stellte man fest, dass „man für 3D den Abstand zwischen der Linse und dem Subjekt normalerweise so einstellt, wie es dem menschlichen Auge entspricht. Da wir aber mit Miniatur-Figuren gedreht haben, spürten wir, dass wir diesen Abstand verkürzen konnten.“

Assistenz-Kameraman Mike Gerzevitz vermißt die Bildtiefe

Assistenz-Kameraman Mike Gerzevitz vermißt die Bildtiefe - © Universal

„Wir wollten die Augen der Zuschauer näher zusammenbringen – entsprechend dem Abstand zwischen den Augen der Figuren im Film, damit man unmittelbar in deren Welt einsteigen kann“, so Kozachik. „So bekommen die Zuschauer die gleichen visuellen Hinweise wie in ihrem Alltag, aber nichts, was sie zum Schielen bringen würde.“

Selick erklärt: „Die heutige 3D-Technologie kann als ‚stereoskopisch’ bezeichnet werden, weil sich die Zuschauer alles mit beiden Augen anschauen können, wie man es als menschliches Wesen eben tut. Man bekommt ein Gefühl für Tiefe. RealD vermittelt die gesamte Stop-Motion-Welt, die wir als Filmemacher dem Publikum bieten möchten. Bei „Coraline“ setzen wir 3D ein, um das Publikum in die von uns erschaffene Welt eintauchen zu lassen und um die Energie zu vermitteln, die unsere Miniatur-Sets wirklich ausstrahlen. Darum geht es, und nicht nur um Gimmicks wie Dinge, die aus der Leinwand hervor schießen. Die haben wir zwar auch, aber sparsam eingesetzt.“ Kozachik fügt hinzu: „Solche Momente unterstützen die Story und wurden behutsam ins Drehbuch eingebaut. Man gab uns den Rat: ‚Man soll eher die Räume öffnen als dem Zuschauer Dinge ins Gesicht springen zu lassen.’“

Arbeiten am Stopmotion-Set

Arbeiten am Stopmotion-Set - © Universal

Zu diesem Zweck beschwört der Filmemacher auch die Mantras zweier seiner Mentoren, die Oscar-preisgekrönten Visual Effects Artists Dennis Muren und Phil Tippett, nämlich „eine Einstellung, ein Gedanke“ und „worum geht es in der Einstellung?“. Glücklicherweise stellte Kozachik fest, dass „wenn man erst einmal die Basics des stereoskopischen Verfahrens gemeistert hat, es sich zu einem weiteren Kamera-Werkzeug entwickeln kann – vorausgesetzt, es ist nicht das Einzige. Bei „Coraline“ haben wir es als Instrument eingesetzt, mit dessen Hilfe man die Geschichte erzählen kann.“

„Allerdings haben wir mit diesem stereoskopischen Verfahren auch Dinge getan – z.B. beim Fokus und der Tiefenschärfe – von denen man uns abgeraten hatte, und ich finde, alles ist gut gelungen. Wir wollten uns keine Patzer leisten; Henry und ich haben diesmal alles ziemlich auf die Spitze getrieben.“ Beide Welten in „Coraline“ sind in 3D zu sehen; erwartungsgemäß hätten die Filmemacher ihre Story in 2D beginnen können. Erst als Coraline die andere Welt betritt, hätten die Zuschauer dann ihre 3D-Brillen aufgesetzt. Selick war jedoch davon überzeugt, man sollte die Unterschiede zwischen den Welten in der gesamten Filmsprache und Erzählweise verankern. Er sagt: „In Coralines realer Welt haben wir die Sets etwas klaustrophobischer gestaltet. Die Farben sind ausgewaschener, denn ihr Alltagsleben soll eher fade wirken.“

eine digitale 3D-Kamera filmt die Konversation am Küchentisch

eine digitale 3D-Kamera filmt die Konversation am Küchentisch - © Universal

„Wenn sie die andere Welt betritt, sehen die Sets ganz ähnlich aus, sind aber insgesamt tiefer und bieten mehr Raum. Die Farben sind etwas kräftiger und wir bewegen die Kamera mehr. In ihrer realen Welt steht die Kamera fest und bildet eine Reihe von eher langweiligen Tableaus ab. Die „echte“ Welt wirkt wie eine Theateraufführung und die andere Welt daher so viel „realer“ auf sie – und auf die Zuschauer.“

Rillen für Schienen wurden in die Böden eingebaut und einige Wände waren abnehmbar, damit sich die Kamera bewegen konnte, wenn auch nur um jeweils einen Millimeter. Damit sich das Publikum besser mit Coralines Blickwinkel identifizieren kann, war die Kamera normalerweise tiefer als die Augenhöhe eines Erwachsenen.

Lead Animator Travis Knight kontrolliert das Framing

Lead Animator Travis Knight kontrolliert das Framing - © Universal

Die liebevoll ausgestalteten Details und üppige Ausstattung in der Arbeit der Filmemacher wird durch 3D noch hervorgehoben, obwohl „Coraline“ (wie gängige Filme) auch auf 2D konvertiert oder digital ausgedruckt werden kann. Obwohl „Coraline“ also auch in 2D gezeigt werden kann und wird, begeistert sich Dakota Fanning: „Mit der 3D-Brille sieht alles viel toller aus!“ Die Schauspielerin spricht aus Erfahrung: während einer Vorführung des vollendeten Filmmaterials lugte sie kurz unter ihrer 3D-Brille hervor – und stellte fest, dass der Filmgenuss mit Brille um einiges größer war. Sie fügt hinzu: „Selten findet man einen Film, den man sich immer wieder anschauen und in dem man jedes Mal neue Dinge entdecken kann. Ich bin stolz darauf, ein Teil davon sein zu dürfen und werde „Coraline“ immer behalten, um ihn auch meinen Kindern zu zeigen.“

Neil Gaiman (l.), Buchautor von "Coraline" und Regisseur Henry Selick (r.)

Neil Gaiman (l.), Buchautor von "Coraline" und Regisseur Henry Selick (r.) - © Universal

Deutschland leistet sich eine vollständige Übersetzung ausländischer Filme in die Landessprache. Es gibt sogar eine jährliche Preisverleihung für die besten Synchronsprecher. Stereoskpische Filme werfen nun aber ein ganz neues Problem für OmU-Vorführungen auf. Was macht man mit den Untertiteln im Original?

Bisher hat niemand richtig herausgefunden, welche Tiefendimension in 3D-Filmen für Untertitel die beste ist. Das Problem bereitet Kopfschmerzen, vor allem beim Zuschauer, der zwischen den Inhalten des Films und der Schrift hin und her fokussieren muss. Falsch angeordnet, sind 3D-Untertitel noch störender als 2D-Untertitel.

Auch für die Verleiher stellt sich das Problem: Untertitel sind ein Bestandteil des Digital Cinema Package (DCP) und werden komplett mit dem Film ausgeliefert, in etwa so, als wenn der Film auf analogem Material eingebrannt wäre.

Firmen wie Disney/Pixar untertiteln in der Regel ihre Filme nicht, sondern lassen sie synchronisieren. Die Festivaleröffnung in Cannes ware eine aufwändige Ausnahme: Pixar hat für jede Einstellung die Untertitel manuell auf der bestmöglichen Tiefenebene eingebettet.

Julian Stanford, Chef der IMAX-Kinoentwicklung, hat auf der Dimension 3-Messe in Paris eine Software angekündigt, die diesen Schritt automatisiert. Die Untertitel werden dabei auf der gleichen Tiefenebene wie das sich bewegende Hauptobjekt des Films positioniert.

Sicherlich sind Untertitel eine sehr gute Möglichkeit, ausländische Filme verstehen zu können. Aber mich lenken sie auch immer ein wenig ab, ich bin nicht so konzentriert auf die große Fläche der Leinwand, sondern mehr auf den unteren Rand fixiert. Der Film „Slumdog Millionaire“ war mutig und hat die Untertitel nicht in den unteren Rand, sondern mitten ins Bild gesetzt, abhängig von den weiteren Bildelementen. Das war erfrischend anders.

Aber gerade beim visuellen Erlebnis einer 3D-Vorführung möchte ich mich auf die Bilder und den Raum einlassen, da würden mich Untertitel eher stören. Rettet als das 3D-Kino die Arbeitsplätze der Synchronsprecher? 😉