2O16 ISSN 1433-2620 > B 43362 >> 20. Jahrgang >>> www.digitalproduction.com Deutschland € 15,20 Published by Österreich € 17,– 5 Schweiz sfr 23,–

O5:16 MAGAZIN FÜR DIGITALE MEDIENPRODUKTION AUGUST | SEPTEMBER 05:2016 Fokus:

Workstations im Test | Cinema 4D R18 | Jungle Book | Blender Cloud | Clarisse 3 | Flame 2017 | Fusion 8 | Independence Day 2 | VR-Games

Fokus: Workstations Kino satt! Frische Tools! Profi-Maschinen im Test – welche Colonia Dignidad, Jungle Cinema 4D R18, Clarisse 3, wird Ihr nächster Arbeitsrechner? Book, Independence Day 2 Flame 2017, Fusion & mehr

DP1605_001-001_U1_Titel.indd 1 04.07.2016 08:02:08 FOKUS FILM & VFX 3D & ANIMATION INTERACTIVE DIGITAL ART SCIENCE & EDUCATION SERVICE Bilder: © 2O16 Twentieth Century Fox

Mehr ist mehr?

1996 war “Independence Day” der Kracher schlechthin im Kino. Solche Effekte, Zerstörungen und eine fette Schlacht mit Aliens hatte man zuvor noch nicht gesehen. Da Regisseur von Desctructions in epischem Ausmaß nie genug bekommt, kehrt „Independence Day“ zum 2O-jährigen Jubiläum mit Teil 2 ins Kino zurück. von Mirja Fürst

n den letzten zwei Jahrzehnten haben Spaßfaktor nicht gelegen haben: Vom alten der „Tribute von Panem“-Reihe und als Bruder sich völlig neue VFX-Möglichkeiten erge- Cast sind im zweiten Teil unter anderem Jeff von Thor-Darsteller Chris Hemsworth bekannt Iben und die technischen Verbesserungen Goldblum und der im ersten Teil als US- wurde. Will Smith, der im ersten Teil Captain waren für Destruction-Enthusiast Emmerich Präsident agierende Bill Pullman dabei. Als Steven Hillers verkörpert, fehlt aus einem auch der Hauptgrund, eine Fortsetzung von Nachwuchsdarsteller in Hauptrollen wurden simplen Grund: Der inzwischen zur A-Liga der „Independence Day“ machen zu wollen. Das unter anderem Maika Monroe, die schon in Schauspieler zählende Smith ist schlichtweg Sequel „Independence Day 2: Wiederkehr“, „It Follows“ ihr schauspielerisches Können be- zu teuer geworden. Aber ein Bild vom ehe- das erste überhaupt in Emmerichs langer wies, sowie Liam Hemsworth besetzt, der mit maligen „Prince von Bel-Air“ an der Wand im Karriere als Filmemacher, startete am Weißen Haus war doch noch drin. 14. Juli in den deutschen Kinos. Auch in Sachen VFX-Vendors hat Em- Der zweite Teil wurde von Liebha- merich alles richtig gemacht und auf das bern des ersten „Independence Day“- Who‘s Who der digitalen Kunst gesetzt: Films heiß erwartet – so auch von der Unter anderem waren Digital Domain, DP-Redaktion, die den Film vorab sehen Scanline, Trixter, Weta, MPC, Image En- durfte: Und leider konnten wir uns nicht gine, Cinesite, Luxx Studios, BUF, Un- dem Eindruck verwehren, dass Roland charted Territory und Why Worry Pro- Emmerich ab einem bestimmten Punkt duction an dem Werk beteiligt. im Prozess das Projekt auf vielen Ebe- Gerüchten zufolge ist bereits Teil 3 von nen entglitten ist, hinsichtlich Storyline, „Independence Day“ geplant – hoffent- Charaktere und Unterhaltungsfaktor lich nimmt sich Roland Emmerich hier- (und diesen einen Punkt hätten wir bei für mehr Zeit bei der Ausarbeitung des einem Emmerich-Film auf jeden Fall er- Konzepts. Aber kommen wir zum Wich- wartet erfüllt zu sehen). Aber zum Glück tigsten, der imposanten VFX-Schlacht: sind Geschmäcker ja auch verschieden. Vor Kinostart durften wir exklusiv mit den Zumindest an der Darsteller-Beset- Regisseur Roland Emmerich mit Darsteller VFX-Supervisors von Scanline, Image En- zung des Films kann der mangelnde Bill Pullman am Set gine und Cinesite sprechen.

50 WWW.DIGITALPRODUCTION.COM

DP1605_050-057_ID2CineImageScanline.indd 50 04.07.2016 09:31:46 AUSGABE O5:2O16 INDEPENDENCE DAY 2 | MAKING-OF

die komplette Landesequenz beschäftigt, welche zahlreiche Hero Shots in verschie- denen Environments und spektakuläre Simu- lationen beinhaltete. Darüber hinaus waren Hauptszenen der Rettung in Washington, die große Strudel-Sequenz sowie eine Vielzahl von Umgebungsshots im Afrika-Environment aufwendig in der Bearbeitung.

DP: An welche Studios habt ihr das Mo- thership gegeben und in welchem Format wurde das Asset weitergereicht? Mohsen Mousavi: Unter anderem an Weta, MPC, Digital Domain und Uncharted Terri- tory. Für den Austausch nutzen wir native Maya-Ascii-Dateien, die sich als am besten funktionierend bewährt haben, wenn ver- schiedene Studios mit unterschiedlich auf- gebauten Formaten arbeiten.

DP: Wie sah die Tool-Pipeline aus? Mohsen Mousavi: Wir verwendeten Maya für alle Front-End-Prozesse wie Modeling, Surfacing, Rigging, Layout und Animation. Die Rigid Body Dynamics und Volumetric FX realisierten wir mit 3ds Max in Kombination mit Thinking Particles, worauf auch die Ren- dering Pipeline mit unserem Haupt-Renderer V-Ray aufsetzt. Wir haben uns eine robuste Inhouse Bridge zwischen Maya und 3ds Max Scanline: seren studiointernen Sequenzen arbeiteten gebaut, wodurch die Verbindung der beiden Mothership & Meer wir an verschiedenen Environments inklusi- Tools für die Produktion bereitsteht. Für die ve großen Abschnitten von Singapur Down- Wasser- und andere volumetrischen Simu- ohsen Mousavi arbeitet als VFX-Su- town, Gebieten der Londoner Innenstadt lationen kommt natürlich unsere preisge- pervisor bei Scanline in Vancouver sowie Washington DC – wobei es dabei vor krönte, selbstentwickelte Software Flowline Mund ist seit mehr als zehn Jahren allem das Weiße Haus und den umliegenden zum Einsatz, die eng mit V-Ray und Thin- in der Branche tätig. Zu seinem Projekt- Bereich betraf. Für ID2 durften wir ein breites king Particles sowie weiteren Aspekten der Portfolio zählen unter anderem „Game of Spektrum an Shots für viele verschiedene Pipeline verknüpft ist. Mari bildet das Herz Thrones“, „Hugo Cabret“, „Pompeii“ oder Szenen kreieren. Hauptsächlich hat uns die unserer Texturing-Pipeline und Nuke setzen „San Andreas“. Scanline lieferte insgesamt Ankunft des Motherships über der Erde sowie wir im Compositing ein. 260 Shots für „Independence Day 2: Wie- derkehr“ (ID2) in 9 Monaten Bearbeitungs- zeit. In Spitzenzeiten waren bis zu 180 Ar- tists mit dem Projekt beschäftigt.

DP: Wie kam Scanline zu ID2? Mohsen Mousavi: Wir haben schon für „2012“ mit Roland Emmerich und Volker En- gel (Anm. d. Red.: Gründer und VFX-Super- Weltuntergangs-Spezia- visor von Uncharted Territory) zusammen- listen: Destructions, Wasser- gearbeitet und für den Film einige Shots mit massen und Mothership für Wassersimulationen und FX-Desctructions ID2 von Scanline im Riesenmaßstab geliefert. ID2 ist episch in jedem Aspekt und von daher war Scan- line als Studio die erste Wahl für die Umset- zung der Zerstörungsszenen und der großen Wasser-Sequenzen.

DP: Welche Szenen beziehungsweise Assets habt ihr bearbeitet? Mohsen Mousavi: Wir waren verantwortlich für das Design des Motherships und des City Destroyers; diese beiden Assets haben wir auch an andere Vendors ausgeliefert. Bei un-

51

DP1605_050-057_ID2CineImageScanline.indd 51 04.07.2016 09:31:49 FOKUS FILM & VFX 3D & ANIMATION INTERACTIVE DIGITAL ART SCIENCE & EDUCATION SERVICE

DP: Warum V-Ray für das Rendering? Shots und riesigen Elementen umgehen, die Image Engine: Mohsen Mousavi: Uns verbindet eine lange man in dieser Größe noch nie zuvor in ir- Tentakel & Tiefe Historie mit V-Ray und Chaos Group: Wir wa- gendeinem Film gesehen hat. Den jeweiligen ren eines der ersten Studios, das den vollen Maßstab sinnvoll darzustellen und gleichzei- upervisor Martyn „Moose“ Culpitt von Vorteil von V-Rays robusten SDK nutzen tig alles in eine gelungene Shot-Komposition Image Engine war schon 2001 als Artist durfte, sodass wir zahlreiche Custom Shaders zu bringen, war bei dem Auftrag eine große Sbei „Herr der Ringe: Die Gefährten“ tä- und Features schreiben konnten, mit denen kreative Herausforderung. Wir starteten in tig, seitdem arbeitete er als VFX-Supervisor sich massive Datensätze rendern lassen. den Prozess mit zahlreichen Konzept-Varian- unter anderem an Feature Filmen wie „White ten, um mit Roland schnell kommunizieren House Down“ oder „Jurassic World“ (s.a. DP DP: Wurde für ID2 etwas neu entwickelt? und seine Vision des Maßstabs und Chaos‘ 01:16). Image Engine kreierte verantwort- Mohsen Mousavi: Scanline pusht seine Tech- verstehen zu können. Nachdem wir unge- lich alle Aliens für ID2 – ausgenommen die nologie kontinuierlich. Mit jeder neuen Show fähr eine Vorstellung hatten, gingen wir in Alien Queen, die von Weta Digital gebaut fragen wir uns, wo etwas im Prozess fehlt, die Test- und Researchphase für die Simula- wurde. Darüber hinaus erstellte das Team damit wir die Bedürfnisse der extrem kom- tionen, um herauszufinden, wie wir am be- aus Vancouver drei riesige Environments. plexen Shots, an denen wir immer arbeiten, sten an die Shots herangehen. Durch diverse Insgesamt fielen für vier Hauptszenen rund bestmöglich erfüllen können. Für ID2 im Spe- Iterationen näherten wir uns dann Rolands 170 Shots an, 96 davon Creature-Shots. Bei ziellen nahmen wir ein Major-Update an den Vorstellung an. Image Engine waren insgesamt 120 Artists Flowline Volumetrics vor, um große Smoke ein Jahr lang mit dem Projekt beschäftigt: und Fire Simulations auf eine neue Ebene DP: Ihr seid ja Projekte mit großen Zer- von der Preproduktion über Set-Betreuung zu hieven und so die Komplexität und den störungen und Wassermassen in der bis zur finalen Auslieferung. enormen Maßstab der ID2-Shots zu leisten. Pipeline gewohnt. Hat ID2 dennoch alles zuvor Dagewesene getoppt? DP: Wie ist Image Engine zu dem Projekt DP: Wie viele Wasser-Shots fielen an? Mohsen Mousavi: Scanline besitzt in der Tat gekommen? Mohsen Mousavi: Wir haben mehr als 50 viel Erfahrung mit Triple-A-Shots – gewal- Martyn Culpitt: Wir wurden von den VFX- Shots mit Wassersimulation realisiert: Unter tige Destructions und enorme Simulationen Supervisors Marc Weigert und anderem einen riesigen Tsunami, ins Was- haben wir unter anderem schon für Projekte angesprochen, um mit ihnen an dem Film ser kollabierende Städte, Fluten um Singa- wie „2012“, „San Andreas“, „300“, „Iron Man zu arbeiten. Durch unsere Jobs für „White pur herum in umgekehrter Gravitation sowie 3“ oder „Battleship“ realisiert. ID2 war aber House Down“ und „2012“ haben wir eine verschiedenste digitale Ozean-mit-Schiff- aufgrund seines einzigartigen und origi- enge Verbindung zu ihnen aufgebaut. Un- Interaktionen. nellen Stils dennoch eine große Herausfor- ser Executive Producer Shawn Walsh hatte derung, da es immer schwieriger ist, etwas bereits 2013 mit Marc und Volker über ID2 DP: Welche Größenordnung haben die ganz Neues von Grund auf zu entwickeln. gesprochen, als ursprünglich noch geplant CG-Wassersimulationen von ID2 erreicht? Für den Look mussten wir viel forschen. war, dass es zwei Filme werden sollten. Mohsen Mousavi: Bei einigen der Shots konnte eine Iteration der Simulationsdaten DP: An was arbeitet Scanline aktuell? DP: Mit welchen Studios habt ihr Assets leicht über 5 TByte gehen. Dabei reden wir Mohsen Mousavi: Unter anderem an „Guar- ausgetauscht? tatsächlich nur von einer einzelnen Iteration, dians of the Galaxy 2“, „Power Rangers“ und Martyn Culpitt: Direkt haben wir nur mit die über einige Stunden bei einem Shot lief! vielen weiteren Shows, über die wir zum Uncharted Territory an der „Escape“-Szene Aber Scanline ist besonders gut darin, riesige jetzigen Zeitpunkt noch nicht reden dürfen. im Mothership zusammengearbeitet. Die Datenmengen zu ma- nagen. Dafür gibt es bei Vor allem die Anima- uns eine spezielle High- tion der Tentakel war End-Infrastruktur, mit Emmerich wichtig. Image Engine gestalte- der sich Volumendaten te alle außerirdischen hinsichtlich der Spei- Creatures, außer der cherung sowie im Net- Alien Queen, die von Weta designt wurde. working gut anpacken lassen, und in welcher kluge Setups zur Verfü- gung stehen, mit denen sich nicht verwendeter oder veralteter Cache aufspüren und schnell archivieren oder lö- schen lässt.

DP: Was war generell betrachtet die größte Herausforderung bei ID2? Mohsen Mousavi: De- finitiv der Scale! Wir mussten mit enorm großen Establishing

52 WWW.DIGITALPRODUCTION.COM

DP1605_050-057_ID2CineImageScanline.indd 52 04.07.2016 09:31:51 AUSGABE O5:2O16 INDEPENDENCE DAY 2 | MAKING-OF

Image Engine verantwor- tete neben den Aliens drei riesige Environments für ID2.

verschiedenen Assets, die wir mit ihnen aus- hindurch waten und so versuchen den Alien- bei diesen Shots schon am Limit, aber letz- getauscht haben, packten wir so zusammen, Soldaten zu entkommen. Die Schauspieler ten Endes hat alles gut funktioniert. dass sie die Dateien lesen konnten, die wir wurden im Bluescreen gefilmt, deswegen zu den korrekten Modell- und Texturpfaden haben wir für diese Shots ein Full-CG-Envi- DP: Wie sah eure Renderfarm aus? verlinkt hatten. Dafür haben wir ein spezi- ronment kreiert – inklusive Wasser, Belau- Martyn Culpitt: Sie besteht aus über 700 elles Tool geschrieben. Vor dem Start der bung und Nebel. Des Weiteren haben wir ei- Maschinen, was insgesamt eine Coreanzahl Show tauschten wir uns intensiv mit Unchar- nen Alien-Mähdrescher mit einer Größe von von mehr als 25.000 ergibt. ted aus, um sicherzustellen, dass der Work- 160 x 45 x 36 Metern sowie einen Truppen- flow richtig sortiert ist – so verlief der Prozess transporter, der mehr als 100 Alien-Soldaten DP: Mit welcher Engine habt ihr geren- selbst in den Stoßzeiten der Produktion noch beherbergte, gebaut. Auch für die epische dert? Habt ihr Alternativen getestet? sehr entspannt. Einige unserer Assets, die Fluchtsequenz, in der sich die Piloten auf Martyn Culpitt: Wir nutzten den Path Tra- auch von anderen Vendors benutzt wurden, einer großen Full-CG-Plattform wiederfin- cer 3Delight für das Rendering. Mit dieser lieferten wir ebenfalls an Uncharted, die sie den, sowie für ein Full-CG-Environment in Renderman-konformen Engine konnten wir dann weiterleiteten. dem Cheyenne Mountain waren wir verant- in vorherigen Projekten sehr gute Ergebnisse wortlich. verzeichnen. Für ID2 haben wir uns deshalb DP: An welchen Szenen beziehungsweise keine Alternativen angeschaut. Da wir aber Assets habt ihr konkret gearbeitet? DP: Was war insgesamt betrachtet die permanent auf der Suche nach Optimie- Martyn Culpitt: Wir haben die umfangreiche größte Herausforderung bei ID2? rungen sind, wird eine der nächsten großen Gefängnis-Sequenz mit einem Full-CG-Pri- Martyn Culpitt: Für mich persönlich der en- Veränderungen sein, das Ersetzen unseres son inklusive der kompletten Umgebung orme Maßstab der Environ- kreiert und rund 100 Aliens in Zellen ge- ments und die hohe Anzahl an setzt. Die Aliens fügten wir darüber hinaus Shots, die wir um die Assets in Live-Action-Shots ein und ließen sie mit herum kreieren mussten. Die den realen Darstellern interagieren. Wir re- Environments waren so groß, alisierten auch die „Foliage“-Sequenz im Ali- dass das Modeling zahlreiche en Mothership – einer sehr atmosphärischen Details und viel Tiefe benö- Umgebung, in der die Jet-Piloten durch tigte, damit es glaubwürdig hüfthohes Wasser unter fremden Pflanzen wirkte. Schon eines dieser Environments hätte uns gut beschäftigt, wie erhielten Vorsicht Alien! Ex-Präsident Bill Pullman letztlich aber drei davon! im Rücken! Breakdown-Shots und finale Szene. Von diesen war die „Foliage“- Sequenz die größte Challen- ge, denn dafür mussten wir mehr als 500.000 Pflanzen mit unterschiedlichen Grö- ßen erstellen: simuliert im Wasser, bedeckt von Nebel und umgeben von Volume- tric Lights, in denen Insek- ten fliegen. In dem Wasser bewegten sich auch noch die Schauspieler, während sie mit den CG-Alien-Soldaten interagierten. Diese ganzen Teile zusammenzusetzen war sehr kompliziert. Aber mit unserem engagierten Team und dem R&D-Department konnten wir zahlreiche Pro- bleme meistern und haben alles gerendert bekommen. Unsere Renderfarm arbeitete

53

DP1605_050-057_ID2CineImageScanline.indd 53 04.07.2016 09:31:54 FOKUS FILM & VFX 3D & ANIMATION INTERACTIVE DIGITAL ART SCIENCE & EDUCATION SERVICE

bisherigen Shading Systems durch eine neue was ich toll finde. Somit ging für mich ein Open Shading Language. Traum in Erfüllung, als ich für Teil 2 die Ali- ens wieder zum Leben erwecken durfte. DP: Mit welcher weiteren Software habt ihr gearbeitet? DP: Wie seid ihr bei den Alien Creatures Martyn Culpitt: Für das Asset Build und die im Detail vorgegangen? Animation kam Maya zum Einsatz, die FX Martyn Culpitt: Das Animationsteam hat haben wir mit Houdini 15 gemacht. Für das sich bei den Bewegungen der Aliens eng an Look Development und Lighting haben wir den Original-Film gehalten – insbesonde- Caribou genutzt (Image Engines proprietäre re bei den herumpeitschenden Tentakeln. Host-unabhängige Lookdev- und Lighting- Diese vertraute Verbindung zum ersten Teil Engine). Das Compositing lief in Nuke. war Roland besonders wichtig. Unser Ani- Das finale Queen-Ship- mationsteam investierte viel Zeit in die Rigs Modell von Cinesite im Film DP: Welche Tools haben darüber hinaus und Systeme, um das richtige Feeling für den Prozess supportet? die Tentakel hinzubekommen. Das hat Mo- Martyn Culpitt: Wir haben OpenVDB für nate an R&D gekostet. Aber am Ende des Cinesite: das Caching einer guten Menge an FX-Arbeit Prozesses hatten wir ein tolles Rig, mit dem Queen Ship & Koordination eingesetzt – es ist ein sehr effizienter Work- sich Dynamics verwenden ließen, die wir flow, um Daten an das Lighting-Department mischen und wechseln konnten, ohne die inesite stieß gegen Ende des Projektes zu übergeben. Mit Open Color IO haben wir Kontrolle über die Tentakel zu verlieren. Für zum weltweit verteilten Studioteam für unseren Color-Workflow organisiert und die die Animation selber machte das Team viel CID2 hinzu und übernahm übriggeblie- Farbgenauigkeit zwischen unseren verschie- Motion Capturing kombiniert mit Keyframe- bene Sequenzen von Weta. Das betraf vor denen Software-Paketen sichergestellt. Für Animation – auf diese Weise erhielten wir allem Environment-Shots mit dem Alien und die Planung und das Tracking des Prozesses einen Character mit vielen Animationslayern dem Human Fighter sowie dem Queen Ship. haben wir Shotgun in einer angepassten und Tiefe. Auch in die Verfeinerung der Fa- Insgesamt waren das immer noch 200 zu be- Version verwendet, in die wir unsere Asset- cial Animation und der Modellformen haben arbeitende Shots, wovon 140 im finalen Film Management-Tools integriert haben. So ließ wir viel Zeit investiert, denn die 3D-Modelle zu sehen sind. Das Projekt wurde zwischen sich das Workflow-Management zentral in sollten sowohl in extrem nahen als auch Cinesite London und Montreal aufgeteilt, ins- einer userfreundlichen Ansicht umsetzen. weiten Einstellungen funktionieren. Es gibt gesamt haben auf beiden Seiten circa 170 Ar- Jabuka ist unser eigenes Asset-Manage- einen Shot im Film, bei dem wir sehr nah mit tists an Dell- und HP-Workstations daran ge- ment-System, darüber hinaus kam natür- der Kamera an das Aliengesicht fahren, da- arbeitet – natürlich nicht durchweg mit dieser lich unsere studiointerne Core-Technologie bei erkennt man Nuancen der Mimik wie sich Teamgröße. Holger Voss übernahm das Su- mit Gaffer und Cortex zum Einsatz (s.a. DP weitende Nasenlöcher und mehr. Im ersten pervising an beiden Standorten: in Montreal 01:16). Konfiguriert haben wir die Show über Teil waren die Aliens noch reale Modelle in vor Ort und in London Remote. Insgesamt eine Kombination aus Node-Graph-basier- Lebensgröße mit unglaublich vielen Details. flog er zwischen beiden Locations während ten Tools sowie Python Scripts. Dies mussten wir bei den digitalen Charak- der Projektzeit vier Mal hin- und her. teren im Modeling wiederholen. DP: Was habt ihr für ID2 neu entwickelt? DP: Wie war die Arbeit zwischen den Martyn Culpitt: Viel Arbeit haben wir dies- DP: Was passierte dann mit den Alien- verschiedenen Studios aufgeteilt? bezüglich in die Simulation von Wasser und modellen? Holger Voss: Das Studio, welches mit einem die Bepflanzung gesteckt. Das Volumen- Martyn Culpitt: Danach fügte das Look-De- bestimmten Asset die meisten Shots hat- Rendering ging auch durch diverse Optimie- velopment-Team die Texturen und Shadings te, hat dieses verantwortlich kreiert und an rungsrunden. Darüber hinaus entwickelten hinzu, was wegen der benötigten Subsur- die anderen Vendors geliefert: Uncharted wir einen Workflow, mit dem sich Laseref- face-Details und den damit einhergehenden Territory beispielsweise den Alien und den fekte, angetrieben von animierten Punkt- Feinheiten in der Farbe und dem Shading Human Fighter, Weta Area 51 und wir das wolken, im Comp kreieren lassen. eine sehr komplexe Aufgabe war, die Zeit Queen Ship. brauchte. Auch das Lighting war enorm DP: Wie war es für dich, an der Fortset- wichtig, denn wenn das nicht stimmt, funk- DP: Wie sah die Pipeline für den Aus- zung eines so bekannten Films wie „In- tioniert ein Character nicht. Roland wollte, tausch zwischen den Studios aus? dependence Day“ zu arbeiten – 20 Jahre dass die Aliens dunkel und bedrohlich wir- Holger Voss: Die Teams arbeiteten nicht mit danach? ken und man nur einen kurzen Blick auf sie einheitlichen Formaten: Wir haben von Un- Martyn Culpitt: Ich bin ein großer Fan des erhält. Sie nicht zu hell oder nur teilweise charted teilweise Max-Dateien bekommen, Original-Films. Ich erinnere mich noch, wie zu beleuchten half natürlich dabei; denn nur meistens waren es .objs und relativ wenige furchteinflößend und einschüchternd die einen Teil des Gesichts oder des Körpers zu Alembics. Der Ablauf an sich war aber sehr Aliens damals auf mich wirkten, als ich sie sehen, ist wesentlich furchteinflößender als gut organisiert: Uncharted hatte eine Shot- zum ersten Mal sah. Vor allem dieser eine ein Blick auf den kompletten Character. gun-Datenbank, in der alles enthalten war, Moment, als das Alien den Präsidenten ge- und für die sie für einen gesicherten Upload gen das Glas schubst – großartig! Ich moch- DP: Was sind deine nächsten Projekte bei ein Tool geschrieben haben. Da wir nicht di- te besonders wie Roland damit spielte, dass Image Engine? rekt an diese Shotgun-Datenbank angebun- man immer nur flüchtige Blicke auf die Ali- Martyn Culpitt: Derzeit arbeite ich an den waren, musste natürlich viel manuelles ens erhascht. In ID2 gibt es ähnliche Szenen, „Fanstastic Beasts and where to find them“. Versionentracking vorgenommen werden, in die man zunächst voll eintaucht und dann Wenn dieser Film abgeschlossen ist, warten und es brauchte einen Coordinator, der sich kommt ein großer Sprung. Diese Sequenzen noch einige andere Projekte in der Pipeline nur darum kümmerte, dass wir tatsächlich vermitteln das gleiche Gefühl wie damals, auf mich, die sehr spannend werden. immer das aktuellste Modell benutzten.

54 WWW.DIGITALPRODUCTION.COM

DP1605_050-057_ID2CineImageScanline.indd 54 04.07.2016 09:31:55 AUSGABE O5:2O16 INDEPENDENCE DAY 2 | MAKING-OF

det, um sich selber Artists zu schmieden. Viele Firmen versuchen auch, in den nicht so steuerbegünstigten Locations wie in Lon- don, ihre Artists zu überreden an die steuer- begünstigen Studioorte zu wechseln – was natürlich auch nur in einem bedingten Rah- men möglich ist. Deshalb werden auf der Feature-Film-Seite oft sehr junge Artists ohne viel Erfahrung für Projekte angeheuert, die man dann inhouse versucht produktions- reif zu bekommen. So hat man in Montreal als Supervisor dann natürlich auch Artists mit einer größeren Erfahrungsbandbreite zu betreuen als beispielsweise in London, wo man auf einen erfahrenen Artist-Pool zu- Aber das funktionierte sehr gut mit dem DP: Ist es durch die rasante Expansion rückgreifen kann. Setup von Uncharted. der VFX-Branche in Kanada in den letz- ten Jahren schwieriger geworden, schnell DP: Hat Roland Emmerich in der Gestal- DP: Welche Assets habt ihr neben dem Freelance-Artists für große Projekte an- tung der Shots viel Freiheit gelassen oder Queen Ship verantwortet? zuheuern? war der Look engmaschig vorgegeben? Holger Voss: Von dem Area-51-Modell, das Holger Voss: In London arbeitet bei Cinesite Holger Voss: Es musste halt was los sein uns Weta gab, haben wir eine zerstörte Ver- eine Stammcrew, zu der wir für das Projekt im Bild, dann ging es meist in die von ihm sion gebaut: Wir haben die Texturen ent- ungefähr zehn FX-Artists, noch ein paar angestrebte Richtung. Wenn beispielsweise sprechend verändert und die Gebäude sowie Lighting-Artists und was man noch so an 100 Fighter durch das Bild düsen, machten Kräne demoliert. Das Weta-Asset konnten Leuten braucht, dazu angeheuert haben. In nur zwei Explosionen keinen Sinn und wir wir dafür weiterverarbeiten und mussten Montreal ist es dagegen tatsächlich schwie- sind direkt mit 100 gestartet. Wenn wir es nicht alles von Null aufbauen. Das Problem riger, schnell an gute Leute zu kommen, ihm dann gezeigt haben, kam selten die Re- war nur, dass wir die finalen Assets teilweise denn die lokalen Artists sind meist schon aktion: „Nimm mal was raus“ – viel Action erst Mitte März bekamen – also zwei Monate bei Framestore, MPC oder bereits bei uns war immer beliebt. vor der Abgabe. Das war für ein so großes tätig. Über den „Inter-Company-Transfer“ Asset schon eine sehr kurze Zeitspanne. können Mitarbeiter von Cinesite London sehr DP: Das Projekt brachte sicherlich eine rasch nach Montreal kommen; wegen der riesige Datenmengen mit sich, wie habt DP: Woran lag‘s, dass die Zeitspanne so Visa-Situation ist es dagegen sehr schwierig ihr diese gehandelt? kurz war? und langwierig, neue Leute ins Land zu be- Holger Voss: Viele unserer Inhouse-Formate, Holger Voss: Weta hat einfach relativ spät kommen – das dauert ungefähr ein bis zwei wie beispielsweise unser Mesh-Format, sind mit der Arbeit an Area 51 begonnen, weil Monate. Aber für ID2 standen zum Glück zum Glück relativ hoch komprimiert. Weil das Asset bei ihnen im Ablauf keine so hohe noch genügend freie Artists in Montreal zur wir alles Deep gerendert haben, war es aber Priorität hatte und das Modell dann erst im Verfügung. natürlich schon eine große Datenmenge, die März final freigegeben war. Was für uns na- aber im vertretbaren Rahmen blieb: In Mon- türlich von Nachteil war, weil wir auf das DP: In einem FMX-Panel wurde das The- treal und London kamen insgesamt circa 150 Asset gewartet haben, um nicht nach der ma des fehlenden VFX-Nachwuchses für TByte zusammen. Bearbeitung eventuell noch eine geupdate- den immer rasanter te Version zu bekommen, die dann nochmal steigenden Be- von vorne zerstört werden muss. darf an VFX-Shots für Kino- und DP: Welche Tools habt ihr bei Cinesite für TV-Produktionen ID2 benutzt? diskutiert. Wie ist Holger Voss: Wir konnten auf die Cinesite- dahingehend dein Standard-Tools zurückgreifen: 3DEqualizer Gefühl für die Zu- kam für das Tracking zum Einsatz, Mode- kunft? ling, Layout und Lighting wurden mit Maya Holger Voss: Die und ein bisschen zusätzliches Modeling in Industrie ist derzeit Mudbox realisiert, texturiert wurde mit Mari, sehr Tax-Credit-ge- gerendert mit Arnold und das Compositing trieben – die Studios haben wir in Nuke gemacht. Houdini haben gehen dahin, wo die wir in Kombination mit Maya genutzt – im- besten Steuervor- mer abhängig davon, welchen Artists wir teile locken. Darum für die Show anheuern konnten. Das war ist Montreal hin- zu dem Zeitpunkt als das Projekt reinkam sichtlich neuer Ta- ein bisschen problematisch, da nicht viele lente schon richtig- FX-Artists verfügbar waren. Da war es dann gehend abgegrast. wichtiger, wirklich gute Leute reinzubekom- MPC hat deswegen men als Artists mit einem bestimmten Tool- schon eine eigene Know-how. Akademie gegrün- Wo tritt man einer Alien Queen am besten im Kampf entgegen? Natürlich auf der Area 51

55

DP1605_050-057_ID2CineImageScanline.indd 55 04.07.2016 09:31:57 DP: Warum war Deep Rendering wichtig lässt sich dann beispielsweise für alle Gum- den. So arbeiteten wir in den letzten andert- bei ID2? mi-Objekte oder alles was „Reifen“ heißt ein halb Jahren mit Arnold und als ID2 kurzfristig Holger Voss: So konnten wir die große Menge Filter oder ähnliches festlegen. Das ist hilf- reinkam, stellte sich uns gar nicht die Frage, an Layern besser zusammenbringen. Außer- reich, um den Look nachträglich anzupassen. ob wir den Renderer noch wechseln. Arnold dem hofften wir, nicht alle Fluids neu rendern Darüber hinaus rendern wir eigentlich nur leistete gute Dienste für das Projekt; auch zu müssen, wenn beispielsweise die Anima- Standards, wie zum Beispiel den World Po- weniger erfahrene Artists erhalten mit dem tion von ein paar Fightern nachträglich geän- sition Pass oder Light Categories, mit denen Renderer relativ schnell gute Ergebnisse. dert wird. Ändern sich dabei auch die Schat- sich nachträglich die Balance zwischen Key Nur wie bei vielen modernen Raytracern ten, müsste man es natürlich sowieso, aber Light und Environment Light tweaken lässt. ist Noise ein Problem – und der Prozess ist wenn in den Hintergrund nur 20 Fighter mehr dann eben immer ein Kompromiss zwischen ins Bild gesetzt werden, lässt sich das Neuren- DP: Warum habt ihr mit Arnold geren- „absolut rauschfrei“ und „noch verträgliche dern von Fluids durch Deep Rendering sparen. dert? Hab ihr andere Engines getestet? Renderzeiten“. Holger Voss: Vor Arnold hat Cinesite immer DP: Habt ihr für das Compositing noch mit Renderman gearbeitet – vor ungefähr DP: Auf welcher Hardware wurde geren- zusätzliche Passes herausgerendert? drei Jahren, als die Umstellung von REYES dert, wie lang waren die Renderzeiten? Holger Voss: Basierend auf Mesh-Namen auf RIS war, wurde die Engine dann aber sehr Holger Voss: Wir haben unsere ganz norma- können wir Masken erstellen, die wir als Ob- langsam und die Entwicklung lief nicht mehr le Blade-Renderfarm genutzt, die allerdings ject IDs bezeichnen und als Passes rendern. schnell genug. Wir haben dann auf V-Ray nicht inhouse steht, sondern in einem Da- Das ist dem früheren Tag-ID-Prinzip oder Ma- umgestellt – aber da das SDK nicht beson- tencenter in Montreal. Wir haben 24 Core- terial-IDs ähnlich. Man kann sich das so vor- ders offen ist, war es dafür sehr schwierig Maschinen mit circa 160 GByte Speicher. stellen, dass wir Metadaten der vorhandenen Custom-Sachen zu entwickeln. Auch Artists Die Renderzeiten fielen ganz unterschiedlich Geometrie rausrendern; und auf diese Weise mit Arnold-Erfahrung sind einfacher zu fin- aus; es kam immer darauf an, was im Bild

Feuer frei! Environment-Shot von Cinesite plus Close-up des Lasers

56 WWW.DIGITALPRODUCTION.COM

DP1605_050-057_ID2CineImageScanline.indd 56 04.07.2016 09:32:00 Anzeige war – ich würde schätzen, für die großen bei ihnen hosten: So können wir zum Ende shared: Jeder hat natürlich immer nur den Full-CG-Shots lagen die Zeiten zwischen 12 eines Projektes hin 30 Prozent mehr Lei- Ablauf und das Asset-Rendering für die ei- und 16 Stunden. stungskapazität für die Renderfarm erhalten. genen Shots im Kopf. Gelöst haben wir das mit viel Koordinationsarbeit und Produkti- DP: Neben einem vertretbaren Rausch- DP: Musstet ihr für ID2 die Render-Kapa- onsmeetings, damit jeder hohe Prioritäten anteil im Bild: Wie konnten die Render- zität aufstocken? auf dem Schirm hatte. zeiten noch optimiert werden? Holger Voss: Da Cinesite Montreal aktuell Holger Voss: Wir haben sichergestellt, dass expandiert, haben wir kürzlich sowieso auf- DP: War ID 2 das bislang größte Projekt alles instanziiert war und Tools für die Ana- gestockt, so haben wir das Limit bei ID2 nicht für euch in der Pipeline oder hat Cinesite lyse des Layouts geschrieben. So konnten erreicht. In ein paar wenigen Fällen reichte schon Vergleichbares bearbeitet? wir Geometrie, die außerhalb des Camera die Renderfarm in London nicht aus, dann Holger Voss: Was Komplexität in diesem Frustrums lag, löschen – das reduzierte den haben wir diese Shots in Montreal gerendert. Zeitrahmen betrifft, war ID2 schon eine der Geomtrie- und den Textur-Load. Darüber hinaus kam es zu keinen Engpässen größten Herausforderungen für Cinesite; bei dem Projekt. hinsichtlich Shotanzahl waren „John Carter“ DP: Mit was codet ihr eure Tools? oder die „Harry Potter“-Filme dagegen um- Holger Voss: Python, weil es sich als Stan- DP: Was war generell betrachtet bei ID2 fangreicher. › mf dard durchgesetzt hat – es läuft auf allen die größte Herausforderung für euch? Plattformen und wird von allen Applikati- Holger Voss: Dass hierbei zwei Studios von Links onen unterstützt. Bei allen performance- uns an dem gleichen Projekt arbeiteten, war basierten Sachen wie Maya-Plug-ins und neu für uns. Das Look Development von Scanline ähnlichem, ist es nach wie vor C++. Assets, die wir in Montreal gebaut haben, i www.scanlinevfx.com wurde teilweise in London gemacht, andere DP: Habt ihr zusätzlich Cloud Rendering dagegen in Montreal designt. Im Speziellen Image Engine für ID2 genutzt? für die Produktion bot das Einhalten des i image-engine.com Holger Voss: Das wäre zeitlich nicht prakti- Zeitplans für die Shots und Assets – damit kabel gewesen. Das Problem ist: Wenn man nichts zum Flaschenhals wurde, war das eine Cinesite viel mit Custom Tools arbeitet, muss man gewisse Challenge. Ein Projekt, bei dem As- i www.cinesite.com die Maschinen vorher spiegeln und ein Image sets in so vielen Departments überlappend uploaden. Wir haben aber mit dem Daten- benötigt werden, war für das Team eine Trailer center Scalar (www.scalar.ca), in Montreal neue Erfahrung. Das hat insgesamt aber gut „Independence Day: Wiederkehr“ eine Vereinbarung getroffen über Bird-Ka- geklappt. Das Problem hat man ja immer, i youtu.be/FrS7PThzR8s pazitäten für Maschinen, die wir permanent wenn man Renderings mit externen Studios

57

DP1605_050-057_ID2CineImageScanline.indd 57 04.07.2016 09:32:00