Kapitel 6 Rendering – ein Bild entsteht

Kapitel 6 Rendering – ein Bild entsteht

Bislang haben wir uns angesehen, wie Objekte in Blenders 3D-Ansicht (dem 3D View-Editor) aussehen, aus welchen Bestandteilen sie aufgebaut sind und wie wir diese einerseits manuell und andererseits durch Modifier verändern können. In diesem Kapitel werde ich Ihnen zeigen, wie Sie aus 3D-Szenen ein zweidimensionales Bild erzeugen und welche Tricks und Kniffe es gibt, um Ihre Wartezeit dabei möglichst gering zu halten. Darüber hinaus erfahren Sie in die- sem Kapitel, wie Ihre Szene sieht und welche Verfahren beim Erzeugen eines Bildes in Blender ausgewählt werden können. Dabei kommen sowohl alle internen und externen Möglichkeiten zur Bildberechnung zur Sprache.

6.1 Rendering-Verfahren

Wenn Sie sich für 3D-Animation oder digitales Design interessieren (wovon ich nach fünf Kapiteln sicherlich ausgehen darf), haben Sie sicherlich bereits das ein oder andere Mal den Begriff Rendern gehört. Auch bei der Besprechung von 3D-Spielen in Fachmaga- zinen liest man oftmals, dass die Grafikkarte das Geschehen auf den Bildschirm rendert – sehen wir uns daher jetzt zuerst einmal an, was Rendern überhaupt ist. In Blender können Sie zwischen drei verschiedenen Renderern wählen, dazu in Abschnitt 6.3 mehr.

6.1.1 Das Rendering Als Rendern (oder auch Rendering) bezeichnet man in der Com- putergrafik die Erzeugung eines Bildes aus den Rohdaten einer 3D-Szene – also den einzelnen Objekten. Der Rendering-Prozess ist ein äußerst ressourcenfressender Prozess – während er aktiv ist, kann je nach verwendeten Materialien, Modellen und Beleuch- tungs-Setups selbst bei kleineren Szenen mit wenigen Hundert- tausend Polygonen für Stunden nicht an dem gerade beschäftig- ten Rechner weitergearbeitet werden. In großen Produktionen (Animationsfilmen) mit mehreren Hunderttausenden detaillierten Objekten und unterschiedlichen dynamische Physiksimulationen

291 Kapitel 6 Rendering – ein Bild entsteht 6.1 Rendering-Verfahren

kann es gut sein, dass ein Bild einer Animation auf einem einzelnen E Berechnung der Licht- und Schattensituation innerhalb der Rechner mehrere Tage rechnet. Aus diesem Grund werden heut- Szene inklusive direktem und indirektem Licht zutage oftmals viele Computer zu einem Render-Netzwerk (einer Render-Farm) zusammengeschlossen und diese dann gemeinsam Bei der Berechnung von Animationen muss der Renderer noch mit der Berechnung einer Animation beauftragt. Dies kann auf eine Reihe zusätzlicher Techniken anwenden – so muss er bei- zwei Arten geschehen: Entweder übernimmt je ein Rechner die spielsweise die Geschwindigkeit aller Objekte über die Dauer Berechnung eines Bildes einer Animation oder viele Rechner tei- der Bewegung verfolgen, um Bewegungsunschärfe errechnen zu len sich die Berechnung eines Bildes. Ein übergeordneter Rechner können. Abbildung 6.1 zeigt Ihnen verschiedene Bilder, die der setzt das komplette Bild nach Fertigstellung aller Teile anschließend Renderer bei seinen Durchgängen erzeugt. Im Fachjargon heißt zusammen. jeder Durchgang Render-Pass.

6.1.2 Der Renderer 6.1.3 Render-Techniken Der Programmteil, der die Umwandlung der Szenendaten in ein Bevor ich Ihnen die Blender-internen Render-Engines vorstelle, zweidimensionales Bild übernimmt, wird Renderer oder auch zeige ich Ihnen erst, welche unterschiedlichen Render-Techniken Render-Engine genannt. Er betrachtet die Szene aus einer virtuel- in Blender verwendet werden und welche Effekte sie ermöglichen. len Kamera, die Sie etwas später in diesem Kapitel kennenlernen Sie werden durch diese (stark vereinfachten) Hintergrundinfor- werden. Der Renderer muss mithilfe dieser Kamera unter anderem mationen in der Lage sein, situationsabhängig zu entscheiden, diese Schritte durchführen: welchen Renderer Sie bei unterschiedlichen Projekten einsetzen E Ermittlung der von der virtuellen Kamera aus sichtbaren Ob- sollten und wann welcher Renderer sinnvoll ist. jekte (die sogenannte Verdeckungsberechnung oder auch Oc- clusion Culling) Scanline-Rendering | Der Scanline-Algorithmus teilt das Sicht- E Berechnung der Oberflächenbeschaffenheit der Objekte, be- feld der virtuellen Kamera (mit der Sie die Szene betrachten) in einflusst durch deren Materialeigenschaften und Oberflächen- ein Pixelgitter mit der Auflösung des zu erzeugenden Bildes auf. texturen (Shading) Anschließend berechnet der Algorithmus Zeile für Zeile die Tiefe aller überlappenden Polygone an jedem Pixel (den sogenannten Z- oder Depth-Pass). Er sieht sich also an, welche Objekte (und Objektteile) sich gegenseitig verdecken.

F Abbildung 6.2 Der Scanline-Algorithmus ermit- telt die anzuzeigenden Pixel eines Dreiecks.

Bei dieser Polygon-Betrachtung ist dem Algorithmus zu jeder Zeit Abbildung 6.1 E Verschiedene Render-Passes, unter bekannt, ob er sich innerhalb oder außerhalb eines Polygons be- anderem der Depth-, Color-, findet. Befindet er sich außerhalb, setzt er das Pixel auf die Hin- Glossy- und Normal-Pass tergrundfarbe, befindet er sich innerhalb des Polygons, setzt er

292 293 Kapitel 6 Rendering – ein Bild entsteht 6.1 Rendering-Verfahren

das Pixel auf die Polygonfarbe an dieser Stelle. Dabei beachtet er Lichtquelle, so »weiß« der Raytracer, dass dieser Strahl nicht zur die sogenannte Shadow-Map (die definiert, wo Schatten und wo Schattenberechnung, sondern zur Helligkeitsberechnung heran- Licht ist) und das Polygon-Shading (die Oberflächenbeschaffenheit gezogen wird. Abbildung 6.3 stellt den Ablauf exemplarisch dar. des Polygons). Da eine Szene natürlich nicht nur aus Objekten, sondern auch Abbildung 6.2 zeigt Ihnen, wie die Oberfläche eines einzelnen aus Umgebung (also für den Algorithmus aus leerem Raum) Polygons mit dem Scanline-Algorithmus ermittelt wird. besteht, werden viele dieser Strahlen ins Nichts geschossen. Kann Scanline-Renderer berechnen das Bild zwar sehr schnell, ihre nach einer gewissen Distanz kein Aufprall auf ein Objekt oder eine Fähigkeiten sind allerdings sehr begrenzt. Erst wenn sie mit erwei- Lichtquelle festgestellt werden, wird der Strahl von der Betrach- terten Render-Techniken wie Raytracing kombiniert oder durch sie tung ausgeschlossen. Erreicht ein Strahl jedoch keine Lichtquelle, ersetzt werden, können sie spezielle Features wie Spiegelungen obwohl er vorher ein Objekt getroffen hat, ist die Lichtquelle auf Oberflächen und Brechungen in Glas oder Wasser berechnen. durch ein Objekt verdeckt worden – jeder einzelne verdeckte Strahl trägt so Stück für Stück dazu bei, dass ein Schattenpixel Raytracing | Raytracing (zu Deutsch Strahlenverfolgung) ist ein entsteht. Je mehr Strahlen pro Pixel ausgesandt, reflektiert und auf der Aussendung von Strahlen basierender Algorithmus, der zur verfolgt werden (in verschiedenen Winkeln zur Oberfläche), desto Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von genauer wird die Berechnung der Pixelfarbe. Pro Pixel wird eine einer bestimmten Position (dem Augpunkt) im Raum aus dient. frei wählbare Anzahl Strahlen betrachtet, um genaue Aussagen Mit rekursivem Raytracing (auch Whitted Raytracing) bezeichnet über den Helligkeitswert des Pixels treffen zu können. Erst wenn man mehrere Erweiterungen dieses grundlegenden Verfahrens, die alle Strahlen (sogenannte Raysamples) betrachtet wurden, steht den weiteren Weg von Strahlen nach dem Auftreffen auf Ober- der Helligkeitswert des Pixels fest. flächen berechnen. Es betrachtet dabei unter anderem die na- türliche Reflexion (Spiegelungen), die Refraktion (Lichtbrechung beim Übertritt des Lichts in unterschiedliche Medien) und den Schattenwurf von 3D-Objekten. Um nachzuvollziehen, wie ein Raytracer funktioniert, gehen Brechungen beschränken wir etwas in der Zeit zurück – ins griechische Altertum. Damals Um die Refraktionsbetrachtung waren die Griechen davon überzeugt, dass jedes Auge Strahlen (also die Lichtbrechung) nicht bis in die Unendlichkeit fortzu- aussendet. Treffen diese Strahlen ein Objekt der Umgebung, so führen und entsprechend lange ihre Vorstellung, senden sie Nachrichten an das Auge, um ihm Render-Zeiten zu verhindern, mitzuteilen, was getroffen wurde, wie weit es entfernt ist und bietet Blender die Möglichkeit, welche Farbe es hat. Tatsächlich ist diese Vorstellung gar nicht so die Anzahl der betrachteten Bre- weit von dem entfernt, was ein Raytracer tut. Der Algorithmus teilt chungen zu beschränken. Stellen Sie in Ihrer Szene fest, dass mit- – genau wie der Scanline-Renderer – das Sichtfeld der virtuellen ten in einem Glas plötzlich Kamera in ein Pixelgitter mit der Auflösung des zu erzeugenden schwarze Flächen zu sehen sind, Bildes auf. Anschließend wird ein Strahl (Ray) aus einem vor die- obwohl der Hintergrund durch- sem Pixelgitter liegenden Punkt (dem Augpunkt) auf die Szene scheinen sollte, so kontrollieren gefeuert und beobachtet, ob dieser auf eine Oberfläche trifft. In G Sie die maximale Anzahl der Re- Abbildung 6.3 erster Linie wird damit geprüft, welche Tiefe die Objekte in der fraktionen – meist wird die Er- Der Raytracing-Algorithmus wirft Strahlen aus dem Augpunkt in der Szene höhung dieser Anzahl den Hin- Szene besitzen. und verfolgt ihren Verlauf. tergrund zum Vorschein Whitted Raytracing ist allerdings noch viel mächtiger: Trifft der bringen. Strahl auf ein Objekt, wird zuerst überprüft, ob die Oberfläche so Pathtracing | Ganz ähnlich wie der Raytracing-Algorithmus wer- definiert wurde, dass sie das Licht reflektiert, streut oder schluckt. den auch beim Pathtracing Strahlen durch die Szene geschickt. Anschließend wird der Strahl gebrochen oder reflektiert und auf Tatsächlich ist der Pathtracing-Algorithmus nur eine Variante des seinem Weg durch die Szene weiterverfolgt. Erreicht ein Strahl Raytracings, die es ermöglicht, die globale Beleuchtung einer Szene nach einer maximalen Anzahl Reflexionen oder Refraktionen eine zu simulieren.

294 295 Kapitel 6 Rendering – ein Bild entsteht 6.1 Rendering-Verfahren

Unter globale Beleuchtung (Global Illumination) versteht man, dass Processoring Unit – GPU) auf einer Grafikkarte (dediziert) oder ne- Oberflächen in einer 3D-Szene nicht nur auf direktes Licht aus ben dem Prozessor (on board, intern), die die Ausgabe von grafi- Lampen reagieren, sondern jede Oberfläche zur Lichtsituation in schen Elementen oder die Berechnung von 3D-Grafik bei Spielen der Szene beiträgt: Stellen Sie sich einfach einen roten Würfel übernimmt. in einem weißen Raum vor, der von einer Lichtquelle bestrahlt Da eine GPU bestimmte Berechnungen deutlich schneller als wird. Sehen Sie sich jetzt den Boden des Raums an, werden Sie eine CPU durchführen kann (in unterschiedlichen Tests zwischen 3- an den Kontaktflächen rote Farbe entdecken, die von dem durch und 15-mal so schnell), wurden nach und nach auch die Hersteller die Oberfläche des roten Würfels reflektierten Licht stammen. Die von Rendering-Software auf GPUs aufmerksam und entwickelten Oberfläche des Würfels hat die Beleuchtung und die Farbe des verschiedene GPU-Rendering-Lösungen. Daher bieten Ihnen Ren- G Abbildung 6.6 Bodens also indirekt beeinflusst. Durch Global Illumination wird derer heutzutage unter anderem die Möglichkeit, die 3D-Szenen Eine GPU – wie hier von Nvidia – übernimmt immer häufiger G Abbildung 6.4 das Bild um ein Vielfaches realistischer, als es mit reinem Raytracing auf CPU, GPU oder sogar beiden Prozessortypen gleichzeitig zu Rechenaufgaben, die bislang von Die Cornell-Box zeigt den typi- oder Scanline-Rendering möglich ist. Abbildung 6.4 zeigt Ihnen berechnen. Rendering auf GPUs ist heutzutage so schnell, dass die CPUs durchgeführt wurden. schen Effekt der Global diesen Effekt anhand einer dafür typischen Testszene: der Cornell- Anzahl von testweise durchgeführten Renderings (um beispiels- Illumination. Box (»07_CornellBox_Cycles.blend«). weise die Beleuchtung zu überprüfen) deutlich gesenkt wird: Mit Beim Pathtracing wird jeder Strahl, der in die Szene geschossen GPUs rendern Sie Ihre Szene (in geringer Auflösung) oft in Echtzeit wird, beim Auftreffen auf Oberflächen reflektiert, gebrochen oder und können so bereits beim Verschieben der Lampen sehen, ob GPUs und 3D – absorbiert. Bei jeder Kollision mit einer Oberfläche wird (außer im die Lampe den gewünschten Effekt hat. Das langwierige Warten gestern und heute Fall der Absorption) eine einstellbare Anzahl von neuen (in zufäl- auf das Beenden des Rendering-Prozesses entfällt. Nochhh vor wenigen Jahren war lige Richtungen schießenden) Strahlen generiert. Der Anfangs- Leider hat das GPU-Rendering jedoch nicht nur positive Seiten die Softwareentwicklung für strahl sucht sich so seinen Weg durch die Szene, wertet aber (unter anderem mit Blender): GPUs sehr starr: Es gab festge- im Gegensatz zu dem eben beschriebenen Verfahren viel mehr E Da Grafikkarten daraufhin optimiert sind, Speicher aus dem legte Routinen zum Anzeigen Strahlen aus, die alle zu einer indirekten Beleuchtung der Szene Grafikkartenspeicher zu lesen, können Sie nicht gleichzeitig oder Berechnen von 2D-/3D- Körpern, eine freie Programmie- beitragen. auf den Hauptspeicher zugreifen. Eine Szene, die nicht in die rung dieser Chips war nicht Durch die zufällige Versendung sehr vieler Strahlen wird das aktuellen Grafikkartenspeicher passt (zurzeit gibt es geeignete möglich. Heutzutage hat sich die G Abbildung 6.5 für Pathtracing-Algorithmen typische Rauschen (Abbildung 6.5) Karten mit bis zu 12 GB RAM ab 1200 €), kann also einfach Situation komplett geändert: Eine zu geringe Anzahl von Strah- erzeugt, was einerseits durch eine große Anzahl Strahlen oder nicht berechnet werden. Natürlich haben auch Grafikkartenher- Mittels unterschiedlicher Soft- len führt zu dem beim Pathtracing durch erweiterte Techniken wie Importance Sampling oder ver- steller dieses Problem erkannt und arbeiten an einer Lösung, warebibliotheken von AMD, typischen Rauschen in dieser schiedene Filter verringert werden kann. Mehr Strahlen bedeuten um auch den Hauptspeicher für Grafikkarten nutzbar zu machen Nvidia oder Intel kann die GPU Abbildung. mittlerweile Berechnungen gleichzeitig eine höhere Rechenleistung und mehr Render-Zeit – bis diese Lösung marktreif ist, werden aber wohl noch einige durchführen, die vorher der – daher können Sie in Blenders Pathtracer die maximal erlaubte Jahre vergehen. AMDs Heterogeneous Uniform Memory Access CPU vorbehalten waren – GPUs Anzahl von Reflexionen und Refraktionen der jeweiligen Strahlen (hUMA) wird hier wohl den Anfang machen. sind frei programmierbar gewor- Importance Sampling beschränken (beispielsweise maximal fünf diffuse Reflexionen, E GPUs sind meist für kleinere Programme mit wenigen 1.000 den. Üblich erweise geh en b eim Path - maximal zehn spiegelnde Reflexionen usw.). Auf diese Weise kön- Codezeilen optimiert – ein Renderer ist allerdings oftmals ein tracing viele Strahlen verloren (sie erreichen keine Lichtquelle). nen Sie für verrauschte Oberflächen mehr Strahlen aussenden las- komplexer und großer Codeberg, der verschiedene Hersteller Mit Importance Sampling wird sen und somit nur die Berechnungszeit für diese problematischen (AMD beispielsweise) bereits vor so manche Schwierigkeiten daher zuerst ungefähr festgelegt, Oberflächen erhöhen. gestellt hat. Seit Blender 2.79 läuft Blenders GPU-Renderer mit GPGPU in welche Richtung viele Strah- neueren AMD-Grafikkarten (wie beispielsweise der Radeon RX Das Durchfü hren von graf ik - len geschossen werden sollen, Vega) aber mittlerweile genauso schnell und unterstützt die um möglichst oft Lichtquellen 6.1.4 CPU- und GPU-Rendering fremden Berechnungen auf der zu erreichen. Ergebnis sind Bil- gleichen Features wie unter NVIDA. GPU wird GPGPU genannt – E der, die in gleicher Render-Zeit Alle modernen PCs haben mindestens die beiden folgenden Es ist nicht trivial, einen Renderer für mehrere Grafikkartenher- wenn Sie sich dafür interessie- deutlich rauschfreier sind. Komponenten an Bord: einen Prozessor (Central Processoring Unit steller gleichzeitig zu schreiben. Während Nvidia die Bibliothek ren, hilft Ihnen die Seite http:// – CPU), mit dem Befehle des Betriebssystems oder von Anwen- CUDA anbietet, um seine eigenen Grafikkarten frei program- gpgpu.org mit Links, Artikeln und Beispielen weiter. dungen umgesetzt werden, und einen Grafikprozessor (Graphics mierbar zu machen, verlässt sich AMD auf die OpenCL-Bib-

296 297 Kapitel 6 Rendering – ein Bild entsteht 6.2 Die virtuelle Kamera

liothek. OpenCL verspricht, die Ansteuerung von Grafikkarten 6.2.1 Kameras hinzufügen und unterschiedlicher Hersteller zu ermöglichen, trotzdem ist es ge- die aktive Kamera festlegen rade bei solch komplexen Programmen wie Renderern an der Wie jedes andere Objekt auch fügen Sie das Camera-Objekt über Tagesordnung, dass der ein oder andere Hersteller unterschied- das Add-Menü oder (ª_) + (A) ein. Sobald Sie dort den Eintrag Ca- liche Ergebnisse bei dem Aufruf der gleichen Funktion liefert. mera wählen, wird eine neue Kamera am 3D-Cursor in Ihrer Szene E Zu guter Letzt ist es nicht einfach, einen Renderer zu schreiben, erscheinen. War in Ihrer Szene bereits eine Kamera vorhanden, der mit mehreren Grafikkarten in einem Rechner interagiert. werden Sie jetzt bemerken, dass Sie immer nur in die vorherige Während es heutzutage bereits Standard ist, dass in einer CPU Kamera-Ansicht wechseln können. 4, 6 oder 8 Prozessoren vorhanden sind, werden auch auf einer 1 2 Grafikkarte in naher Zukunft nicht nur ein, sondern mehrere Prozessoren enthalten sein. Die Skalierbarkeit eines Renderers für solche Szenarien sicherzustellen ist eine anspruchsvolle Auf- gabe, die viel Entwicklungszeit in Anspruch nimmt.

Trotz dieser Nachteile ist GPU-Rendering gerade bei kleinen und mittleren Studios ein großartiges Mittel, um Projekte schnell und ohne Render-Farm umzusetzen. Blender bietet Ihnen bezüglich des zur Verfügung stehenden Renderers die komplette Auswahl zwischen CPU, GPU und einer Kombination aus beidem an. Bevor wir uns jedoch die drei internen Render-Engines etwas näher an-

sehen, müssen Sie erst erfahren, wie Blender eine Szene »sieht«. G Abbildung 6.8 Hier kommt die virtuelle Kamera ins Spiel. Eine inaktive Blender-Kamera links 1 neben einer aktiven Kamera mit ausgefülltem Dreieck rechts 2

6.2 Die virtuelle Kamera Da es immer nur eine aktive Kamera geben kann, müssen Sie Blender mitteilen, aus welcher Kamera die Szene betrachtet wer- Die virtuelle Kamera dient Blender als Fenster in die 3D-Welt – den soll. Diese Nachricht senden Sie Blender, indem Sie die neue von ihr aus blicken Sie in die 3D-Szene. Um aus einer beliebigen Kamera selektieren (passiert beim Einfügen automatisch) und an- Ansicht in die Kamera-Ansicht zu wechseln, müssen Sie (gesetzt schließend (Strg) und (0) auf dem Ziffernblock betätigen. Die den Fall, dass sich bereits eine Kamera in der Szene befindet) Ansicht wird anschließend sofort auf die neue Kamera wechseln nichts weiter tun, als (0) (Nummernblock) zu drücken, während und das Dreieck über der Kamera ausgefüllt erscheinen 2. Die Ihre Maus in der 3D-Ansicht ruht. Abbildung 6.7 zeigt Ihnen den deaktivierte Kamera bleibt mit einem leeren Dreieck zurück 1. Blick durch die Kamera auf die Standardszene. Ein erneuter Druck Um das Wechseln zwischen Kameras auszuprobieren, laden Sie Die Datei »06_Camera- G Abbildung 6.7 auf (0) (Ziffernblock) kehrt wieder in die vorherige Ansicht zurück. die Datei »06_CameraPlayground.blend«. Dort finden Sie zwei Playground.blend« fin- Ein Blick durch die Kamera zeigt Haben Sie gerade versucht, Ihre Ansicht zu rotieren, während Sie Kameras, zwischen denen Sie nach Herzenslust wechseln können. den Sie unter Beispiel- Ihnen, wie Blender die Szene sich in der Kamera-Ansicht befinden (durch Halten der Mausrad- Spannend ist an diesem Feature, dass Sie nicht nur Kamera- material • Kapitel_06. »sieht«. Taste bei gleichzeitiger Mausbewegung), werden Sie gemerkt ha- Objekte als Kamera festlegen können, sondern auch beliebige ben, dass die Kamera-Ansicht automatisch verlassen wird. In den andere Objekte. Besonders beim Beleuchten von Szenen ist dieses Properties der 3D-Ansicht ((N)) finden Sie in dem View-Panel Feature hilfreich: Sie können sich so in eine Lampe katapultieren, eine Option, um dieses Verhalten zu unterbinden. Solange Lock um die genaue Ausrichtung der Lampe auf die Szene aus der Ich- Camera to View aktiviert ist, können Sie per Mausrad-Taste pro- perspektive festzulegen. Vergessen Sie anschließend nicht, eine blemlos die Kamera-Ansicht rotieren. richtige Kamera wieder als Szenenkamera zu definieren. Andern- falls wird die Szene aus Sicht der Lampe gerendert.

298 299 Kapitel 6 Rendering – ein Bild entsteht 6.2 Die virtuelle Kamera

6.2.2 Transformationen Kamera, die keine perspektivischen Verzerrungen besitzt, und Clipping-Ebene Die Transformation des Kamera-Objekts unterscheidet sich dabei Panoramic ermöglicht es Ihnen, extreme Weitwinkel und Allls Clipping-E bene b ezeich net nicht von der anderer Objekte: Wählen Sie die Kamera aus, und 360°-Panoramen zu rendern. Mehr zu 360°-Panoramen erfah- man die Ebene, die den sichtba- transformieren Sie sie per (G), (R) oder (S). Auch die Beschrän- ren Sie in Kapitel 13, »Postproduktion und Compositing«, wenn ren Bereich der Szene (das soge- kung auf bestimmte Achsen oder der Einsatz des 3D-Manipulator- wir uns das Thema Stereoskopie genauer ansehen. nannte Sichtvolumen) begrenzt. Widgets ist möglich. Eine Skalierung der Kamera macht übrigens E Focal Length: Dieser Parameter gibt vor, welche Linse Sie auf Die Near Clipping Plane begrenzt nur dann Sinn, wenn Sie die komplette Szene inklusive aller Ob- die Kamera setzen. Dabei können Sie die Linse entweder nach dabei im Nahbereich und die jekte skalieren möchten – sie hat keinerlei Auswirkungen auf das dem abbildbaren Sichtfeld auswählen (Field of View) oder Far Clipping Plane im Fernbe- reich die Sicht. Alle Objekte, die gerenderte Ergebnis. nach der unter Fotografen üblicherweise genutzten Brennweite sich vor der Near und hinter der Um die Kamera in der Kamera-Ansicht in den Bildschirm hinein- (in Millimetern). Far Clipping Plane befinden, oder aus dem Bildschirm hinauszubewegen, wählen Sie zuerst die E Shift: Mit diesen beiden Werten verschieben Sie die Linse in können weder von der Kamera Kamera, wechseln in die Kamera-Ansicht und starten mit (G) eine x- oder y-Richtung. Besonders bei Architektur-Renderings, bei noch vom Renderer erfasst wer- Translation. Anschließend betätigen Sie (während die Translation denen Sie Gebäude aus einem tiefen Winkel rendern möchten, den. aktiv ist) die Mausrad-Taste – dies beschränkt die Achse in lokaler ist diese Option sinnvoll. z-Richtung (Blickrichtung). Bewegen Sie jetzt Ihre Maus nach vorn E Clipping: Mit den beiden Parametern Start und End legen Sie oder zurück, bewegt sich die Kamera auf das betrachtete Objekt die Position der Near und der Far Clipping Plane fest. Die 3D- oder entfernt sich von ihm. Ansicht zeigt Ihnen durch das Ausblenden jeglicher Objekte vor Bei der Platzierung von Kameras bietet Ihnen Blender noch der Near Clipping Plane und nach der Far Clipping Plane, wo einen deutlich schnelleren Weg als den gerade beschriebe- die Szene beginnt und endet. In dem etwas später folgenden nen: Um eine Kamera zu platzieren, ohne diese gewählt oder Display-Panel können Sie sich die beiden Planes als Markierung per (G) an die richtige Position geschoben zu haben, nutzen Sie in der 3D-Ansicht anzeigen lassen. (Strg) + (Alt) + (0) (Nummernblock). Die aktuelle Ansicht wird sich sofort zur Kamera-Ansicht ändern und das Kamera-Objekt Um die Linse an die virtuelle Kamera zu schrauben, benötigt Blen- entsprechend platziert sein. Gerade um eine Kamera grob auszu- der Informationen darüber, wie der Kamerasensor beschaffen ist. richten, ist diese Möglichkeit extrem schnell und einfach. Das legen Sie in dem nächsten Panel fest. 1 Kamera | Auf dem Camera-Panel wählen Sie die Kamera und 6.2.3 Einstellungen implizit die Größe des Kamerasensors. Da sich wohl die wenigsten Wie alle anderen Objekte fasst Blender auch bei Kameras viele von Ihnen die exakte Sensorgröße der zu imitierenden Kamera Eigenschaften unter dem Object Data-Tab des Properties-Editors merken können, bietet Ihnen Blender per Combobox eine Aus- zusammen, das – immer wenn Sie ein Kamera-Objekt im 3D View- wahl an vielen verschiedenen Kameramodellen an. Wählen Sie G G Abbildung 6.11 Abbildung 6.9 Editor auswählen – das Symbol einer Filmkamera anzeigt. Klicken diejenige, mit der Sie das Bild rendern möchten, oder belassen Sie Bei gewählter Kamera finden Sie Das Camera-Panel lässt Sie zwi- Sie auf dieses Symbol, erwarten Sie mehrere Panels, die an die die Auswahl auf der standardmäßig gewählten Blender-Kamera. auf dem Object Data-Tab alle schen vielen verschiedenen Kame- kameraspezifischen Eigenschaften. Einstellungen einer realen Kamera angelehnt sind. Zu Beginn des Die Sensorgrößenangaben finden Sie direkt darunter – falls Sie ein ramodellen per Voreinstellungsbox Tabs erwartet Sie wie gewohnt der Kamera-Datenblock, mit dessen neues Kameramodell nutzen möchten, speichern Sie sie als neue wählen. Hilfe Sie den Namen der Kamera festlegen können. Direkt darunter Voreinstellung über die Plus-Schaltfläche 1 ab. finden Sie die Einstellungen der virtuellen Linse. Schärfentiefe | Mit dem Depth of Field-Panel legen Sie den Linsen | Analog zu einer realen Kamera schrauben Sie auch in Schärfentiefe-Bereich der Kamera fest. Schärfentiefe beschreibt die Blender Linsen in die virtuelle Kamera. Sie benötigen allerdings Größe des Bereichs, innerhalb dessen ein Objekt scharf erscheint. keine schwere Fototasche, um unterschiedliche Brennweiten mit- Je nach gewähltem Renderer bekommen Sie hier ein wenig un- G Abbildung 6.10 zunehmen – das Lens-Panel genügt dazu völlig: terschiedliche Einstellungen zu Gesicht. Auf die verschiedenen Das Lens-Panel erlaubt Ihnen die G Abbildung 6.12 E Type Perspective Anpassung der virtuellen : Hier legen Sie den Typ der Kamera fest. stellt Renderer komme ich noch später in Abschnitt 6.3 zu sprechen. Die Depth of Field-Einstellung Kameralinse. eine übliche perspektivische Kamera ein, Orthographic eine Beiden Renderern gemeinsam sind die zwei folgenden: des BI-Renderers

300 301 Kapitel 6 Rendering – ein Bild entsteht 6.2 Die virtuelle Kamera

E Focus: In dieser Box geben Sie das Objekt an, an dessen Mit- telpunkt die Kamera scharf »sieht«. Nehmen Sie hier ein Empty, um den Punkt unabhängig von anderen Objekten in der Szene festzulegen. E Distance : Haben Sie kein Objekt in der vorangegangenen Box F Abbildung 6.14 angegeben, so können Sie mit diesem Wert den Abstand (in … als auch direkt im 3D View-Edi- Blender-Einheiten) festlegen, bei dem die Kamera das Sichtfeld tor, wenn Sie Depth Of Field im scharf abbildet. Shading-Panel der Properties ((N)) im 3D View-Editor aktivieren.

Haben Sie Cycles als Rendering-Engine ausgewählt (folgt etwas später in diesem Kapitel), erwarten Sie zusätzlich die folgenden (realistischen) Schärfentiefe-Einstellungen unter Aperture: E Radius: Bei der Auswahl von Radius können Sie mithilfe von Size direkt den Radius der Blende angeben. Je größer der Blen- dendurchmesser, desto geringer ist die Schärfentiefe. Bei einem Wert von 0 sind alle Objekte der Szene scharf. G E F-stop Radius Abbildung 6.15 : Ist Ihnen die Einstellung der Tiefenschärfe über Depth of Field F-stop Die -Einstellung zu abstrakt, können Sie mit der Wahl von auf die Eingabe des Cycles-Renderers einer Blendenzahl ausweichen (und damit den Gepflogenheiten der realen Fotografie deutlich näher kommen). Geben Sie die gewünschte Blende unter Number ein. E Blades: Eine reale (Iris-)Blende besteht aus mehreren Lamellen,

G Abbildung 6.13 die über eine Mechanik gemeinsam nach innen oder außen ge- Blenders Depth of Field-Panels ermöglichen es Ihnen, extreme Tiefe- dreht werden können. Mit diesem Wert geben Sie an, wie viele nunschärfe darzustellen und so Makro-Aufnahmen zu simulieren sowohl Lamellen die virtuelle Blende besitzt. Wenn dieser Wert 3 oder im späteren Rendering … höher ist, wird eine vieleckig geformte Blende anstelle eines Krei- ses verwendet – dies führt zu polygonalen Unschärfeeffekten. Und auch die nächsten beiden Einstellungen sind in allen Ren- E Rotation: Mit diesem Wert drehen Sie die durch die Blades- derern vorhanden. Während die bisher beschriebenen allerdings Einstellung erzeugten Polygone. auf das Rendering-Ergebnis Auswirkungen haben, sind die hier E Ratio: Mit Ratio simulieren Sie die sphärische Verzerrung der erläuterten direkt im 3D View-Editor zu sehen: Unschärfe, die bei anamorphischen Linsen besonders stark E High Quality: Hier geben Sie an, ob Blender eine qualitativ auftritt. Dabei wird die Unschärfe – wie in Abbildung 6.16 zu hochwertige oder eine schnelle Berechnungsmethode für die sehen – gestreckt. 3D-View-Tiefenunschärfe wählt. Blades gibt anschließend an, wie weich die Unschärfe gezeichnet wird. Maße und F-Stop E F-Stop: Hier geben Sie die Schärfentiefe über die sogenannte Nutzen Sie F-Stop zum Setzen dfder Tiefenunsch hfhärfe, achten Sie d dfarauf, Blendenzahl an. Sie definiert in der Realität neben der einfal- dass Ihre Modelle Größen erhalten, die sie auch in der realen Welt ha- lenden Lichtmenge, wie scharf eine Linse vor und nach dem ben. Achten Sie ebenfalls darauf, dass sich der Zoom der Kamera in rea- F-Stop fokussierten Punkt abbildet. Je kleiner die Zahl ist, desto kleiner listischen Gefilden befindet, denn der Modus nutzt Algorithmen, die die Realität bestmöglich abbilden. wird auch der Bereich, in dem scharf abgebildet werden kann. G Falhlsche Angab en b ei Größ e und Zoom f fhühren zu einer Sch hfärfentief e, Abbildung 6.16 Ratio die nichts mehr mit realen Einstellungen zu tun hat oder überhaupt Mit strecken Sie die Unschärfe (rechts) – hier deutlich nicht sichtbar ist. an einer Kugel zu sehen.

302 303 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

können Sie Kompositionsgitter in die Kamera-Ansicht einblen- den und Ihre Szene bei Bedarf nach diesen aufbauen. E Passepartout: Wenn Sie sich in der Kamera-Ansicht befinden, wird der Ausschnitt außerhalb der Kamera abgedunkelt. Mit dem Alpha-Wert legen Sie fest, wie stark Sie diesen außen liegenden Bereich abdunkeln.

Nachdem Sie jetzt bestens über die virtuelle Blender-Kamera Be- scheid wissen, sehen wir uns in den nächsten Abschnitten Blenders G Abbildung 6.21 interne Render-Engines an. Durch Composition Guides ein- geblendete Hilfslinien unterstüt- G Abbildung 6.17 G Abbildung 6.18 zen Sie in der Kamera-Ansicht Durch unterschiedliche Aperture- … wirkt die gleiche Szene mit beim Platzieren Ihrer Objekte. Werte ändern Sie die Wirkung eines einem Size-Wert von 0.5 deutlich Bildes komplett. Während hier ein fokussierter. 6.3 Rendern mit Blender Size-Wert von 0 die Szene unruhig werden lässt … Blender verfolgt beim Thema Rendering – wie schon bei der Ent- wicklung – einen sehr offenen Ansatz: Es können jederzeit soge- Abbildung 6.13 zeigt Ihnen einen mit den hier beschriebenen nannte Render-Add-ons installiert werden. Diese Add-ons leiten Panels erstellten Schärfentiefe-Effekt. die Szenedaten automatisch an ein externes Programm (einen externen Renderer) weiter, lassen diesen die Arbeit erledigen Darstellung | Das Display-Panel lässt viele Einstellungen der vo- und stellen das Ergebnis der Berechnung anschließend wieder in rigen Panels in der 3D-Ansicht sichtbar werden: Blender dar. Jedem Add-on steht es dabei frei, eigene Material-, E Limits: Aktivieren Sie diese Option, zeigt Ihnen die Kamera Licht- und Render-Einstellungen in Blender zu registrieren und die Near und Far Clipping Plane und den Punkt an, an dem je nach Bedarf inkompatible Render-Einstellungen auszublenden. die maximale Schärfe erreicht wird. Um diese Markierungen zu Doch auch wenn Sie keinen externen Renderer nutzen möch- sehen, müssen Sie sich außerhalb der Kamera-Ansicht befinden. ten, haben Sie in Blender bereits standardmäßig die Auswahl zwi- G Abbildung 6.19 E Mist: Diese Checkbox zeigt Ihnen an, wo in Ihrer Szene der schen drei unterschiedlichen Render-Engines: Display Mit dem -Panel passen Sie Nebel beginnt. Wie Sie Nebel in Ihrer Szene erzeugen, lernen E OpenGL-Renderer (OGL-Renderer) die Darstellung der Kamera im 3D Sie in Kapitel 7, »Lichtdesign«. E Blender-Internal-Renderer (BI-Renderer) View-Editor an. E Safe Areas: Gerade bei digitalen Produktionen für TV-Geräte E Cycles-Renderer wurde und wird heute immer noch ein Rand stehen gelassen, in dem keine für den Zuschauer relevanten Informationen liegen Alle drei Renderer unterscheiden sich nicht nur in der Art, wie sollten – das Videobild wird in diesen Bereichen unter Umstän- sie die Bildsynthese durchführen, sondern auch in der Zeit, die den beschnitten. Mit dieser Checkbox blenden Sie diesen Rand sie dafür benötigen, und in den Funktionen, die sie unterstützen. in der Kamera-Ansicht ein. E Sensor: Blendet den Sensor in der Kamera-Ansicht ein. E Name: Blendet den Kameranamen in der Kamera-Ansicht ein. 6.3.1 Den Renderer wählen E Size: Mit diesem Wert verändern Sie die Größe der ausgewähl- Möchten Sie einen Renderer auswählen, der mit Blender mitge- ten Kamera. Dies hat keine Auswirkungen auf das Render-Er- liefert wird, so klicken Sie in der Menüzeile auf die Combobox gebnis und ist rein kosmetischer Natur. neben dem orangefarbenen Blender-Symbol. Eine Liste mit den G Abbildung 6.20 E Composition Guides: In der Kunst haben sich über die Jahre Auswahlmöglichkeiten Blender Render, Blender Game und Über Safe Areas (gestrichelte hinweg verschiedene Kompositionen entwickelt. Diese geben Cycles Render öffnet sich. Ein einfacher Klick auf eine der drei Linien innerhalb der Kamera- G Abbildung 6.22 Ansicht) sehen Sie auf einen Blick, an, wie Gestaltungselemente miteinander in Beziehung zu set- Auswahlmöglichkeiten wählt die entsprechende Engine (den Ren- Über die Engine-Box wählen Sie welchen Abstand Sie vom Bildrand zen sind, um Spannung, Interesse oder andere Gefühle zu er- derer) aus und schaltet alle dazugehörigen Einstellungen scharf. interne und externe Render-Engi- einhalten sollten. zeugen. Mithilfe dieser kombinierten Combo- und Checkbox Externe Renderer werden sich in derselben Combobox registrie- nes aus.

304 305 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

ren und können auf die gleiche Art ausgewählt werden. Nutzen Geschwindigkeit! Tatsächlich räumt hier der OpenGL-Renderer ab Sie für die nachfolgenden Abschnitte erst einmal den Blender- – nur selten wird ein Bild länger als wenige Sekunden bis zur voll- Internal-Renderer (Auswahl Blender Render). Die nachfolgenden ständigen Berechnung benötigen. Meist beträgt die Render-Zeit Abschnitte werden explizit darauf hinweisen, wenn Sie zur Cycles- sogar unter 1 Sekunde. Um zu verstehen, warum dieser Fakt sehr Render-Engine umsteigen sollen. wichtig ist, müssen wir uns kurz vor Augen führen, wie typischer- weise ein Animator eine Charakteranimation erstellt (vereinfacht): E Ein Charakter wird inklusive Haaren und Kleidung an einen Ani- Viewport Shading 6.3.2 Der OpenGL-Renderer mator übergeben. Das Viewport Shading be- Der OGL-Renderer ist ein sehr einfach gehaltener Renderer. Er E Der Animator animiert den Charakter basierend auf seinem stimmt, wie Blender die Szene rendert die aktuelle 3D-Ansicht aus der Sicht der virtuellen Ka- Skript in allen Schlüsselposen – wichtigen Bewegungspunkten, in der 3D-Ansicht darstellt. Je mera genauso, wie Sie sie als Voransicht in der 3D-Ansicht sehen. ohne die die Animation nicht funktionieren würde. nach eingestellter Detailstufe Viewport Shading E können Sie dadurch Ihre Szene Dabei beachtet er das aktuelle , sodass Sie Anschließend werden die Zwischenposen erstellt und verfeinert. mehr oder weniger detailliert beispielsweise in einem gerenderten Bild ein Drahtgittermodell E Schließlich werden die sekundären Animationen erstellt (wie betrachten. In Kapitel 8, »Shad- sehen, wenn Sie Ihre Viewport Shading-Einstellung auf Wire- von Haaren, Kleidung, Ketten …). ing«, erfahren Sie, was Shading frame gesetzt haben. Abbildung 6.23 zeigt Ihnen eine Montage E Die Animation wird wieder und wieder betrachtet, Details wer- ist und wie Sie das Shading von aus Wireframe- und Shaded-Ansicht – beide sind mit dem OGL- den verändert, neu animiert, die Animation wird umgestellt Blenders 3D View-Editor ändern. Renderer erstellt worden. … kurzum, der Animator ist auf eine flüssige Darstellung der Animation in der Voransicht angewiesen.

Da ein Charakter meist nicht allein auf weiter Flur steht, sondern mit vielen anderen Objekten interagiert, kann nicht immer sicher- gestellt werden, dass Blender die nötige Anzahl von Bildern pro Sekunde in der Voransicht darstellen kann, um eine Beurteilung der Animation zu ermöglichen. Aus diesem Grund blenden Ani- H Abbildung 6.24 matoren Teile der Szene aus oder rendern im schlimmsten Fall die »Glass Half« zeigte 2015 ein- drucksvoll, dass sich Blenders Animation hundertfach, um sich ein Bild des Timings zu machen. OpenGL-Renderer in NPR-Kurz- Mit realistischen und detailgetreuen Renderern nimmt das Ren- filmproduktionen (NRP = Non- dern von Voransichten enorm viel Zeit in Anspruch – und genau photorealistic Rendering) einen hier kommt der OpenGL-Renderer ins Spiel. Platz verdient hat.

G Abbildung 6.23 Die Shaded- und die Wireframe-Ansicht der 3D-Ansicht – gerendert mit dem OpenGL-Renderer

Ich kann mir vorstellen, dass Sie sich jetzt bereits fragen, warum irgendjemand diesen Renderer überhaupt benötigen sollte – im- merhin erzeugen Sie mit ihm kaum realistische Szenen. Die Ant- wort wird offensichtlich, wenn Sie die zum Rendern nötige Zeit betrachten. Ein Renderer, der weder hübsche noch besonders re- alistische Bilder berechnen muss, punktet meist in einer Disziplin:

306 307 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Alles, was der Animator benötigt, ist seine Voransicht der Anima- Die Einstellungen | Alle Einstellungen des OpenGL-Renderers tion ohne Ruckler – eine Aufgabe, die der OpenGL-Renderer dank finden Sie im Render-Menü. seiner kurzen Render-Zeiten bestens erfüllen kann. Doch nicht nur bei qualitativ minderwertigen Vorab-Rende- rings kann der OpenGL-Renderer ganze Arbeit leisten: Blenders 3D View-Editor kann durch allerhand Materialtricks sowohl dazu gebracht werden, Echtzeitszenen relativ realistisch als auch extra unrealistisch (wie ein Comic) aussehen zu lassen. Das Blender Ins- titute in Amsterdam erstellte beispielsweise 2015 einen Kurzfilm (»Glass Half«), der komplett mit dem OpenGL-Renderer erstellt wurde und dementsprechend Render-Zeiten von wenigen Sekun- den pro Frame benötigte. Abbildung 6.24 zeigt Ihnen einen Aus-

schnitt daraus. G Abbildung 6.26 Die Einstellungen des OpenGL-Renderers Rendering testen | Wie bereits erwähnt, bietet Ihnen dieser Renderer sehr wenig Einstellungsmöglichkeiten. Einzig, ob der Wie bereits erwähnt, hat der OpenGL-Renderer sehr wenige Fä- Welt-Hintergrund transparent oder mit der Welt-Hintergrundfarbe higkeiten. Dies spiegelt sich auch in seinen angebotenen Einstel- gerendert wird und wie stark die Kanten der Polygone geglättet lungen wider, die Sie allesamt im oberen Render-Menü unter dem werden, können Sie einstellen. Punkt OpenGL Render Options im 3D View-Editor finden. Der Testen Sie den Renderer doch einmal aus: Drehen Sie Ihre schmale Funktionsumfang beläuft sich auf folgende Einstellungen: Ansicht wie gewünscht um das Objekt, und klicken Sie anschlie- E Mit Anti-Aliasing können Sie angeben, wie stark die Kan- ßend auf die kleine Kamera im unteren Bereich der 3D-Ansicht tenglättung der errechneten Bilder ist und ob sie überhaupt , oder nutzen Sie den Eintrag OpenGL Render Image des aktiv sein soll. Deaktivieren Sie die Checkbox, um keine Kan- G Abbildung 6.25 Render-Menüs im Info-Bereich. Wie Sie sehen, ist das anschlie- tenglättung durchzuführen, wählen Sie eine Sample-Anzahl aus, Ein mit Blenders OGL-Renderer ßend erzeugte Bild zwar nicht wirklich hübsch – aber es ist sehr um die Qualität der Kantenglättung zu bestimmen. Je höher erzeugtes Bild ist vielleicht nicht hübsch, aber sehr schnell schnell errechnet worden. Klicken Sie auf die neben der Kamera die Anzahl der Samples, desto weicher werden die Kanten – je berechnet. befindliche Filmklappe, wird Blender eine Animation berechnen. geringer, desto pixeliger werden Kanten dargestellt. Bewegung werden Sie hier allerdings erst dann feststellen können, E Mit Alpha bestimmen Sie, ob die gerenderten Bilder einen wenn Sie eine Animation erstellt haben. Wie? Das lernen Sie in transparenten Hintergrund erhalten (Transparent) oder ob die Kapitel 9, »Animation«. (Esc) bricht die Berechnung von Bildern Hintergrundfarbe genutzt werden soll (Sky). oder Animationen ab und blendet nach Abschluss des Renderings Renderer und Prozessorkerne das gerenderte Bild wieder aus. Tatsächlich sind diese beiden Einstellungen schon alles, was Sie Bldlenders Rende drer rende drt auf f Normalerweise rendert der OGL-Renderer immer die gesamte an dieser Rendering-Engine ändern können. Die nächsten beiden beliebig vielen Prozessorkernen. Die Datei »06_Camera- D View Voransicht im 3 -Editor. Befinden Sie sich allerdings in der vorgestellten Renderer haben im Gegensatz dazu gigantisch viele Besitzen Sie also einen Mehr- Playground.blend« fin- Kamera-Ansicht, wird Blender die Szene aus dieser Kamera- Einstellungen und Möglichkeiten. kernprozessor mit 4, 8 oder so- den Sie unter Beispiel- gar 16 Kernen, werden alle material • Kapitel_06. Ansicht rendern. Probieren Sie dieses Verhalten doch einmal in Während der OGL-Renderer sein Rendering anhand der aktu- der Datei »06_CameraPlayground.blend« aus. Wechseln Sie per ellen Ansicht durchführt, erzeugen die nächsten beiden Renderer diese Kerne zur Berechnung des Bildes herangezogen. (0) (Ziffernblock) in die Kamera-Ansicht, und rendern Sie die das Render-Ergebnis anhand einer virtuellen Kamera. Die Kamera Szene per Klick auf das Kamerasymbol. Kehren Sie anschließend ist Ihnen zwar bereits in der Standarddatei begegnet, eine kurze wieder in die normale Ansicht zurück (beispielsweise über (0) Anleitung zu Platzierungsmöglichkeiten und Funktionen erhalten (Ziffernblock), und rendern Sie die Szene erneut. Sie jedoch erst jetzt. Kommen wir nun zu den zwei »richtigen« internen Render-Engines von Blender.

308 309 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

6.3.3 Der BI-Renderer – den. Sie müssen mit Cycles den Rendering-Prozess nicht mehr Kaustiken mit Cycles Geschwindigkeit oder Realismus explizit starten, sondern können – noch während Sie die Szene Pathtracer können zwar Kausti- In diesem Abschnitt darf ich Ihnen ein Urgestein von Blender verändern – direkt die Auswirkung in der 3D-Ansicht gerendert Raytracing- und ken darstellen, benötigen dazu vorstellen: den Blender-Internal-Renderer (BI-Renderer). Dieser betrachten. Zu erwähnen ist hier, dass auch der BI-Renderer in- Global-Illumination-Unter- allerdings extrem viele Samples. stützung Scanline-Renderer ist bereits seit Blenders Anfängen vorhanden zwischen so stark erweitert wurde, dass auch mit ihm Echtzeit- Wenn in Ihrer Szene keine Kaus- Meistens unterstützen Scanline- und wurde über die Jahre hinweg ausführlich in Studioproduktio- Rendering in einem gewissen Rahmen (sehr langsam) möglich tiken benötigt werden, können Renderer keine aufwendigen nen getestet, von Fehlern befreit und mit Features aufgebohrt. Er geworden ist. Sie Blender mitteilen, keine Technologien wie Raytracing rendert Bilder zwar sehr schnell, benötigt jedoch ein relativ großes E Dank der konsequenten Ausrichtung auf GPUs ist Cycles‘ Kaustiken zu berechnen – und sollten dies auch tun. Rauschär- oder Global Illumination – die Anwenderwissen, um zu realistischen Bildern zu gelangen. Rendering-Prozess auf mehreren GPUs gleichzeitig ausführbar. Blender-interne Implementie- mere Bilder und schnellere Ren- Beim BI-Renderer gilt: Alle erweiterten Features sind zu Beginn Besitzt Ihr Rechner mehrere Grafikkarten, so erleben Sie einen rung unterstützt jedoch auch der-Zeiten werden Ihr Lohn diese. abgeschaltet, erst bei Bedarf können sie über verschiedenste Opti- linearen Geschwindigkeitszuwachs. sein. onen hinzugefügt werden. Die Render-Zeit ist somit grundsätzlich E Dank Nutzung von Bibliotheken wie OpenCL ist Cycles auf Nvi- sehr kurz, sie wird aber mit zuschaltbaren, den Realismus erhöhen- dia- und AMD-Grafikkarten gleichermaßen lauffähig. Blender den Features wie beispielsweise Raytracing schnell länger. Gerade gelingt damit das seltene Meisterstück, einen Renderer zu sch- für das Erstellen von Motion-Graphics oder das Comic-Rendering reiben, der für beide Grafikkartenhersteller gleich gut geeignet bietet der BI-Renderer viele Möglichkeiten und gehört noch lange ist. nicht zum »alten Eisen« – auch wenn mit Blenders neuem Ren- E Dank der Möglichkeit, auf CPUs auszuweichen, kann bei ei- derer Cycles bereits ein Nachfolger durch die Tür geschritten ist. ner nicht funktionierenden Grafikkarte oder in Render-Farmen mit Hunderten CPUs gerechnet werden. Sie erhalten auf diese Weise die Wahl, auf welche Art das Projekt zu rendern ist. 6.3.4 Der Cycles-Renderer – wenn es etwas mehr sein darf Während der BI-Renderer standardmäßig sehr wenige Features Entstehungsgeschichte Der Cycles-Renderer ist ein Pathtracer, er verhält sich also grund- aktiviert hat und Sie erst nach und nach Features aktivieren, um Nachdem der BI-Renderer durch sätzlich so wie oben bereits beschrieben. Mit seiner Hilfe erhalten realistisch zu rendern, verhält sich Cycles genau umgekehrt: Mit die vielen implementierten Fea- Sie automatisch Ergebnisse, die unter anderem globale Beleuch- Cycles erzeugen Sie in der Standardeinstellung bereits sehr realis- tures und Sonderfälle immer tung, diffuse und spiegelnde Reflexionen und Kaustiken (helle tische Bilder – zulasten der Render-Zeit. Möchten Sie Ihre Render- schwerer zu erweitern wurde, ent- schloss sich der Blender-Entwickler Lichtpunkte, wie sie beispielsweise bei einer Lupe im Zentrum Zeiten verringern, lohnt es sich also, die einzelnen Einstellungen Brecht van Lommel 2011, einen entstehen) widerspiegeln. und Features genau zu kennen – erst dann können Sie gezielt neuen Renderer zu entwickeln, Diffuse Reflexion bedeutet, dass nicht nur bei spiegelnden Funktionen ausschalten und Ihre Wartezeit minimieren. der auf CPUs und GPUs ausgeführt Oberflächen ein Strahl umgelenkt und weiterverfolgt wird, son- werden kann und Szenen physik- dern auch bei Objektoberflächen, die nicht spiegeln. Auf diese Art basiert berechnet. Das Ergebnis kann ermittelt werden, wie viel Licht von Objektoberflächen so 6.3.5 Cycles oder Blender Internal? finden Sie heute in Blender: den Cycles-Renderer. auf andere Objekte reflektiert wird, dass diese dadurch beleuchtet Ich hätte mir viele graue Haare und einsame Stunden vor dem werden (Indirect Light Sampling). Als weitere Ergänzung sendet Rechner ersparen können, wenn ich einen der beiden Renderer Cycles nicht nur Strahlen aus der Kamera zu Lichtquellen, sondern von diesem Buch ausgeschlossen hätte. Meine Lektorin wäre wohl auch von Lichtquellen zur Kamera. Dieses Verfahren heißt Direct glücklicher gewesen, denn das Buch wäre deutlich früher erschie- Light Sampling. Zusammengefasst ist Cycles also ein Pathtracer aus nen. Ich wäre wohl gesünder gewesen, denn ich würde wieder der Familie der Raytracer mit kombiniertem Direct und Indirect mehr Zeit auf meinem Mountainbike verbringen. Mein Anspruch Light Sampling. Beide Ergebnisse (Indirect und Direct) werden an dieses Buch ist jedoch tatsächlich so hoch, dass ich zu keinem anschließend kombiniert und ergeben so mit weniger Strahlen Zeitpunkt ernsthaft über diese Möglichkeit nachgedacht habe. Ich ein rauschärmeres Bild. möchte Sie bestmöglich auf Ihre weiteren Ausflüge in Blender vor- Cycles bringt Blender in vielerlei Hinsicht handfeste Vorteile: bereiten. Dazu finde ich es unabdingbar, Sie mit beiden Renderern E Dank GPU-Unterstützung und einer komplett neuen Codebasis in Berührung zu bringen – auch wenn das für mich bedeutet, dass kann Echtzeit-Rendering in der 3D-Ansicht verwirklicht wer- ich viel mehr erklären und Sie leider auch mehr lernen müssen.

310 311 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Natürlich sind die meisten Unterschiede in der Handhabung von chen Eintrag Slot Name, nachdem Sie den zu benennenden Slot Blender dort zu finden, wo es um das Festlegen von Features des ausgewählt haben. genutzten Renderers und die Rendering-Einstellungen geht. Aber auch in den Materialdefinitionen, bei der Beleuchtung oder im Compositing gibt es viele kleine und auch große Unterschiede im Handling oder den angebotenen Optionen. Beginnend mit dem nächsten Abschnitt werde ich daher immer gesondert auf die bei- den Renderer eingehen. Wenn keine besondere Kennzeichnung vorhanden ist, können Sie davon ausgehen, dass der BI-Renderer gemeint ist. Wenn Einstellungen zwar den Renderer beeinflussen, aber thematisch in ein anderes Kapitel gehören, werde ich die Einstellungen dort besprechen. Es macht meines Erachtens wenig Sinn, Ihren Kopf mit vielen Einstellungen zu belasten, die Sie dann doch erst ein paar Kapitel später benötigen.

6.3.6 Ihr erstes Rendering Die Datei »06_FirstRen- Jetzt endlich – nach einem Drittel des Buches – dürfen Sie Ihr dering_BI.blend« finden erstes Bild rendern. Keine Angst, es kann nichts schiefgehen. Laden Sie unter Beispielmate- Sie dazu einfach die Szene »06_FirstRendering_BI.blend«. F Abbildung 6.28 rial • Kapitel_06. Der UV/Image Editor mit geöff- Rendern | Betätigen Sie anschließend die magische (F12)-Taste. Je netem Slot-Popup, benannten Image nachdem, wie schnell Ihr Rechner ist, erscheint in der Menüzeile Slots, -Menü und einem gerenderten Bild für kurze Zeit ein Fortschrittsbalken, der über den aktuellen Ren- 132 4 der-Fortschritt Auskunft gibt. Gleichzeitig wird der größte verfüg- bare 3D View-Editor temporär zu einem UV/Image Editor gewan- delt (erkennbar an dem geänderten Symbol in der linken unteren Probieren Sie es gleich einmal mit der Datei des vorigen Beispiels Ecke), um das Render-Ergebnis aus Abbildung 6.27 anzuzeigen. aus: Um Ihre vorherige 3D-Ansicht wiederherzustellen, genügt es, im E Rendern Sie ein Bild mit (F1), und öffnen Sie die Properties aktuell angezeigten UV/Image Editor die Taste (Esc) zu drücken. des UV/Image Editors mit (N). Ihr Bild wird dadurch nicht gelöscht, sondern steht in einem Zwi- E Geben Sie dort dem aktuellen Slot im Display-Panel einen Na- Slot Name G Abbildung 6.27 schenpuffer so lange zur Verfügung, bis Sie das vorhandene Bild men, indem Sie neben beispielsweise »Rendering Ihr erstes Blender- durch einen erneuten Rendering-Vorgang überschreiben. 1« eingeben. Internal-Rendering E Setzen Sie den aktuellen Puffer auf Slot 2, indem Sie ihn mit der Bildpuffer (Slots) | Wie bereits erwähnt, werden Ihre gerender- Maus auswählen, und drücken Sie (Esc), um in die 3D-Ansicht ten Bilder im UV/Image Editor angezeigt 1. Dieser gibt Ihnen zurückzukehren. Zoomstufen vielfältige Möglichkeiten: Einerseits können Sie Ihr Bild mithilfe E Ändern Sie im 3D View-Editor die Lage eines Objekts oder der Mit der (Pos1)-Taste und den Image 2 des -Menüs oder per (F3) abspeichern , und andererseits Lampe, und rendern Sie die Szene erneut mit (F12). Tasten des Ziffernblocks können können Sie Ihr Bild in acht voneinander unabhängigen Bild-Puffern E Wechseln Sie zwischen den zwei Slots, indem Sie (J) über dem Sie die Grafik in verschiedenen (Slots) zwischenspeichern 3, um beispielsweise einen Vergleich Render-Ergebnis drücken, die Slots durch Klick auswählen oder Zoomstufen darstellen – so stellt zwischen Rendering-Ergebnissen mit unterschiedlichen Einstellun- indem Sie eine der Zahlen (1), (2), (3)–(8) auf Ihrer Tastatur (1) (Ziffernblock) das Bild bei- gen durchzuführen. Mithilfe der im UV/Image-Editor verfügbaren betätigen. Auf diese Weise ist es sehr einfach möglich, Render- spielsweise in der Originalgröße dar. Properties ((N)) ist es Ihnen ebenfalls möglich, einen Slot zu be- Ergebnisse miteinander zu vergleichen. nennen – nutzen Sie dazu den unter dem Display-Panel befindli-

312 313 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Das Render-Ergebnis anzeigen | Falls Sie sich bereits wieder in aktuelle Bild ab, indem Sie in der Kopfzeile einen Namen vergeben Farbkanal wird nicht beachtet der 3D-Ansicht befinden, können Sie das letzte Rendering mit (z.B. »ErstesRendering.png«) und die Aktion durch Save As Image Der Speichfhlhhern-Befehl speichert (F11) wieder auf den Bildschirm bringen: Drücken Sie anschlie- oder (¢) abschließen. Sie befinden sich anschließend wieder in immer das gerade angezeigte UV/Image Editor Scopes ßend im (T), erhalten Sie auf dem -Tab der Render-Ansicht und können diese jederzeit durch einen Druck Bild des Bild-Puffers. Er beachtet eine Übersicht über alle Farbinformationen des gerenderten Bildes. auf (Esc) verlassen. dabei jedoch nicht, welchen Ähnlich wie in GIMP oder Photoshop können Sie die Farben hier Farbkanal Sie gerade im UV/ nach einzelnen Kanälen filtern (Rot, Grün, Blau, Alpha) oder sich Alles anders mit Cycles? | Zum Abschluss dieses Themenkom- Image Editor eingestellt haben. die Helligkeit (Luma) des Bildes ansehen. plexes rendern wir dieselbe Szene noch einmal, diesmal aber mit Neben den Histogramm-Funktionen können Sie mit dem UV/ Cycles. Laden Sie dazu die Szene »06_FirstRendering_Cycles. Position des Mauszeigers Image Editor die einzelnen Farbkanäle des Bildes anzeigen: Kli- blend«, und achten Sie auf die Render-Engine-Combobox. Diese Beachhhdhten Sie auch hier wieder, cken Sie dazu am unteren Rand auf eines der sieben Symbole 4 zeigt jetzt die Auswahl Cycles Render an. Anschließend drücken dass Blender automatisch den (Abbildung 6.28). Diese bedeuten von links nach rechts: Sie (F12) und sehen zu, wie Cycles Ihr Bild erzeugt. Alle bereits Fensterbereich fokussiert, der E Color and Alpha: Das gerenderte Bild wird mit Alphakanal besprochenen Punkte wie das Abspeichern des Bildes, die Auswahl unter Ihrer Maus liegt – bewe- (Transparenz) angezeigt. verschiedener Ausgabeformate oder das Anzeigen von Farbinfor- gen Sie also Ihren Mauszeiger E Color: Das gerenderte Bild wird ohne Alphakanal angezeigt. mationen bleiben gleich. Änderungen ergeben sich allerdings in immer auf den Editor, in dem E Alpha: Ausschließlich der Alphakanal wird angezeigt. Da Ihr ak- der Beleuchtung, dem Definieren der Oberflächen, der Texturie- die Aktion stattfinden soll (in diesem Fall also auf den UV/ tuelles Rendering den Hintergrund nicht als transparent, sondern rung und des Compositings – dies erfahren Sie alles in den ent- Image Editor). als grüne Fläche darstellt, werden Sie bei Alpha eine komplett sprechenden Kapiteln. weiße Fläche sehen. Hätten Sie (wie später erklärt wird) den Szenenhintergrund als transparent definiert, würde Sie ein Grau- stufenbild bei der Wahl von Alpha erwarten. In solch einem Die Datei »06_FirstRen- Alpha-Graustufenbild bedeutet weiß = komplett undurchsichtig dering_Cycles.blend« fin- den Sie unter Beispiel- und schwarz = komplett transparent. Alle Zwischentöne (hellere material • Kapitel_06. oder dunklere Grautöne) beschreiben eine teilweise Transparenz. E Z-Buffer: Ausschließlich der Z-Buffer (d.h. die Tiefeninfor- mation der Szene) wird angezeigt. Der Z-Buffer wird von der Render-Engine gefüllt, wenn sie prüft, welche Objekte sich ge- genseitig verdecken. Dabei wird ein Graustufenbild erzeugt,

G Abbildung 6.29 das die Entfernung der Objekte zu den Clipping-Ebenen (zu Mit der Histogram-, Waveform-, Clipping siehe Kasten Seite 301) angibt. G Abbildung 6.31 Vectorscope- und Sample Line- E R, G, B: Mit der roten, grünen und blauen Kugel zeigen Sie Ihr erstes Rendering mit der Cycles-Engine Ansicht analysieren Sie das geren- ausschließlich den roten, grünen bzw. blauen Farbkanal an. derte Ergebnis. Realtime-Rendering | Seitdem Cycles Einzug in Blender gehal- Das Render-Ergebnis abspeichern | Bislang haben Sie zwar schon ten hat, ist es möglich, noch während die Szene erstellt wird, die ein Bild gerendert, es aber noch nicht abgespeichert. Bewegen Sie 3D-Ansicht permanent zu rendern. Schalten Sie dazu das View- dazu Ihre Maus über das gerenderte Bild, und drücken Sie (F3), port Shading mit dem in Abbildung 6.32 gezeigten Popup auf oder wählen Sie Save As Image aus dem Image-Menü des UV/ Rendered. Image Editors. Es erscheint der bekannte File Browser-Editor, Da Sie in dieser Ansicht weder sehen, welche Objekte, noch, den Sie bereits beim Abspeichern von Blender-Dateien kennen- welche Vertices gerade markiert sind, sollten Sie diesen Modus bei gelernt haben. Beim Abspeichern von Bildern blendet der Editor Bedarf in einer geteilten Ansicht neben der normalen 3D View- links unten einen Bereich ein, mit dem Sie Bildoptionen wie das Ansicht nutzen. Darüber hinaus werden es Ihnen Ihre Grafikkarte, G Abbildung 6.30 G Abbildung 6.32 Die Optionen des File Browsers Dateiformat oder die Kompression einstellen können. CPU und Ihr(e) Partner(in) danken – je kleiner die gerenderte Das Viewport Shading wird auf beim Abspeichern des Kümmern Sie sich nicht um unbekannte Optionen, Sie werden Vorschau, desto weniger muss fortwährend berechnet werden und Rendered gesetzt, um eine Echt- Render-Ergebnisses alle im Laufe dieses Kapitels kennenlernen. Speichern Sie jetzt das desto weniger Lärm erzeugen die Grafikkarten und Prozessoren. zeitvorschau zu erhalten.

314 315 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Sicherlich haben Sie sich eben bereits gefragt, ob Blender Ihnen Objekte sperren irgendwo anzeigt, welche Objekte im 3D View-Editor ausgeblen- Im Outliner bfbefindet d sich h zwi- det sind (oder am Render-Prozess teilnehmen) und welche nicht. schen Kamera und Auge ein Outliner Diese Aufgabe übernimmt der : Er zeigt Ihnen mit einem Mauszeiger. Dieser steuert, ob Augensymbol an, ob ein Objekt im 3D View-Editor sichtbar ist, Sie das entsprechende Objekt und symbolisiert mit einem Kamerasymbol, dass ein Objekt vom im 3D View-Editor per Klick Rendering-Vorgang ausgeschlossen wurde. auswählen können. Deaktivieren Neben der reinen Visualisierung können Sie hier aber auch Sie ihn per Klick, um das Objekt Abbildung 6.33 E vor versehentlichen Änderungen direkt interaktiv bestimmen, was sichtbar und was unsichtbar In der Rendered-Ansicht rendert zu schützen. Blender das Bild kontinuierlich – ist: Klicken Sie dazu einfach auf eins der Symbole (beispielsweise 3 sowohl mit Cycles als auch mit einfach auf das Kamerasymbol ), das sich in derselben Zeile dem Blender-Internal-Renderer. wie das auszuschließende Objekt befindet. Rendern Sie die Szene Mehrere Objekte ausblenden anschließend erneut, wird dieses Objekt nicht mehr gerendert. Möchteh n Sie im Outliner Anders als beim finalen Rendern mit (F12) reagiert Blender im schnell mehrere Objekte aus- 6.3.7 Sichtbarkeiten festlegen Viewport Shading Rendered -Modus ((ª_) + (Z)) nicht auf das blenden (oder vom Rendering- In Kapitel 4, »Modelling«, haben Sie bereits erfahren, wie Sie mit- Ausblenden von Objekten per Kamerasymbol. Da Sie in diesem Prozess ausschließen), die sich Augen auf im Outliner hilfe von (H) Objekte oder Objekt-Komponenten ausblenden und speziellen Modus alles rendern, was Sie im Viewport sehen, blen- untereinander befinden, können Achhfdblhten Sie auch auf die Symbole mit (Alt) + (H) wieder einblenden. Rendern Sie eine Szene mit aus- den Sie Objekte hier per Augensymbol aus 1 – ganz so, wie Sie Sie sich wieder die Eigenheiten des Outliners, wenn Sie Ob- geblendeten Objekten, werden Sie feststellen, dass diese trotzdem vorgehen würden, um das Objekt in der normalen 3D-Ansicht von Blenders User Interface zu- jekte verstecken: Sie werden be- nutze machen: Bewegen Sie Ihre (H) merken, dass das Augensymbol im Rendering auftauchen. Das liegt daran, dass Sie mit nur die auszublenden. Das finale Rendering wird dadurch natürlich nicht Maus über das Augensymbol D View hell bzw. durchscheinend darge- Sichtbarkeit der Objekte im 3 -Editor beschränken, nicht beeinflusst. (Kamerasymbol) des ersten Ob- stellt wird, wenn Sie die Sicht- jedoch für das finale Rendering. Auch das Verschieben eines Objekts auf eine in der 3D-Ansicht jekts, halten Sie die linke Maus- barkeit durch (H) verändern. Im Um Objekte vom Rendering auszuschließen, hält Blender aber nicht angezeigte Ebene führt zum Ausschluss aus dem Render- taste gedrückt, und bewegen Sie Outliner sehen Sie also perma- natürlich auch eine Tastenkombination bereit. Wählen Sie vor- Prozess (ohne es auszublenden). Wie Sie dieses Verhalten zu Ihrem die Maus über die Augensym- nent, welche Teile der Szene bole der auszublendenden Ob- her alle vom Render-Vorgang auszuschließenden Objekte, und Vorteil nutzen können, erfahren Sie in Kapitel 13, »Postproduktion versteckt oder vom Rendern jekte. Das Einblenden von Ob- ausgeschlossen wurden. Und betätigen Sie (Strg) + (H). Ein anschließendes Rendering wird alle und Compositing«. jekten geschieht analog. nur der Vollständigkeit halber: diese Objekte nicht mehr enthalten. Um alle gewählten Objekte 2 Durch das Pfeilsymbol kön- wieder am Render-Prozess teilnehmen zu lassen, nutzen Sie nen Sie unterbinden, dass das 6.3.8 Blenders Render-Einstellungen (Strg) + (Alt) + (H). Objekt in der 3D-Ansicht ausge- wählt werden kann. Zu guter Letzt existiert mit (ª_) + (H) noch eine Tastenkombi- Blender platziert alle Einstellungen – völlig egal, ob Sie den BI- nation, um schnell alle Objekte außer den gewählten aus dem 3D oder den Cycles-Renderer wählen – auf dem Render-Tab des View-Editor auszublenden. Diese Operation kann leider nicht mit Properties-Editors. Hier finden Sie je nach ausgewähltem Ren- einer Tastenkombination schnell umgekehrt werden. derer verschiedene Panels. Manche sind für beide Renderer gültig, während andere nur bei einem der beiden Renderer Sinn ergeben. Die nachfolgend beschriebenen Einstellungen des Render-Panels beziehen sich jedoch zum größten Teil auf alle drei Renderer.

Abbildung 6.34 E Der Outliner zeigt Ihnen auf einen Blick, welche Objekte sich in Ihrer Szene befinden. Mit ihm ist es ein Leichtes, Objekte aus G Abbildung 6.35 dem Rendering-Prozess Auf dem Render-Tab finden sich sowohl die Einstellungen für den BI- als auszuschließen. auch für den Cycles-Renderer. 123

316 317 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Das Render-Panel | Im Render-Panel finden Sie Schaltflächen, len Features und eventuell auftretenden Abstürzen gegenüber um Rendering-Prozesse oder Animationen zu starten und zu be- wohlgesonnen, so stellen Sie Experimental ein. stimmen, wie Ihnen das gerenderte Bild angezeigt wird: E Device: Unter Device stellen Sie ein, ob Sie das Rendering mit- E Render: Hier aktivieren Sie die aktuelle Render-Engine und las- hilfe der CPU oder GPU durchführen möchten. sen Ihr Bild berechnen. Gleiches können Sie über einen Druck E Open Shading Language: Diese Checkbox erscheint nur, wenn auf (F12) erreichen. Sie die CPU als Device eingestellt haben. Sie aktivieren hiermit E Animation: Über einen Klick auf diese Schaltfläche können Sie die Verarbeitung der Open Shading Language, einer Program- eine Animation erstellen. In welchem Format und in welchem miersprache zum Erzeugen von Shadern (Weiteres dazu in Ka- G Abbildung 6.36 Ordner die Animation abgespeichert wird, erfahren Sie in Ka- pitel 8, »Shading«). Render Mit dem -Panel starten Sie pitel 9, »Animation«. Render-Vorgänge. E Audio: Über diese Schaltfläche erzeugen Sie einen Audio-Track Das Dimensions-Panel | Auf der linken Seite dieses Panels legen aus allen Sequenzen im Video Sequence Editor (Kapitel 15, Sie fest, ob Ihr Rendering als Briefmarke oder Poster berechnet »Der Video Sequence Editor«). wird – Sie bestimmen also die Abmessungen Ihres Bildes: E Display: Über die hier auswählbaren Punkte legen Sie fest, wo E Render Presets: Hier finden Sie verschiedene Voreinstellun- Sie den Render-Vorgang (inklusive bereits gerenderter Bildbe- gen zu gängigen Render-Größen und Aspect-Ratios. Möchten standteile) verfolgen möchten. Wählen Sie Keep UI, läuft das Sie selbst eine Voreinstellung abspeichern, stellen Sie alle ge- Rendering im Hintergrund. Sie werden nur durch einen Fort- wünschten Einstellungen ein und klicken auf das Plussymbol. schrittsbalken im oberen Bereich der Menüzeile vom aktuel- Nachdem Sie einen Namen festgelegt haben, wird Ihre Vorein- G Abbildung 6.37 len Status in Kenntnis gesetzt. Bei dieser Einstellung sehen Sie stellung ins Render Presets-Menü aufgenommen. Das Dimensions-Panel legt die New Window E Resolution nicht die bisher gerenderten Bildteile. Bei wird : Hier legen Sie die Auflösung des Bildes in x- und Abmessungen Ihres Renderings das Rendering in einem neuen Fenster durchgeführt. Bei Image y-Richtung fest. Mit dem Prozent(%)-Slider geben Sie an, wie fest. Editor wird das Rendering im UV/Image Editor durchgeführt viel Prozent der eingestellten Auflösung tatsächlich gerendert oder – falls aktuell keiner existiert – der Editor mit dem größten werden. Haben Sie 100 × 100 Pixel bei 50 % eingestellt, wird Platzbedarf zu einem UV/Image Editor umgewandelt (der Pro- das Resultat nur 50 × 50 Pixel groß sein. Gerade wenn kleinere perties-Editor wird nie umgewandelt). Mit Full Screen wird Test-Renderings angefertigt werden sollen, ist die prozentuale das Rendering als Vollbild durchgeführt. Wählen Sie Lock UI, Verkleinerung der Auflösung ein schneller Weg, um die Render- sperrt das hinter der Display-Box angezeigte Schlosssymbol die Zeiten zu verkürzen. Bedienoberflächen, sobald Blender rendert. Aktivieren Sie diese E Aspect Ratio X, Y: Über diese beiden Werte können Sie die Option, um unbeabsichtigte Änderungen Ihrerseits während Pixel des errechneten Bildes zerren. Möchten Sie beispielsweise des Rendering-Prozesses zu unterbinden. für einen 16:9-Fernseher ein Bild erstellen, das ursprünglich 500 × 500 Pixel groß war, würden Sie für X:16 und für Y:9 Im Render-Panel selbst befindet sich keine Schaltfläche zum Ab- eingeben, um es in Vollbild auf dem Fernseher ohne Ränder Achtung: GPUs bei Device spielen von Animationen. Dazu finden Sie im Render-Menü den darzustellen. GPUs können Sie unter Device Eintrag Play Rendered Animation. Über einen Klick auf diesen E Border: Ermöglicht es Ihnen, nur Ausschnitte aus Ihrer Szene nur anwählen, wenn Sie in den Blender User Preferences Eintrag oder per (Strg) + (F11) spielen Sie die zuletzt gerenderte zu rendern. Um den Ausschnitt festzulegen, wechseln Sie im ((Strg) + (Alt) + (U)) in der Kate- Animation ab. Blender wird dazu ein Fenster öffnen, in dem Sie die 3D View-Editor mit (0) (Ziffernblock) in die Kamera-Ansicht gorie System das Cycles Com- Animation mit der Leertaste starten/stoppen oder bei gehaltener und aktivieren mithilfe von (Strg) + (B) das Auswahltool. Ziehen pute Device von None auf linker Maustaste und Bewegung nach links und rechts einzelne Sie daraufhin einen Rahmen mit gedrückter linker Maustaste Cuda (Nvidia) oder OpenCL Frames betrachten können. auf – eine rote Umrandung zeigt Ihnen die erfolgreiche Akti- (AMD) stellen und direkt darun- ter alle Grafikkarten mit einem Neben den oben beschriebenen besitzt Cycles noch drei wei- vierung dieser Funktion an. Rendern Sie anschließend ein Bild Häkchen versehen, die Sie zum tere Einstellungen: mit (F12), werden Sie feststellen, dass nur Inhalte innerhalb Rendern nutzen möchten. E Feature Set: Hier bestimmen Sie unter Cycles, welche Fea- des roten Rahmens gerendert wurden. Sie deaktivieren diese tures aktiv sind. Möchten Sie nur getestete Features einsetzen, Funktion, indem Sie das Häkchen bei Border wieder entfernen nutzen Sie die Supported-Einstellung. Sind Sie experimentel- oder (Strg) + (Alt) + (B) betätigen.

318 319 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Bevor Sie jedoch eine der folgenden Optionen wählen können, müssen Sie die Stempel-Funktion durch ein Häkchen in Stamp Output aktivieren. Anschließend wirken sich die folgenden Stem- peloptionen auf Ihr Rendering-Ergebnis aus: E Font Size: die Größe des angezeigten Informationstextes E Text Color: die Farbe der Informationen E Background Color: die Farbe und Deckungskraft des Text- hintergrundes E Time: die aktuelle Animationszeit (berechnet aus den Bildern/s) E Date: das aktuelle Datum G Abbildung 6.38 G Abbildung 6.39 E RenderTime: die benötigte Zeit zum Rendern des Bildes Ein Aspect-Ratio-Verhältnis von 1:1 Ein Aspect-Ratio-Verhältnis von 2:1 E Frame: die Frame-Nummer ergibt ein Bild, wie Sie es in Blen- verzerrt die Pixel des E Scene: der Name der aktuellen Szene ders Kamera-Ansicht sehen. Render-Ergebnisses. E Camera: der Name der aktuellen Kamera E Lens: die Linseneinstellung der aktuellen Kamera E Crop: Haben Sie die vorherige Funktion aktiviert, werden Sie E Filename: der Dateiname der geladenen Blender-Datei feststellen, dass zwar nur die Teile der Szene berechnet werden, E Marker: der Name des letzten Markers die innerhalb des Rahmens liegen, das Bild aber immer noch E Seq. Strip: der Name des aktuellen Sequenzer-Strips die eingestellte Größe besitzt. Über Crop beschneiden Sie das E Note: ein eigener, frei wählbarer Text Resultat auf den Border-Rahmen. E Strip Metadata: Falls Sie Videos mit Blenders Video Sequence Editor schneiden, nutzen Sie mit dieser Checkbox die Metada- Die Einstellungen der rechten Seite des Dimensions-Panels, des ten der Clips anstatt der bislang gesetzten Szenen-Metadaten. Output- und Sampled Motion Blur-Panels sind ausschließlich für Animationen relevant. Alle diese werden daher ausführlich in Abbildung 6.41 zeigt Ihnen manche der obigen Optionen in einem Kapitel 9, »Animation«, erläutert. Auch das Shading-Panel werden Rendering. Sie erst in Kapitel 8, »Shading«, kennenlernen. Anti-Aliasing – Kantenglättung (BI) | Das Anti-Aliasing-Panel Metadata – Informationen stempeln | Mit dem Metadata-Panel ist ausschließlich für den BI-Renderer verfügbar und beheimatet haben Sie die Möglichkeit, zusätzliche Informationen über Ihr Ren- Einstellungen, die bestimmen, wie schroff Kanten von Objekten der-Ergebnis zu blenden (und mit dem Bild abzuspeichern). Um im gerenderten Bild dargestellt werden. All diese Optionen haben G Abbildung 6.42 die Auswirkungen der Optionen zu betrachten, müssen Sie Ihre nur dann einen Effekt, wenn die Checkbox vor dem Namen des Die Einstellungen des Anti-Alia- Szene erneut rendern. Panels aktiviert wird. Folgende Einstellungen stehen Ihnen in die- sing-Panels führen zu weicheren sem Panel zur Verfügung: Kanten im finalen Rendering (nicht in der Vorschau des View- G Abbildung 6.40 E Anti-Aliasing Samples: Hier legen Sie fest, wie viele Samples port Shading-Modus Rendered). Das Metadata-Panel hilft Ihnen pro Pixel genommen werden. Je höher diese Zahl, desto we- immer dann, wenn Sie zusätzliche niger Treppenstufen werden Sie an Kanten entdecken können. Informationen auf Ihr Rendering- E Pixel Filter Type Ergebnis stempeln und (bei ent- : Hier legen Sie den Filter fest, der zum Sam- sprechendem Dateityp) in die plen benutzt wird. Manche Arten erzeugen etwas weichere Datei übernehmen möchten. Kanten, manche ein wenig schroffere. Sie werden hier höchst- wahrscheinlich nie etwas ändern müssen. Abbildung 6.41 E E Size: die Größe des angewandten Filters (wie weich die Kanten Mit dem Metadata-Panel fügen Sie Ihrem Rendering Informatio- werden) E nen über Szene, Render-Zeit usw. Full Sample: Beugt Compositing-Problemen in Verbindung mit hinzu. Transparenzen vor, ist aber äußerst rechenintensiv und nur bei

320 321 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

Bedarf einzuschalten (wird in Kapitel 13, »Postproduktion und Folgende Optionen stehen Ihnen bei beiden Varianten zur Ver- Compositing«, erläutert). fügung: E Sampling Presets: Wie bei allen anderen Voreinstellungs-Com- Probieren Sie die Anti-Aliasing-Einstellungen aus, indem Sie zuerst boboxen können Sie hier Ihre eigenen Einstellungen abspei- ein Bild ohne Anti-Aliasing rendern und anschließend die Samples chern und laden. Standardmäßig finden Sie hier eine Vorein- pro Rendering um eine Stufe erhöhen. Höhere Stufen bedeuten stellung für schnelle Renderings (Preview) und für qualitativ natürlich längere Rechenzeiten. Allerdings machen höhere Stufen hochwertige Renderings (Final). G Abbildung 6.44 E Method nicht in jedem Bild Sinn – in der Standardszene werden Sie bei- : Hier wählen Sie die Art des Pathtracing-Integrators Das Sampling-Panel ist das Herz spielsweise keinen Unterschied zwischen fünf und acht Samples aus – Branched Path Tracing oder Path Tracing. des Pathtracing-Algorithmus – hier sehen. E Square Samples: Ist diese Checkbox aktiv, so werden alle Ihre entscheiden Sie über die Dauer Sample-Einstellungen quadriert. Geben Sie einen Wert von 10 und die Qualität des Sampling (Cycles) – Qualität oder Geschwindigkeit | Im Sam- Samples an, werden also 100 Samples geprüft. Cycles-Renderings. pling-Panel (Cycles-Renderer) legen Sie fest, wie viele Samples E Settings: Hier finden Sie allgemeine Einstellungen des Integ- Blender pro Pixel berechnet. Je weniger Samples Sie Blender be- rators: rechnen lassen, desto verrauschter wird das Endergebnis. Je mehr E Seed: Der von Cycles genutzte Zufallszahlengenerator wird Samples Sie berechnen lassen, desto länger wird das Ergebnis auf immer mit einem Wert initialisiert – dem Seed. Um mög- sich warten lassen. lichst zufällige Werte zu erhalten, kann bei einer Animation der Seed-Wert animiert oder per Klick auf das hinter Seed befindliche Uhrsymbol automatisch von Blender geändert werden. Lassen Sie den Wert fix, so werden Sie bei Anima- tionen ein statisches Rauschen feststellen. E Clamp Direct/Indirect: Hier können Sie festlegen, wie hell Fireflies ein Pixel maximal werden kann. Clamp Direct beschränkt In Cycles-Renderings werden Sie die Helligkeit von Pixeln, die direkt von Lichtquellen ange- gerade um spiegelnde der glä- Clamp Indirect strahlt werden, während die Helligkeit der sernde Oberflächen manchmal indirekt bestrahlten Pixel beschränkt. Dies wirkt insbeson- sehr helle Pixel finden. Diese dere dem Problem der Fireflies (siehe Kasten) entgegen. Fireflies (Glühwürmchen) ge- E Light Sampling Threshold: Mit diesem Grenzwert können nannten Pixel entstehen da- durch, dass einzelne Lichtstrah- Sie Blender anweisen, Strahlen von Lichtern, die nicht merk- G Abbildung 6.43 len durch eine direkte Reflexion Während die linke Seite dieser Abbildung mit sehr wenigen Samples lich zur Beleuchtung des aktuell gerenderten Pixels beitragen, an der Oberfläche eines glatten gerendert wurde und daher stark rauscht, ist das Rauschen in der mit zu ignorieren. Das Rendering wird dadurch in Szenen mit Objekts auf ein Pixel geworfen deutlich mehr Samples berechneten rechten Hälfte nicht mehr sichtbar. vielen Lampen deutlich schneller. werden. Dieser wird dann E Pattern: Mit Sobol und CMJ legen Sie fest, nach welchem überproportional hell und kann Cycles kennt zwei verschiedene Methoden (Integratoren) der Prinzip die Samples innerhalb eines Pixels evaluiert werden. selbst bei vielen Samples um ihn herum kaum noch dunkler Strahlenverfolgung: den Path Tracing-Integrator und den Bran- CMJ erzeugt deutlich weniger Rauschen bei Mesh-Lights werden. ched Path Tracing-Integrator. Der Path Tracing-Integrator prüft (nächstes Kapitel) in Verbindung mit Glas-Materialien (dies bei einem Sample immer nur einen Strahl – er benötigt dadurch gilt nur bei wenigen Samples), rendert aber dafür auch etwas viele Samples (und somit Strahlen), um alle Lichter zu finden. Beim länger als Sobol. Branched Path Tracing-Integrator überprüft Blender bei einem Aufprall die diffusen, spiegelnden, transparenten und alle weiteren Die folgenden Einstellungen finden Sie ausschließlich bei dem Path Komponenten gleichzeitig. Dies ermöglicht Blender, mit einem Tracing-Integrator: Ray mehrere Lichtquellen zu finden, und lässt Sie darüber hinaus E Render: Hier definieren Sie, wie viele Samples Sie pro Pixel be- bestimmen, wie viele Samples Sie pro Komponente betrachten trachten möchten. Diese Sample-Einstellung gilt ausschließlich möchten. für ein finales Rendering ((F12)).

322 323 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

E Preview: Diese Sample-Einstellung wird beim Betrachten der E Step Size: Step Size gibt an, wie groß der Abstand pro Sample 3D-Ansicht mit dem Viewport Shading-Modus Rendered ge- durch das volumetrische Gebilde ist. Je größer der Abstand, nutzt. desto ungenauer wird die Berechnung des Körpers. Je kleiner der Abstand, desto genauer und langsamer wird die Berechnung. Nutzen Sie den Branched Path Tracing-Integrator, können Sie E Max Steps: Mit dieser maximalen Schrittanzahl legen Sie fest, für jede Komponente eines Strahls definieren, wie viele Samples dass die Berechnung des volumetrischen Körpers abgebrochen genutzt werden: wird, sobald die hier eingegebene Anzahl von Schritten erreicht E Diffuse: Anzahl der Samples pro diffuser Komponente wird. Max Steps ist besonders dann hilfreich, wenn Sie eine E Glossy: Anzahl der Samples pro glänzender Komponente sehr kleine Step Size wählen. Nehmen Sie z.B. an, dass Sie E Transmission: Anzahl der Samples pro durchsichtiger Kompo- eine Nebelbank rendern möchten. Normalerweise würde der nente Algorithmus Schritt für Schritt durch die komplette Nebelbank E AO (Ambient-Occlusion): Anzahl der Samples pro Ambient- gehen und das volumetrische Material weiterberechnen – auch Occlusion-Komponente wenn die Sicht durch den Nebel schon so sehr eingeschränkt E Mesh Light: Anzahl der Samples pro Mesh-Light-Komponente wäre, dass Sie keine weitere Oberflächenänderung durch die E Subsurface: Anzahl der Samples pro Subsurface-Scattering- Berechnung bemerken könnten. Würden Sie in diesem Fall die Komponente Max Steps verringern, würde er bereits vor Verlassen des vo- E Volume: Anzahl der Samples pro volumetrischer Komponente lumetrischen Körpers mit der Berechnung aufhören – was in (Rauch, Feuer oder Ähnliches) diesem Fall nur Vorteile hätte. Im unteren Teil des Panels können Sie über vier weitere Optionen den Rendering-Prozess weiter spezifizieren: Alle weiteren (Haarsysteme betreffenden) Optionen finden Sie E AA Samples Render/Preview: Legt fest, wie viele Anti-Aliasing- im Physik-Kapitel – dort zeige ich Ihnen anschaulich anhand von Samples pro Pixel beim Rendern in der 3D-Ansicht/während Beispielen, wie sich die hier getroffenen Einstellungen auswirken. des finalen Renderings genutzt werden. Die hier eingegebene Anzahl wird mit den gewählten Samples pro Komponente mul- Light Paths (Cycles) | Während Sie über das Sampling-Panel tipliziert und ergibt die Anzahl vin Samples pro Pixel. festlegen, wie viele Samples pro Pixel berechnet werden, können E Sample All Direct/Indirect Lights: Normalerweise entschei- Sie über das Light Paths-Panel definieren, wie viele Ablenkungen

G Abbildung 6.45 det Cycles zufällig, welche Lichtquellen zur direkten bzw. indi- eines Strahls maximal betrachtet werden. Benötigt ein Strahl mehr Das Sampling-Panel in der Ein- rekten Beleuchtung betrachtet werden. Mit einem Häkchen in als die hier eingestellte Anzahl von Ablenkungen bis zu einer Licht- stellung Branched Path Tracing diesen beiden Optionen werden immer alle Lichtquellen be- quelle, so wird er nicht mehr weiter betrachtet. trachtet. Das Rendering wird dadurch zwar etwas langsamer, die Die folgenden Einstellungen stehen Ihnen zur Verfügung: Anzahl der nötigen Samples für rauschfreie Bilder kann jedoch E Integrator Presets: Wie immer können Sie hier aus verschie- dadurch bei Szenen mit vielen Lampen verringert werden. denen Voreinstellungen wählen. Direct Light legt die Ein- stellungen so fest, dass der Strahl nur bis zur ersten Reflexion Bounces Eine Übersicht über alle Samples pro Komponente und Pixel er- betrachtet wird ( auf 1), die beiden anderen Vorein- G Abbildung 6.47 Sampling scheint im unteren Teil des -Panels. Ändern Sie die vorge- stellungen erhöhen den Realismus sukzessiv. Mit der Einstellung Direct Light stellten Optionen, wird die Übersicht automatisch neu berechnet E Transparency: Hier passen Sie Einstellungen bezüglich trans- stellen Sie in Cycles nach, wie der und angezeigt. parenter Körper an: BI-Renderer standardmäßig eine E Max/Min: Während Max die maximale Anzahl Ablenkungen Szene berechnet – ausschließlich Max G Abbildung 6.46 Min per direkter Beleuchtung ( Geometry (Cycles) | In diesem Panel legen Sie zweierlei fest: ei- innerhalb eines transparenten Materials angibt, definiert Bounces Das Geometry-Panel dient dazu, = 0). nerseits, welche Genauigkeit der Cycles-Renderer beim Berechnen – wie sollte es anders sein – die minimale Anzahl. Setzen die Qualität von volumetrischen Min < Max Berechnungen und die Render- von volumetrischen Phänomenen wie Rauch, Feuer, Nebel und Sie , so kann das Bild verrauschter werden, der Qualität von Haarsystemen zu Ähnlichem besitzt, andererseits, wie Cycles Haare erzeugt und Rendering-Prozess beschleunigt sich allerdings. definieren. rendert: E Shadows: Aktivieren Sie diese Checkbox, so werden Schatten von transparenten Körpern farblich korrekt dargestellt – bei

324 325 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

einer gläsernen roten Vase also beispielsweise ein rötlicher E Fixed: Diese Einstellung erlaubt es Ihnen, mithilfe von Threads Schatten. Deaktivieren Sie diese Checkbox, werden die Schat- die Anzahl der genutzten Kerne festzuzurren. Möchten Sie pa- ten ohne Färbung dargestellt. rallel neben dem Rendern noch weitere Aufgaben mit Ihrem E Reflective/Refractive Caustics: Wenn Sie diese Box deakti- Rechner durchführen, stellen Sie hier weniger als die in Ihrem vieren, wird Cycles für Spiegelungen/Brechungen keine Kausti- Rechner vorhandene CPU-Kernanzahl ein. ken berechnen. Das Bild wird dadurch schneller berechnet und früher rauschfrei. Aktivieren Sie diese Box nur dann, wenn Sie Performance (BI) | Sehen wir uns jetzt die BI-spezifischen Ein- G Abbildung 6.48 Kaustiken benötigen. stellungen an: Das Light Paths-Panel bestimmt E Filter Glossy: Über diesen Wert können Sie die Reflexion an E Tile Size: Hier legen Sie fest, wie groß die einzelnen Kacheln unter anderem, wie oft der Strahl glatten Körpern und um diese herum weichzeichnen. Dadurch sind, die jeder Thread berechnet. Geben Sie für X und Y jeweils in einer Szene minimal und maxi- wird die Reflexion zwar etwas unschärfer, aber auch deutlich die Anzahl der Pixel in x- bzw. y-Richtung an, die eine Kachel mal abgelenkt wird. rauschärmer. ausmachen. E Memory: Hier legen Sie Einstellungen zum Speicherverbrauch fest. G Abbildung 6.50 Als letzte Parameter dieses Panels erwarten Sie die Parameter des E Save Buffers: Aktivieren Sie diese Option, so speichert Blen- Das Performance-Panel des Bounces -Bereichs. Sie definieren, wie viele Reflexionen pro Kom- der interne Render-Daten in ein temporäres Verzeichnis ab BI-Renderers ponente in die Betrachtung mit aufgenommen werden: und benötigt dadurch weniger Speicher bei Animationen. E Max/Min: Der hier eingestellte Wert dient als oberste bzw. un- Da jedoch auch das Abspeichern Zeit benötigt, ist diese Op- terste Reflexionsgrenze aller Ray-Komponenten. Wird ein Strahl tion nicht immer sinnvoll. Haben Sie im Anti-Aliasing-Panel öfter abgelenkt als der hier vorgegebene Max-Wert, wird die (siehe Seite 321) Full Sample aktiviert, wird diese Einstel- Betrachtung dieses Strahls vorzeitig beendet – auch wenn die lung automatisch gesetzt. jetzt folgenden Werte größere Betrachtungsgrenzen vorgeben. E Free Image Textures: Mit dieser Einstellung entfernt Blender E Diffuse : maximale Anzahl von diffusen Reflexionen alle zum Rendern benötigte Bildtexturen (Kapitel 8, »Shad- Tiles E Glossy : maximale Anzahl von glänzenden Reflexionen ing«) vor dem Compositing aus dem Speicher. Dies ist be- Tildles werden Sie in B ldlender an E Transmission zwei verschiedenen Stellen ent- G Abbildung 6.49 : maximale Anzahl von durchlässigen Reflexionen sonders bei aufwendigen Nachbearbeitungen zu empfehlen. E Volume E Acceleration Structure decken können: beim Rendering Erlauben Sie den Strahlen in der : maximale Anzahl von Strahlablenkungen innerhalb : Alle Einstellungen dieser Kategorie und beim Compositing. In bei- Szene, mehrfach abzuprallen, so eines volumetrischen Objekts können zu einer Beschleunigung des Rendering-Prozesses füh- den Fällen dienen sie dazu, eine färben Sie die Kugel und den ren. Sie sind jedoch in den meisten Fällen bereits in den Stan- komplexe Gesamtaufgabe (Ren- Boden mit den umliegenden Performance (BI und Cycles) | In diesem Panel befinden Sie sich dardeinstellungen optimal und so speziell, dass sie hier nicht dering oder Bearbeitung eines Materialien. im Kern der Rendering-Engines. Hier finden Sie alle Einstellungen, weiter erläutert werden müssen. Bildes) in kleine Teilstücke zu die die Geschwindigkeit und den Speicherverbrauch der Render- zerlegen, an denen dann viele Engine deutlich beeinflussen. Da diese Einstellungen stark von Performance (Cycles) | Da Cycles ein anderes Feature-Set als unabhängige Threads gleichzei- Ihrem System und den berechneten Szenen abhängen, müssen der BI-Renderer unterstützt, sind auch die Optionen von Cycles’ tig arbeiten können. Wenn Ih- Performance nen beim Rendern von komple- Sie die für Sie optimalen Einstellungen durch verschiedene Test- -Panel ein wenig unterschiedlich: xen Szenen kleine Kacheln E Tiles Threads Renderings pro Szene ermitteln. Eine Einstellung dieses Panels gibt : Genau wie bereits beim BI-Renderer legen Sie hier fest, auffallen, die nach und nach ge- Was sindhd Thread s? Stell en Sie es in beiden Render-Engines: Threads. Mit dieser Option legen Sie wie groß die Kacheln sind, die Blender während des finalen rendert werden, dann sehen Sie sich einen Thread wie einen fest, wie viele Prozessoren Ihres Rechners an der Erstellung eines Renderings nutzt: den einzelnen Threads bei der selbstständigen Arbeiter vor, der Bildes mitarbeiten. E Tile Order: Hier können Sie die Reihenfolge festlegen, in Arbeit zu. Bei der Festlegung der von seinem Vorgesetzten (Blen- Kachelanzahl bzw. -größe müs- E Auto-detect: Mit dieser Einstellung teilen Sie Blender mit, dass der die Kacheln erzeugt werden. Während Center die Ka- der) zu verschiedenen Aufgaben sen Sie immer bedenken, dass geschickt wird (beispielsweise so viele Prozessoren wie möglich genutzt werden sollen. Besitzt cheln aus der Mitte heraus nach außen gleichmäßig wachsen hier nicht die Maxime »Viel hilft Rendering) und sich nach Been- Ihr Rechner vier Kerne, so werden auch vier Kerne genutzt. lässt, werden die Kacheln bei Hilbert Spiral spiralförmig viel« gilt. Versuchen Sie, durch digung seiner Arbeit wieder für Besitzen Sie einen Vierkernprozessor, der einen realen Kern auf von innen nach außen erzeugt. Die vier anderen Optionen Probe-Renderings stattdessen neue Aufgaben zur Verfügung zwei virtuelle Kerne aufsplitten kann, so würde Blender acht beginnen an einem Rand (oben, unten, links oder rechts) und die Einstellung zu finden, die hält. Kerne nutzen. arbeiten sich zu dem gegenüberliegenden Rand vor. Ihrem PC und der Szene am besten dient. E X, Y: Legt die Größe der Kacheln fest.

326 327 Kapitel 6 Rendering – ein Bild entsteht 6.3 Rendern mit Blender

E Progressive Refine: Mit dem Setzen dieser Option können Sie E Use Spatial Splits: Aktivieren Sie diese Option, wird Blender Blender beim Rendern des Bildes zuschauen. Die Kachelgröße Ihre Szene vor dem Rendering-Prozess intern neu aufbauen. wird ignoriert, und das Bild wird nach und nach immer weiter Dies führt zu schnelleren Renderings, der Aufbau selbst benötigt verfeinert (die Samples werden erhöht). Diese Option ermög- allerdings auch Zeit. Bei sowieso schnell berechneten Szenen ist licht es Ihnen, noch während des Renderns zu kontrollieren, diese Option daher nachteilig, große Szenen profitieren davon. ob das Bild Ihren Ansprüchen genügt, und bei ausreichender E Use Hair BVH: Wenn Sie diese Option deaktivieren, nutzt Blen- Rauschfreiheit den Render-Vorgang zu beenden ((Esc)). der in Haarszenen keine spezialisierte BVH (Bounding Volume Hierarchy), rendert dadurch länger, verbraucht aber ca. 20 % weniger Speicher als bei Blender 2.77.

Film (Cycles) | Wie im realen Leben legen Sie im Film-Panel all jene Einstellungen fest, die den »Film« der Kamera betreffen.

BVH Die Boundlding Volume Hierarch y wird in Blender dazu genutzt, F um zu erkennen, ob und wo ein Abbildung 6.53 Exposure beim Raytracing ausgesandter Durch einen hohen - Strahl ein Objekt(-teil)/Haar G Abbildung 6.51 G Abbildung 6.52 Wert wird dieses Rendering trifft oder nicht. Üblicherweise Das Performance-Panel des Unter Tiles legen Sie die Berech- überbelichtet. werden dazu Boxen um alle Cycles-Renderers nungsreihenfolge und Größe der zu Objekte in der Szene erzeugt berechnenden Bildteile fest. E Exposure: Dieser Wert gibt die »Belichtungszeit« des Films an. (Bounding Boxes), die zu den 3 Je größer dieser Wert, desto heller wird Ihr Bild, je kleiner, Weltachsen parallel sind. Auch E Save Buffers: Diese Einstellung ist gleichbedeutend mit der desto dunkler. die einzelnen Objekte werden in des BI-Renderers. E Transparent: Aktivieren Sie diese Checkbox, wird Blender den G Boxen zerlegt, um Teile eines Abbildung 6.54 E Viewport Film Objekts zu identifizieren. Diese : Die nachfolgenden beiden Einstellungen gelten aus- Hintergrund Ihrer Szene transparent rendern. Deaktivieren Sie Das -Panel bestimmt unter Boxen werden in immer größere schließlich für das Realtime-Rendering in der 3D-Ansicht: diese Checkbox, wird der World-Hintergrund genutzt. anderem die Belichtung des virtu- Boxen zusammengefasst bis zu E BVH Type: Static BVH rendert schneller, aktualisiert den 3D E Filter Type: Mit dieser Combobox legen Sie fest, wie das er- ellen Films, ob der Hintergrund zu sehen ist und wie stark die Auf- einer allumfassenden Box. An- View-Editor allerdings langsamer, wenn Objekte geändert zeugte Bild später gefiltert (weichgezeichnet) wird. Box wendet schließend wird nacheinander nahme weichgezeichnet wird. wurden. Dynamic BVH rendert langsamer, die Änderungen einen unveränderlichen Weichzeichner an, während Gaussian geprüft, welche Box der Strahl trifft, bis die kleinste Box er- von Vertices oder Transformationen sind allerdings deutlich Ihnen einen fein einstellbaren Weichzeichner liefert. reicht wird – damit wurde das schneller zu sehen. E Width: Haben Sie in der vorigen Einstellung Gaussian gewählt, Objekt/der Objektteil gefunden. E Start Resolution: Die hier angegebene Auflösung bestimmt, können Sie hier die Stärke der Weichzeichnung einstellen. Je Bei Haaren funktioniert das nur wie grob das Rendering im 3D-Viewport zu Beginn aufgelöst höher dieser Wert ist, desto verwaschener wird das Bild. sehr schlecht, denn Haare ste- ist. Je kleiner dieser Wert, desto gröber wird das Bild im hen sehr eng zusammen und in Viewport Shading-Modus Rendered zu Beginn dargestellt. Simplify (BI und Cycles) | Nachdem ich Ihnen in diesem Kapitel alle Richtungen ab. Daher baut E Final Render Render Blender hier einen speziellen : Die nachfolgenden beiden Einstellungen gelten ausschließlich Panels des -Tabs vorgestellt habe – wer hätte BVH auf, der die Boxen entlang ausschließlich für das finale Rendering, nicht das Echtzeit-Ren- das bei einem Rendering-Kapitel vermutet? –, folgt hier die Aus- der Haare ausrichtet – er benö- dering in der 3D-Ansicht. Persistent Images belässt alle zum nahme der Regel: das Simplify-Panel des Scene-Tabs. Durch die tigt ca. 20 % mehr Speicher, Rendern nötigen Daten (wie Bilder, Modelle usw.) im Speicher Aktivierung der Funktionalität im Kopf des Panels setzen Sie den aber identifiziert das Haar auch des Rendering-Devices (GPU oder CPU) und beschleunigt daher Detailreichtum der Szene im 3D View-Editor (linke Seite des Pa- deutlich schneller. ein erneutes Rendering der gleichen Szene. nels) sowie im finalen Rendering (rechte Seite des Panels) herunter und beschleunigen auf diese Weise das Rendering teils drastisch.

328 329 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

Nur für den Cycles-Renderer stehen die folgenden Optionen zur Verfügung: E Texture Limit: Falls Ihre Szene Texturen mit sehr hoher Auflö- sung besitzt, können Sie diese hier begrenzen. Falls die Größe der Texturen den hier gesetzten Wert überschreitet, werden diese so lange um die Hälfte verkleinert, bis sie den Wert un- terschreitet. Speicher und Render-Zeit wird dadurch gespart. E Use Camera/Distance Cull: Mit diesen Einstellungen werden alle Objekte und Partikel außerhalb des Kamerasichtfelds ent- Abbildung 6.55 E fernt, bevor die Szene zur Anzeige/zum Rendern geschickt wird. 2 Klicks im Simplify-Panel führten G Abbildung 6.57 in dieser Szene zu einer 25%igen Auch dieser Vorgang beschleunigt natürlich die Anzeige bzw. Das Simplify-Panel des Verkürzung der Render-Zeit. das Rendering enorm, kann aber zu fehlenden Objekten führen. Cycles-Renderers E AO Bounces: Ab der hier eingestellten Anzahl von Strahlablen- Je nach gewähltem Renderer stehen Ihnen teils identische und teils kungen wird nicht mehr das indirekte Licht zur Beleuchtung des unterschiedliche Features zur Verfügung. Sehen wir uns zuerst die Pixels genutzt, sondern durch den Hintergrund gefärbtes AO. 0 Einstellungen an, die beiden Renderern gemeinsam sind: deaktiviert das Feature, 1 verfälscht das Render-Ergebnis stark, E Subdivision: Hier legen Sie die maximal zulässige Anzahl von ab 2 führt es aber zu einer deutlichen Render-Zeitersparnis in Unterteilungen fest, die alle Subdivision Surface-Modifier und komplexeren Szenen mit viel indirektem Licht. Multires-Modifier in dieser Szene aufweisen. Haben Sie also beispielsweise mehrere Subdivision Surface-Modifier aktiviert, Nachdem Sie jetzt viel über interne Einstellungen des Renderers die eine View-Unterteilung von 5 besitzen, und geben hier ei- gehört haben, werde ich Ihnen jetzt ein Thema näherbringen, das nen Wert von 2 ein, werden diese auf 2 beschränkt, ohne den zwar auch viel mit Interna von Render-Engines zu tun hat, aber Originalwert zu ändern. Geringere Werte bleiben von der Än- trotztdem sehr wichtig ist – das sagenumwogene Thema Color- derung unberührt. Management (Farbmanagement). E Child Particles: Die maximale Anzahl von Child-Partikeln aller Partikelsysteme der Szene. 1.0 lässt die Anzahl unangetastet, 0.5 begrenzt sie auf die Hälfte der ursprünglichen Partikel pro 6.4 Color-Management System. Wenn ich auf meinen Schulungen das Thema Farbmanagement Diese Eigenschaften stehen Ihnen nur im BI-Renderer zur Verfü- anspreche, bin ich immer wieder erstaunt darüber, wie wenig Nut- gung: zer sich Gedanken über dieses Thema machen (müssen), obwohl E Shadow Samples: Begrenzt die maximale Anzahl von Samples sie beinahe täglich von den Auswirkungen eines fehlenden oder (die angeben, wie weich Schatten im BI-Renderer gerendert falschen Color-Managements betroffen sind: Bilder werden per Ka- werden), wenn Sie den Schattentyp Buffer Shadow gewählt mera oder Smartphone aufgenommen, per Messenger versendet haben. Die Option hat keine Auswirkung auf den Typ Ray Sha- und sehen auf dem eigenen Smartphone viel brillanter aus als beim G Abbildung 6.56 dow. Empfänger; ausgedruckte Bilder, deren Farben nichts mehr mit Das Simplify-Panel des E AO and SSS: Haben Sie im Gather-Panel des World-Tabs Ap- dem zu tun haben, was Sie auf dem Bildschirm gesehen und mit BI-Renderers proximate gewählt, verringern Sie mit diesem Slider die Quali- der Kamera aufgenommen haben, und Webseiten, deren Schriften tät von Subsurface-Scattering-Effekten und der World Ambient sich beim Designer zwar super, bei Ihnen zu Hause aber kaum Occlusion. mehr vom Hintergrund abheben. E Skip Quad to Triangles: Unterbindet die Triangulation von Die Aufgabe eines Color-Management-Systems wird durch die Vierecken (Quads), bei denen nicht alle Vertices in einer Ebene obigen Probleme sehr gut umrissen: Sie besteht darin, die gerä- liegen. teabhängigen Farbbeschreibungen von Ein- und Ausgabegeräten mittels eines geräteunabhängigen Austausch-Farbraums ineinan-

330 331 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

der zu konvertieren. Im optimalen Fall wird dadurch erreicht, dass Die Lösung dieser Klasse von Problemen besteht darin, alle Geräte alle beteiligten Geräte die Farben annähernd gleich darstellen. über Farbprofile so aneinander anzupassen, dass Farben immer gleich wiedergegeben werden. Dies wird meist über ICC-Profile (International Color Consortium) mit der Endung ».icc« erledigt, 6.4.1 Farb(t)räume die Sie mit spezialisierter Hardware (sogenannten Colorimetern) er- Bevor wir uns um die Lösung der in der Einleitung beschriebenen stellen lassen können (optimal) oder per manueller Einstellung der Probleme kümmern, sollten wir jedoch erst kurz ergründen, woher Farbkurven anhand von Testbildern (ungenau). Windows, macOS diese unterschiedlichen Farben kommen. Dabei abstrahieren wir und unterstützen beide Wege. die Beispiele folgendermaßen: Ein Aufnahmegerät nimmt ein Bild/ Sie fragen sich jetzt sicherlich, warum ICC-Profile nicht ein- G Abbildung 6.58 Video digital auf, ein Ausgabegerät (Bildschirm/Drucker/Beamer fach aus dem Internet geladen werden können. Und grundsätzlich Der Adobe-RGB- Farbraum (das gibt es (wie auch immer) aus. ist das tatsächlich möglich. Da aber baugleiche Monitore durch Gitter) umschließt den RGB-Farb- raum (ausgefüllt) zu großen Teilen. Beginnen wir mit dem Aufnahmegerät: Wenn Sie mit einer Fertigungstoleranzen unterschiedliche Farbkurven besitzen und Kamera ein Bild aufnehmen, wird dieses Bild vom Bildprozessor durch Monitor-Alterung zusätzlich Farbabweichungen entstehen, der Kamera verarbeitet und anschließend abgespeichert. Wenn ist diese Lösung zwar besser als keine, aber immer noch man- Sie nicht in RAW abspeichern (was die Rohdaten des Sensors gelhaft. Zusätzlich hängt jede Farbwahrnehmung auch von der beinhaltet), wird Ihre Kamera das Bild entweder im RGB- oder Umgebungshelligkeit ab, sodass Farbprofile desselben Monitors Gamut im Adobe-RGB-Farbraum speichern, d. h., alle aufgenommenen sich von Raum zu Raum unterscheiden können. Die Menge aller Farben, die ein Farbpixel werden mithilfe einer sogenannten Transferfunktion in Gerät darstellen kann, wird als Gamut bezeichnet. Wenn eine einen Farbraum gepresst. Problematisch dabei ist, dass dieser Lineare Farbräume | Bevor wir uns gleich mit Blenders Color- Farbe also außerhalb des Ga- unter Umständen nicht alle Helligkeits- und Farbwerte abbilden Management beschäftigen, werde ich Ihr Wissen über Farbräume muts eines Druckers liegt, kann kann, die der Sensor aufgenommen hat. (Color Spaces) in den nächsten beiden Abschnitten noch um drei er sie technisch nicht darstellen Soll dieses Bild jetzt auf Ihrem Monitor angezeigt werden, ver- wichtige Begriffe erweitern: lineare (Linear) und nicht lineare – Farbfehler sind die Folge. sucht Ihr Monitor, alle darin enthaltenen Farben 1:1 wiederzu- (Non-Linear) Farbräume und den Gamma-Begriff. geben – was allerdings nur dann möglich ist, wenn Ihr Monitor Als linearer Farbraum wird ein Farbraum bezeichnet, bei dem genau den gleichen Farbraum unterstützt, in dem Ihr Bild abge- die wahrgenommene Intensität von Farben proportional zur nomi- Gamut-Mapping speichert wurde. Unterstützt er diesen Farbraum nicht, wird auch nalen Intensität von Farben ist. Das bedeutet, dass Sie mathema- Gamut-Mapping findet immer hier wieder jede Pixelfarbe in den Monitorfarbraum transferiert tische Operationen in diesem Farbraum problemlos durchführen dann statt, wenn Farben eines – Fehldarstellungen können die Folge sein. können: So könnten Sie zwei identische Farben mit dem Wert 0.3 Quellfarbraums im Zielfarbraum Sollten Sie Ihr Bild ausdrucken wollen, so muss – Sie ahnen es im R-, G- und B-Kanal addieren und bekämen als Ergebnis 0.6 nicht abgebildet werden kön- bereits – auch der Drucker den im Bild gespeicherten Farbraum in allen Kanälen … genau so, wie Sie es erwarten würden. Der nen. Sie werden dabei so ver- schoben, dass sie möglichst unterstützen. Da Drucker jedoch Farben subtraktiv mischen (keine Gamma-Wert in diesem Farbraum ist 1.0 – warum und was dieser nahe an der Originalfarbe lan- Farbe = weiß, alle Farben übereinander = schwarz) und Monitore Wert angibt, erfahren Sie in Kürze. den. Die Verschiebung geschieht Farben additiv (keine Farbe = schwarz, alle Farben übereinan- Lineare Farbräume sind Räume, in denen sich Render-Engines anhand von Mapping-Tabellen, der = weiß), wird auch hier wieder zwangsläufig eine Wandlung wie beispielsweise Cycles sehr wohlfühlen, denn sie kommen der die im jeweiligen Farbprofil ent- stattfinden, bei der wiederum Farbinformationen (durch Gamut- Sicht auf die virtuelle Welt sehr nahe. Fügen Sie in einem linearen halten sind. Mapping) verfälscht werden. Farbraum zwei Lampen mit gleicher Helligkeit ein, so verdoppeln diese die Helligkeit der Szene – genau wie im realen Leben. Alle Dateien mit der Endung »*.hdr«, »*.exr« oder allgemein Rot Magenta alle Bilder/Videos, bei denen Farben mit hoher (meist 32 Bit) Farb- tiefe pro Farbkanal genutzt werden können, werden üblicherweise in einem linearen Farbraum gespeichert. Abbildung 6.59 E Additive (links) und subtraktive Grün Blau Cyan Yellow Farbmischung (rechts) mischen Nicht lineare Farbräume und Gamma-Korrektur | Für nicht li- Farben völlig unterschiedlich. neare Farbräume gelten die gerade besprochenen Regeln gerade

332 333 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

nicht: 0.6 + 0.6 würde hier beispielsweise 0.8 ergeben. Um zu ver- Anbeginn der Zeit auf einem Gamma-Wert von 1.8 – erst in jün- stehen, warum das so ist, müssen wir uns erst ein Computerphä- gerer Vergangenheit wählte auch Apple einen ähnlichen Wert (von nomen namens Gamma-Korrektur ansehen: Als Gamma-Korrektur 2.1). bezeichnet man eine nicht lineare mathematische Operation, die dazu dient, die Nichtlinearität von Anzeigegeräten bei Bildern und Videos auszugleichen. Sie wurde aus zwei Gründen eingeführt: E Unsere Augen nehmen Licht nicht linear, sondern logarithmisch wahr – sie sind deutlich empfindlicher bei dunklen und deut- lich unempfindlicher bei hellen Farbtönen als linear arbeitende G Abbildung 6.62 (Kamera-)Sensoren. Lineare Sensordaten führen in Dateien mit geringer Farbtiefe zu deutlich E CRT-Monitore hatten ein nicht lineares Ansprechverhalten auf mehr hellen Farben als dunklen (oben). Eine Gamma-Korrektur behebt dieses Problem (unten). Farbintensitäten. Heutige LCDs, OLEDs, Plasmas und andere Anzeigegeräte bilden dieses Verhalten weiterhin nach, um nicht Jetzt ist Ihnen sicher auch klar, warum in linearen Farbräumen alle bislang gespeicherten Dateien falsch darzustellen. ein Gamma-Wert von 1.0 genutzt wird: um den Pixelwert nicht zu ändern … denn die Operation Pixelwert hoch 1.0 ändert nichts Um diesem nicht linearen Verhalten von Augen und Anzeigege- am Wert. Da in diesen Farbräumen (und den damit zusammen-

G Abbildung 6.60 räten entgegenzuwirken, erfahren Bilder mit geringer Farbtiefe hängenden Dateien mit 32 Bit Farbtiefe) genug helle und dunkle Die Lichtempfindlichkeit von (8 Bit, 16 Bit pro Farbkanal) bei der Speicherung in nicht linea- Farben gespeichert werden können, müssen hier keine Gamma- Augen (rot), Kameras (blau) und ren Farbräumen eine Gamma-Korrektur: Auf jedes Pixel wird die Korrektur-Tricks genutzt werden, um genug dunkle Töne speichern Anzeigegeräten (orange) unter- Funktion Farbwert hoch 0.45 angewandt, was das Bild zwar etwas zu können. scheidet sich deutlich flau wirken lässt, die im unteren Drittel speicherbaren Farbwerte voneinander. jedoch deutlich erhöht. Der Exponent von 0.45 wird dabei als der Gamma-Wert bezeichnet. 6.4.2 Transformationen in Blender Da wären wir nun: Alle ICC-Profile wurden erstellt, das Betriebs- Scene Linear system verwaltet die Farbräume unserer Eingabe-, Anzeige- und Blender nennt den eigenen line- Ausgabegeräte, indem es die Farbprofile pro Gerät und Bild lädt, aren Farbraum stets Scene Linear und Sie starten voller Freude Blender – denn jetzt kann ja nichts oder auch Scene Referred. Egal, mehr passieren, oder? aus welcher Quelle und aus wel- Leider doch, denn auch in Blender finden permanent Farbraum- chem Farbraum Sie Daten in transformationen statt. Um zu verstehen, wann und warum, sehen Blender laden, werden diese im- mer in den Scene-Linear-Farb- wir uns jetzt an, bei welchen Aktionen vor und bei dem Rendern raum konvertiert. Rendering G Abbildung 6.61 Farbräume beteiligt sind. Behalten Sie dabei im Hinterkopf, dass und Compositing (Nachbearbei- Mithilfe einer Gamma-Korrektur (rechts) können mehr dunkle Farbtöne Blender beim Rendern quasi die Kamera ist, die Bilder immer im tung von Bildern) finden in die- abgespeichert und der Nichtlinearität von Anzeigegeräten entgegenge- linearen Farbraum »aufnimmt«. sem Farbraum statt, da er physi- wirkt werden. Die Invertierung der Korrektur (links) führt bei der Anzeige kalische Vorgänge (denken Sie zu einer linear wahrnehmbaren Farbintensität (Mitte). an Lichtintensitäten) in der Na- tur realitätsnah abbildet. Bei der Anzeige eines im RGB-Farbraum (oder in einem anderen nicht linearen Farbraum) gespeicherten Bildes wird die Funktion erneut ausgeführt, diesmal aber mit invertiertem Exponent (1 / 0.45 = 2.2). Dies führt dazu, dass die vorhergehende Gamma- Korrektur so rückgängig gemacht wird, dass die enthaltenen Far-

bintensitäten als linear wahrgenommen werden. Der Gamma-Wert G Abbildung 6.63 ist dabei nicht unbedingt fix: Während Windows und Linux seit Farbraumtransformationen werden in Blender fortwährend durchgeführt. Jahren mit einem Gamma-Wert von 2.2 arbeiten, war Apple seit (Quelle: Blender-Dokumentation)

334 335 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

Folgende Vorgänge laufen ab: Display Device | Zu Beginn erwartet Sie der Abschnitt Display E Wenn Sie Bilder oder Videos laden, um diese auf Ihre Objekte Device. Hier legen Sie fest, für welches Anzeigegerät Sie Bilder aufzubringen, werden diese aus dem Farbraum geladen, in produzieren. dem sie abgespeichert wurden (meist RGB), und in den Scene- Die meisten Monitore unterstützen den RGB-Farbraum (mehr Linear-Farbraum konvertiert. oder weniger umfassend), daher ist sRGB (space RGB = Farbraum E Beim Auswählen von Farben kommt es auf den aktuell genutz- RGB) die richtige Wahl, wenn Sie vor einem Rechner sitzen und ten Farbwahlmodus an: Die Hex- und HSV/HSL-Werte werden Bildmaterial für die Anzeige auf einem Monitor produzieren. Falls automatisch konvertiert, und Gamma wird korrigiert, RGB- Sie die in Blender erzeugten Bilder nicht für einen Monitor, son- Werte liegen direkt im Scene-Linear-Farbraum vor und erfahren dern für ein anderes Anzeigegerät vorsehen/speichern möchten, daher keine Gamma-Korrektur. so wählen Sie Rec709 für HDTVs oder XYZ bzw. DCI-P3 bei Bea- E Beim Rendern wird das Bild direkt im Scene-Linear-Farbraum mern. None schaltet das Color-Management komplett aus. erzeugt und im Anschluss in den sogenannten Render-Farbraum (Erklärung folgt im nächsten Abschnitt) konvertiert. Render View & Sequencer Color Space | Direkt unter Display E Das gerenderte Bild wird im Compositor mit anderen importier- Device finden Sie den Render View-Bereich. Dieser enthält unter- ten Bildern/Videos kombiniert und verändert. Alle importierten schiedliche Transferfunktionen (Sie erinnern sich: mit diesen Funk- Bilder werden dabei natürlich wieder in den Scene-Linear-Far- tionen werden Farbwerte aus einem Farbraum in einen anderen braum gebracht und (bei Nutzung von Voransichten) zusätzlich überführt), mit deren Hilfe Sie das Bild künstlerisch verfremden, im Anzeigefarbraum (Erklärung folgt im nächsten Abschnitt) ihm einen speziellen Look verpassen oder problematische Bild- dargestellt. bereiche analysieren können. Da Transferfunktionen berechnete E Speichern Sie das Bild/Video ab, erfolgen weitere Farbraum- Pixel transformieren, können Sie diese auch nach dem Rendern transformationen. Dabei wird eine Gamma-Korrektur ange- festlegen und das Bild abspeichern – ein neuer Render-Durchgang wandt und das Bild aus dem linearen Farbraum in den Farbraum ist nicht erforderlich. Zwischen den folgenden Transferfunktionen G Abbildung 6.65 des jeweils gewählten Dateityps konvertiert. können Sie wählen: Mit Blenders Color-Management- E Video Sequence Editor E Default Nutzen Sie den , um Ihre Bilder/Videos : Eigentlich müsste dieser Eintrag »RGB-Transferfunk- Funktionen ahmen Sie unter zu schneiden, erfolgt hier eine erneute Konvertierung in den tion« heißen, denn dieser bringt den Scene-Linear-Farbraum in anderem den typischen Look von Video-Sequence-Editor-Farbraum. den RGB-Farbraum. Analogfilmen nach. E Filmic: Eine von Troy Sobotka mit Blender 2.79 eingeführte Sie sehen also: Blender konvertiert sehr häufig Bilddaten von ei- Transferfunktion, die insbesondere für fotorealistische Rende- nem Farbraum in einen anderen. rings geeignet ist. Im nachfolgenden Abschnitt erfahren Sie alles über diese Funktion. E RRT: Nutzt die ACES Reference Rendering Transform (RTT)-Funk- 6.4.3 Das Color-Management-Panel tion, um einen filmähnlichen Look zu erzeugen. Nachdem Sie jetzt ausführlich darüber Bescheid wissen, wie und E Film: Diese Funktion emuliert den Film in früheren Filmkameras wann Blender Color-Management-Aufgaben übernimmt, stelle ich – sie verstärkt die dunklen Töne und verringert gleichzeitig den Ihnen jetzt die Schaltzentrale dafür vor: das Color Management- Kontrast des Bildes. Wird durch Filmic ersetzt. Panel des Scene-Tabs im Properties-Editor. E Raw: Keine Transferfunktion wird angewendet. G Abbildung 6.66 E Log: Eine Transferfunktion, die die Intensitäten im Bild abflacht. Mit False Color stellen Sie ein- Dunkle Töne werden aufgehellt, helle abgedunkelt. Abbildung 6.64 E fach fest, wo Über-strahlungen E False Color Der Übergang vom linearen in den : Eine Transferfunktion, die das Bild einfärbt und entstehen – diese Stellen sind Display-Farbraum in Blender damit anzeigt, wie stark die Lichtintensität an jedem Pixel ist. weiß gekennzeichnet. (Quelle: Blender-Dokumentation) Sie reicht von Weiß (sehr starke Intensität) über Orange, Rot, Gelb, Grün bis Grau (schwache Intensität). Es ist in drei Abschnitte untergliedert, die jeder für sich einen Bereich von Blender beeinflussen.

336 337 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

Neben diesen Transferfunktionen werden Sie noch vier weitere Am Ende des Panels erwartet Sie eine Combobox, um den Farb- Kontrollelemente auf diesem Panel finden: zwei Eingabefelder für raum des Video Sequence Editors festzulegen. Standardmäßig Exposure und Gamma, eine Combobox mit Namen Look und eine arbeitet der Editor im RGB-Farbraum, möchten Sie Filmic oder Checkbox, die mit Use Curves betitelt ist. einen anderen Farbraum nutzen, wählen Sie diesen hier einfach Mithilfe von Exposure regeln Sie die Helligkeit des Bildes, bevor aus. eine Transferfunktion angewendet wird, per Gamma wenden Sie eine zusätzliche Gamma-Korrektur (zu dem im RGB und Rec709 bereits gesetzten Wert von 2.2) auf das Bild an. 6.4.4 Filmic Look besitzt je nach gewähltem Display-Farbraum und Trans- Im vorletzten Abschnitt habe ich bereits angekündigt, Ihnen die ferkurve unterschiedliche Einträge. Üblicherweise werden Ihnen seit Blender 2.79 verfügbare Farbtransformationsfunktion Filmic hier Einträge angezeigt, mit denen Sie den typischen Analogfilm- vorzustellen. Sie wurde speziell zum Erstellen von fotorealistischen Look aus der Zeit, bevor digitale Fotokameras in Mode waren, Bildern entwickelt und passt damit wunderbar zum Cycles-Ren- nachahmen können. Von Kodak über Agfa, Fujifilm oder Eastman derer. Achten Sie darauf, dass Sie die Transformation schon zu sind alle damals erhältlichen (Dia-)Filmhersteller vertreten und Beginn Ihres Projekts wählen, denn Sie greifen durch diese Wahl können über eine simple Combobox ausgewählt werden. Looks stark in die Wirkung von Lichtquellen ein. Welche Probleme die passen die Farben, Schatten und Lichter Ihres Renderings an und Transferfunktion löst und was sie damit so besonders macht, er- geben ihm dadurch das typische Aussehen des ausgewählten Ana- fahren Sie jetzt. logfilms. Haben Sie Filmic gewählt, füllt sich diese Combobox mit Einträgen, mit denen Sie den Kontrast innerhalb Ihres Bildes Farbige Lichtquellen | Nehmen Sie farbige Lichtquellen mit einer einfach verstärken/verringern können. Very Low stellt dabei die Kamera auf, werden Sie feststellen, dass die Farbe der Lichtquelle geringste Verstärkung, Very High Contrast die stärkste dar. mit zunehmender Lichtintensität immer mehr entsättigt wird. Das liegt darin begründet, dass Kameras (DSLRs oder Analogkameras) je nach Primärfarbe (R, G, B) Filter nutzen, um genau diese Farben aufzuzeichnen. Die Filter nehmen pro Primärfarbe aber gerade nicht nur die jeweilige Primärfarbe auf, sondern auch noch die Farben, die im Farbspektrum neben diesen Farben angeordnet sind. Diese Farb- überlagerung führt nach und nach zu einer immer stärker zu Weiß entsättigten Farbe – ein Phänomen, das die sRGB-Transferfunktion überhaupt nicht beachtet, Filmic aber sehr wohl.

G Abbildung 6.67 Dynamikumfang und Blendenstufen | Falls Sie bereits mit echten Über Looks können Sie gerenderten Bildern nachträglich ein bestimmtes Kameras gearbeitet haben, werden Sie sicher bereits mit der ein- Aussehen verpassen – hier z. B. der Look Kodak DSCS 3154. gebauten Blende (F-Stop/Blendenzahl) zu tun gehabt haben. Sie steuert (zusammen mit der Belichtungsdauer und Empfindlichkeit Durch die Aktivierung von Use Curves verändern Sie die Farben des Sensors), wie viel Licht bei der Aufnahme auf den Kamera- des erzeugten Bildes, bevor es durch Transferfunktionen in den sensor trifft und wie stark die Tiefenunschärfe im späteren Bild Display-Farbraum übertragen wird. Die Bedienung erfolgt genau wirkt. Eine Erhöhung der Blendenzahl um 1 bedeutet dabei, dass G Abbildung 6.68 wie alle anderen Kurven-Kontrollelemente. R, G und B stehen halb so viel Licht wie vor der Änderung auf den Sensor trifft. Der Mit Filmic entsättigen Licht- hier natürlich für die Grundfarben Rot, Grün und Blau. Mithilfe im aufgenommenen Bild gespeicherte Dynamikumfang (d. h. der quellen mit zunehmender der darunter befindlichen Felder für White und Black Level le- Bereich zwischen hellstem und dunkelstem Pixel) resultiert direkt Leuchtintensität – links Intensi- gen Sie fest, welche Farbwerte der Szene als Weiß bzw. Schwarz aus diesen Parametern. tät 2, rechts 100. angesehen werden.

338 339 Kapitel 6 Rendering – ein Bild entsteht 6.4 Color-Management

beschriebene Verhalten emuliert, dass bei höherer Lichtintensität Belichtungsspielraum die Primärfarben immer mehr entsättigt werden. Filmic schafft es Der Belhlichtungsspiel raum b e- dadurch, einen Belichtungsspielraum von 16.5 Blendenstufen und schreibt den Bereich innerhalb einen Dynamikumfang von 25 Blendenstufen abzubilden – realisti- des Dynamikumfangs, in dem sche Bilder, detailreiche Highlights bzw. Schatten und schier gren- Sie mit einer (virtuellen) Kamera zenlose Möglichkeiten zur Bildnachbearbeitung sind das Resultat. unter- oder überbelichten kön- nen und weiterhin ein nutzbares Bild erhalten (nutzbar bedeutet, dass keine störenden Artefakte wie starkes Rauschen und ähnli- Abbildung 6.69 E che Effekte auftreten). Analoge Filme nahmen die Welt über acht Schichten auf – die als fotorealistisch wahrgenommenen Nebeneffekte dieser abgelösten Technik ahmt Filmic über Map- ping-Tabellen für Blender nach. (Quelle: Troy Sobotka)

Um ein Bild zu erzeugen, wurden zu analogen Zeiten die auf dem G Abbildung 6.70 Film befindlichen Silberpartikel bei geöffneter Blende vom auf- Blenders Default-Transformation schneidet Werte größer 1.0 ab (links), treffenden Licht belichtet (kristallisiert). Hatte eine Belichtung Filmic (rechts) punktet hier mit einem deutlich größeren Dynamikum- stattgefunden, so wurde es (bei einer zweiten, dritten Belichtung) fang. (Quelle: Troy Sobotka) immer schwerer, sie weiterhin zu beeinflussen. Dieses natürliche Verhalten führte dazu, dass auf einem analogen Film ein sehr hoher Abschließend kann ich Ihnen also nur empfehlen: Wenn Sie realis- (da logarithmischer) Dynamikumfang gespeichert werden konnte. tische Bilder rendern möchten, nutzen Sie auf jeden Fall Filmic als Aktuelle Sensoren zeichnen ca. 9 bis 12 Blendenstufen auf – was, Transferfunktion – besser kann aktuell keine Funktion in Blender wenn Sie beachten, dass das menschliche Auge (nach kurzer Ein- die Wirklichkeit abbilden. gewöhnung) einen bis zu 20 Blendenstufen umfassenden Dyna- mikumfang erfassen kann – verhältnismäßig wenig, aber trotzdem Stolperfallen beim Compositing mit Filmic | In Kapitel 13, »Post- bereits eine ganze Menge ist. produktion und Compositing«, werden Sie später sogenannte No- Warum diese Erklärungen wichtig sind, wird klar, wenn Sie wis- des dazu nutzen, um Ihr gerendertes Material nachzubearbeiten. sen, dass Szenen, die Sie mit einer Kamera aufnehmen oder mit Viele Nodes werden dabei problemlos mit der Filmic-Transfor- Cycles rendern, im linearen Farbraum einen unbegrenzten Dyna- mationsfunktion zusammenarbeiten, manche jedoch nicht. Hal- mikumfang haben können, der bei der Darstellung am Display ten Sie daher diese Hinweise im Hinterkopf, falls Sie Filmic im durch die Default-sRGB-Transferfunktion in einen Wertebereich Compositing-Kapitel nutzen: von 0 bis 1 gepresst wird. Dabei werden alle Werte, die grö- E Falls Sie das Bild farbkorrigieren möchten, nutzen Sie keinesfalls ßer als 1.0 sind (und damit den höchstmöglichen Wert des RGB- den Color Balance-Node im Modus Color, Lift, Gamma – Farbraums beschreiben), einfach auf 1.0 gesetzt – das entspricht nutzen Sie den ASC CDL-Modus. Nur dieser Modus arbeitet natürlich in keinster Weise dem Dynamikumfang in der Realität. im Scene-Linear-Farbraum problemlos, da dieser nicht (wie der Filmic bringt (unterstützt durch die Open-Source-Bibliothek vorangegangene) Werte im Display-Farbraum erwartet. OpenColorIO, die Blender für jegliche Konvertierungen von E Fast alle Adobe-PFG-Blend-Modi des Mix-Nodes sind mit Fil- Farbräumen nutzt) spezielle 1D- und 3D-Lookup-Tabellen mit. mic nicht zu gebrauchen, da auch sie im Display-Farbraum ope- Mithilfe dieser Tabellen werden größere Werte als 1.0 nicht rieren und den Scene-Linear-Farbraum ignorieren. Dies betrifft abgeschnitten, und gleichzeitig wird das im letzten Abschnitt insbesondere Overlay, Screen, Burn und Dodge.

340 341 Kapitel 6 Rendering – ein Bild entsteht 6.5 Zum Stöbern

Diese (und viele weitere) Probleme wurden in Blender erst jetzt Direkt darunter erwartet Sie die Checkbox View as Render: entdeckt, weil Filmic diese nach der Inklusion in Blender offen- Sie appliziert auf den gewählten Bild-Datenblock die im Color sichtlich machte. Vorher wurde meist die Default-sRGB-Trans- Management-Panel eingestellten Werte für Gamma, Exposure, ferfunktion genutzt, die sowieso alle Werte mehr oder minder eventuell vorhandene RGB-Kurven und schlussendlich die unter zusammenmatscht – da fällt es schwer, Probleme auszumachen. Da Render View gewählte Farbraumtransformation. wir für 2.79 aber abwärtskompatibel sein möchten, können und werden wir die jetzt offensichtlich gewordenen Probleme erst für 6.4.6 Anlegen und Speichern von Bildern Blender 2.8 (2019) beheben. G Abbildung 6.72 Falls Sie ein neues Bild in Blender anlegen, haben Sie die Wahl: Mit dem New Image-Popup und Legen Sie es mit der Option 32 bit Float an, wird Blender es der 32 bit Float-Option legen Sie 6.4.5 Laden von Bildern im Speicher im Scene-Linear-Farbraum halten, die »Byte«-Option implizit fest, ob Sie den Scene- Bislang habe ich mehr oder weniger implizit davon gesprochen, hält es bei 8 Bit Farbtiefe im Display-Farbraum. All Ihre weiteren Linear-Farbraum nutzen möchten. dass alle Bilder in Blender auf die gleiche Weise geladen und dabei Operationen auf dem angelegten Bild werden anschließend in dem in den Scene-Linear-Farbraum konvertiert werden. In diesem Ab- gewählten Farbraum durchgeführt. schnitt werde ich ein wenig vorgreifen und auf das (im nächsten Speichern Sie Renderings mit (F3) auf der Festplatte, wird stan- Kapitel ausführlich beschriebene) Laden von bildbasierten Daten dardmäßig die im Color Management-Panel unter Render View eingehen. Dabei werden Sie sehen, dass Sie nicht nur definieren ausgewählte Farbraumtransformation durchgeführt und das Bild können, wie Blender mit Render-Ergebnissen umgeht, sondern, dass mit dieser abgespeichert. Um diese Transformation zwar weiterhin Sie bei Bedarf pro Bild festlegen, in welchem Farbraum das Bild beim Anzeigen des Render-Ergebnisses, aber nicht beim Speichern gespeichert wurde. in eine Datei anzuwenden, existiert beim Speichern mit (F3) im Laden Sie Bilder mit typischen Dateiendungen (wie »*.png«, links unten erscheinenden Dialog eine Option, mit der Sie dieses »*.jpg«, »*.tiff« …), wählt Blender automatisch sRGB als Far- Verhalten bei Bedarf abschalten können – die Save As Render- G Abbildung 6.73 braum aus (da Bilder mit diesen Endungen üblicherweise in sRGB Option. Insbesondere beim Speichern von Maps oder beim Wei- Speichern Sie ein Bild mit (F3), so gespeichert werden). OpenEXR-Dateien (also Bilder, die mit 32 tergeben (und Abspeichern) von Renderings als OpenEXRs werden ist Save As Render automatisch Bit Farbtiefe gespeichert sind) werden nicht konvertiert, da diese Sie die Save As Render-Option wahrscheinlich abschalten. gesetzt. üblicherweise bereits im linearen Farbraum gespeichert sind. Falls die automatisch getroffene Wahl falsch ist oder Sie manu- ell eingreifen müssen, können Sie natürlich auch einen anderen G 6.5 Zum Stöbern Abbildung 6.71 Farbraum auswählen. Je nachdem, in welchem Bereich von Blen- Den Farbraum eines geladenen der Sie das Bild geladen haben, finden Sie diese Einstellung in Falls Sie nach so vielen Einstellungen, Features und Color-Ma- Bildes legen Sie beim BI-Renderer und im UV/Image Editor im unterschiedlichen Panels, die Combobox selbst heißt aber immer nagement immer noch nicht genug von Rendering-Engines ha- Image-Panel fest. gleich: Color Space. Bei Image-Nodes finden Sie sie im Proper- ben, können Sie sich im nächsten Abschnitt noch ein paar externe ties-Panel der Toolbar (wenn Sie einen Node gewählt haben), Renderer ansehen. beim UV/Image Editor und dem Blender-Internal-Renderer im rechts gezeigten Image-Panel. Laden Sie Maps (egal, mit welcher Dateiendung), sollten Sie 6.5.1 Externe Render-Engines manuell eingreifen und diese mit der Color Space-Combobox auf Unzählige sowohl kostenlose als auch kostenpflichtige Rendering- Maps die Option Non-Color Data setzen: So kann per Displacement- Engines sind auf dem Markt. Zunächst präsentiere ich ein paar Maps sind Bi lddateien, d ie nich t als Textur (Tapete) auf Objekte Map beispielsweise die Stärke der Verformung eines Objekts an kostenlose Lösungen, die es außerhalb der Blender-Welt gibt: geklebt werden (und diesen diesem Pixel festgelegt werden. Dabei soll ein Farbwert von 0.5 E Radeon ProRender: kostenloser CPU- und GPU-Renderer von Farbe und Struktur verpassen), zu einer halb so starken Verformung führen wie ein Farbwert von AMD inklusive Blender-Plug-in (http://pro.radeon.com) sondern dazu dienen, Eigen- 1.0 – was voraussetzt, dass keine Farbraumtransformationen statt- E YafaRay: Open-Source-CPU-Renderer (http://www.yafaray.org) schaften von Oberflächen zu än- finden. Und genau das erreichen Sie über das Setzen von Non- E LuxRender: kombinierter GPU- und CPU-Renderer (http://www. dern. Color Data als Color Space. luxrender.net/en_GB/index)

342 343 Kapitel 6 Rendering – ein Bild entsteht

Scheuen Sie sich nicht davor, etwas Geld in die Hand zu nehmen, stehen Ihnen unter anderem auch die folgenden international an- erkannten Renderer zur Verfügung: E Renderman: Der zum Quasistandard auserkorene Renderman- Renderer wurde vor 25 Jahren von Pixar erfunden und steht mittlerweile in einer kostenlosen und kostenpflichtigen Variante bereit (http://renderman.pixar.com). E : Der von SolidAngle entwickelte Renderer genießt indus- trieweit ein sehr hohes Ansehen. Gravity, Iron Man 3, Pacific Rim sind nur einige der Filme, die dieser Renderer hervorge- bracht hat (https://www.solidangle.com/arnold). Brecht van Lommel, der Hauptentwickler von Blenders Cycles-Renderer, ist seit Juli 2014 Teil des Entwicklerteams dieses Renderers. E Mental Ray: Ist heutzutage in vielen kommerziellen 3D-Soft- wareprodukten, wie beispielsweise Maya, 3D Studio Max, Au- todesk Softimage, als Add-on verfügbar oder standardmäßig enthalten (http://de.wikipedia.org/wiki/Mental_Ray). E Octane: Der komplett auf GPUs setzende Renderer Octane glänzt durch seine vielen Export-Plug-ins (unter anderem für Blender) und seine hohe Geschwindigkeit (http://render.otoy. com). Schnelle Grafikkarten sind ein Muss für diesen Renderer.

6.6 Auf ins nächste Kapitel

In diesem Kapitel habe ich Ihnen die unterschiedlichen Rendering- Engines mit all ihren Stärken und Schwächen vorstellen dürfen. Sie haben Ihre ersten Gehversuche beim Rendern von BI- und Cycles-Szenen absolviert und erfahren, wie ein Rechner die Szene in ein zweidimensionales Bild umwandelt. Darüber hinaus sind Sie jetzt in der Lage, Probleme im Rendering-Prozess (wie Rauschen oder fehlende Spiegelungen) zu identifizieren und über passende Einstellungen zu beheben. Im nächsten Kapitel werden Sie weg von diesem theoretischen Wissen hin zu einem sehr wichtigen Handwerkszeug jedes Künstlers geleitet: dem Licht. Sie werden lernen, welche Lichtaufbauten in der Realität üblich sind, wie Sie diese in der digitalen Welt umsetzen können und welche Lampentypen Ihnen dafür zur Verfügung ste- hen. Abschließend werden Sie sehen, wie Sie diese perfekt auf Ihre Szene abstimmen, um jede gewünschte Lichtsituation zu erzeugen.

344