Normal-Mapping ist nicht nur vielseitig einsetzbar, sondern beschleunigt und verbessert auch zahlreiche 3D-Workflows.
Heute kommt die Technik vor allem in Bereichen zum Einsatz, in denen Hardware-bedingte Einschränkungen gelten. Dies betrifft insbesondere die Entwicklung von Videospielen, die in Echtzeit gerendert werden müssen. Weitere Nutzungsszenarien sind Computer-animierte Filme, Visualisierung in der Architektur und Produkt-Design.
Normal-Mapping hat keinen Einfluss auf die Färbung eines Objekts und wird daher meist für Objekte mit einer nicht ganz ebenen oder glatten Oberfläche eingesetzt. Beispiele sind abgenutztes Leder, Holzmaserungen, menschliche Haut oder auch Stoff. Tatsächlich sieht fast jedes 3D-Modell damit realistischer aus.
Es gibt verschiedene gängige Tools für Normal-Mapping. Hier eine Auswahl:
1. Mit Tools wie Blender, Maya, ZBrush und Substance 3D Modeler entstehen die Modelle für das Normal-Mapping. Die Auswahl an Lösungen ist groß, und jede Software verwendet ihren eigenen Ansatz beim Modellieren und Sculpting.
2. : Mit Software wie Substance 3D Painter oder auch Adobe Photoshop lassen sich Textur-Maps und Normal-Maps erstellen und bearbeiten.
3. Mit dieser Software werden Normal-Maps anhand von hochauflösender Geometrie oder Texturinformationen erstellt. Beispiele sind xNormal, CrazyBump und Substance 3D Designer.
4. Game-Engines wie Unreal Engine und Unity bieten die für Normal-Maps erforderlichen Tools und Rendering-Funktionen. Sie eignen sich zum Rendern ebenso gut wie für die Game-Entwicklung.
5. Kenntnisse in Shader-Programmiersprachen wie HLSL (High-Level Shading Language) oder GLSL (OpenGL Shading Language) erleichtern das Erstellen eigener Shader einschließlich Normal-Mapping. Damit lässt sich definieren, wie die Beleuchtung mit Normal-Maps und anderen Textur-Maps interagieren soll, um überzeugende visuelle Effekte zu erzielen.
Diese kurze Liste ist ein guter Ausgangspunkt, wenn du dich über die Grundlagen des Normal-Mappings in Echtzeit-Rendering-Umgebungen informieren möchtest.