CGExercises

CG Exercise #07

Computergraphik ├ťbungsblatt #07


OpenGL Tutorial: Texturen



Aufgabe 7.1: Textur laden


OpenGL Vertex-Attribute

Starten Sie mit Ihrem Code aus der vorhergehenden ├ťbung #06.

Suchen Sie sich eine beliebige Textur (d.h. ein Bild im jpg oder png Format) aus.

Laden Sie das Bild mit dem Framework mittels lglLoadQtTexture(“image.png”) (siehe Cheat Sheet → Texturing). Sie erhalten die Id eines sog. Textur-Objektes. Wenn die Textur ordnungsgem├Ą├č geladen werden konnte, ist die Id ungleich 0. ├ťberpr├╝fen Sie dies.

Binden bzw. aktivieren Sie das Textur-Objekt nun via lglTexture2D(tex_id). Die Id 0 ist gleichbedeutend mit der Deaktivierung der Texturierung.

Materialien:

Aufgabe 7.2: Textur-Koordinaten


Textur-Atlas
f├╝r einen W├╝rfel

Erstellen Sie von Hand einen VBO mit dem Framework, der die 6 Seitenquader eines W├╝rfels enth├Ąlt (LGL_QUADS). Den W├╝rfel platzieren Sie z.B. auf der Bodenplatte des Roboters.

Definieren Sie f├╝r jeden der 6 Quader entsprechende Texturkoordinaten, so dass Sie den rechts abgebildeten Texturatlas verwenden k├Ânnen. Der Textur-Atlas hat eine 4×4 Kachelung.

Zum besseren Verst├Ąndnis skizzieren sie zuerst einmal den W├╝rfel von Hand (oder mit Blender) und nummerieren die Vertices in der Skizze durch. Dann vollziehen Sie anhand der Zeichnung die Vertices nach, die zum Zeichnen des jeweiligen Quads ben├Âtigt werden. Dasselbe gilt f├╝r die Texturkoordinaten, d.h. fertigen Sie eine Skizze des Texturatlas an, die Sie mit den korresspondierenden Nummern der Vertices beschriften. Die jeweilige Texturkoordinate eines bestimmten Vertex ergibt sich dann anhand seiner Nummer.

Achtung: Die linke obere Ecke des Bildes entspricht der linken unteren Ecke des Texturraums, d.h die beiden R├Ąume sind entlang der Y-Achse gespiegelt! Der Ursprung der Texturkoordinaten ist im Bild also links oben und nicht links unten!

Aufgabe 7.3: Tri-Stripping

Verwenden Sie nun Tri-Stripping (d.h. LGL_TRIANGLE_STRIP anstelle von LGL_QUADS), um denselben texturierten W├╝rfel mit drei Strips zu definieren (Deckel, Seiten und Boden).

Zum besseren Verst├Ąndnis skizzieren sie zuerst einmal den W├╝rfel von Hand und nummerieren die Vertices durch. Dann vollziehen Sie anhand der Zeichnung die Vertices nach, die f├╝r den jeweiligen Triangle Strip ben├Âtigt werden.

Aufgabe 7.4: Backface-Culling (Optional, Bonuspunkte ++)

Verwenden Sie nun Backface-CullinglglBackFaceCulling.

Die Darstellung ist nun evtl. fehlerhaft. Korrigieren Sie dies, indem Sie die Reihenfolge der Vertices ├Ąndern.

Aufgabe 7.5: Code verstehen: MipMapping

In dieser Aufgabe f├╝hren wir eine Code-Recherche zum Thema MipMapping durch. D.h. wir analysieren die Funktion lglCreate2DMipMap() des Frameworks, welche eine MipMap-Hierarchie der Texturdaten erzeugt.

Vollziehen Sie die einzelnen dazu notwendigen Schritte im Quelltext des Frameworks mit Hilfe des Debuggers von QtCreator nach (RTFC)! Starten Sie als Ausgangspunkt f├╝r die Recherche mit der Funktion lglLoadQtTexture, welche nach einigen internen Schritten schlie├člich die Funktion lglCreate2DMipMap aufruft.

Als Ergebnis der Recherche notieren Sie bitte die Reihenfolge der OpenGL-Befehle, welche das Framework f├╝r die Erzeugung einer MipMap aufruft?

Tipps:

  • Stepping mit dem Debugger → Breakpoint in lglLoadQtTexture setzen
  • Taste F2 in QtCreator → Springt zur Definition der aktuellen Funktion unter dem Cursor (bzw. Right-Click auf die Funktion)

Angenommen, Sie w├╝rden das selber nachimplementieren wollen, wieviel Stunden reine Programmierarbeit w├╝rden Sie daf├╝r ansetzen?

Optional: Implementieren Sie eine rudiment├Ąre Version des MipMapping selber. Vergleichen Sie Ihren tats├Ąchlichen Aufwand mit Ihrer Sch├Ątzung.

Aufgabe 7.6: UV-Koordinaten (Optional, Bonuspunkte ++)

Exportieren Sie Ihr Blender-Objekt als OBJ mit UV-Koordinaten. Stellen Sie das Objekt mit der entsprechenden Textur neben dem Roboter und dem W├╝rfel dar. Alternativ k├Ânnen Sie diese OBJ und PNG Dateien verwenden, welche zusammen einen texturierten Hai darstellen.

Hinweis: Der Bildraum in Blender und der Bildraum in OpenGL unterscheiden sich (Spiegelung entlang der Y-Achse). Sollte die Textur also falsch auf dem Haifisch dargestellt werden, dann ist es notwendig die Textur vertikal zu spiegeln.


Hausaufgaben bis zum achten Praktikum


1. OpenGL / Tri-Stripping:

  1. Was denken Sie: Wieviele Vertices k├Ânnen wir im Falle eines W├╝rfels einsparen?
  2. Optional: Kennen Sie eine Methode, um einen W├╝rfel mit einem einzigen Strip darzustellen?
  3. Optional: Kennen Sie eine Methode, um beliebige Geometrie mit einem einzigen Strip darzustellen? Nennen Sie hier das passende Stichwort!
  4. Welche gl-Befehle ben├Âtigen Sie, um mit OpenGL f├╝r den W├╝rfel ein entsprechendes Vertex-Buffer Objekt zu erzeugen und zu aktivieren (nur Reihenfolge)?

2. OpenGL / GLSL:

  1. Skalieren Sie die Vertex-Position (das Attribut vertex_position) im Vertex-Shader auf ein Viertel seiner urspr├╝nglichen Gr├Â├če. Wie sieht die entsprechende Zuweisung zu gl_Position aus? Achtung: homogene Koordinaten!
  2. Mischen Sie zwei Farben, d.h. interpolieren Sie zwischen zwei Farbwerten im Fragment-Shader. Verwenden Sie eine lineare Interpolation mit einem normalisierten Interpolationsfaktor $w\in[0,1]$. Wie sieht die allgemeine Formel der lineraren Interpolation aus? Im Ergebnis soll die interpolierte Farbe zu $w=34.5$% Weiss und der restliche Farbanteil soll Rot sein. Wie sieht die entsprechende Zuweisung zu gl_FragColor aus?
  3. Optional: Mischen Sie im Fragment-Shader mehrere Farbwerte: Im Ergebnis soll die Mischfarbe 25% Weiss, 55% Rot und 20% Gelb enthalten (Tipp: Linearkombination). Wie sieht die entsprechende Zuweisung zu gl_FragColor aus?
  4. Optional: Angenommen, die Tiefe $z$ stehe im Fragment-Shader zur Verf├╝gung und sei auf den Bereich [0,1] normiert. Wie erzeugen Sie durch eine entsprechende lineare Farbinterpolation einen Nebeleffekt? D.h. mit welchen zwei Farben interpolieren Sie (Formel)?
  5. Welches Attribut enth├Ąlt die per-vertex spezifizierten Normalen?
  6. Mit welcher speziellen Matrix werden diese Normalen transformiert?

3. GLSL / Parameter:
F├╝r welche der folgenden Werte macht es Sinn, ein Attribut, einen uniformen Parameter oder einen varying Parameter zu verwenden?

  • Normale
  • Konstanter Skalierungsfaktor
  • Eine Konstante f├╝r ein Beleuchtungsmodell
  • Vertexfarbe
  • interpolierte Vertexposition

4. Optional: GLSL / Funktionen:
Wie w├╝rden Sie die folgende GLSL-Funktion in C++ schreiben?

void swap(inout float a, inout float b)
{
  float t;
  t = a; a = b; b = t;
}
Warum m├╝ssen die Parameter mit inout deklariert werden?

5. GLSL / Konstruktoren & Swizzling:
Beschreiben die folgenden Konvertierungen mit einem einzigen Swizzling; dabei sei v4 ein 4er-Vektor, v2 ein 2er-Vektor, f ein float. Benutzen Sie ausschlie├člich die Swizzling-Komponenten x, y, z und w! Die erste Zeile dient als Beispiel.

    float a = float(v4); --> float a = v4.x;
    vec3 b = vec3(v4);
    vec3 c = vec3(v4.b, v4.g, v4.r);
    vec4 d = vec4(f, f, f, f);
    vec4 e = vec4(v2, v2);

Options: