Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces

Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces Andreas Gruber, Thomas Steininger, Michael Thurner Johannes Kepler Universität Altenberg...
Author: Cornelius Huber
0 downloads 0 Views 381KB Size
Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces Andreas Gruber, Thomas Steininger, Michael Thurner Johannes Kepler Universität Altenbergerstraße 69 4040 Linz, Österreich

Abstract. The development of user interfaces is a complex task, especially if the third dimension is involved. This Paper gives an overview over the basic interaction paradigms. Furthermore special interaction mechanics will be explained and an overview over the implementation techniques and basic frameworks will be provided. The last part of the paper deals with available implementations and the future of three dimensional user interfaces. Keywords: 3D, Benutzerschnittstelle, Interaktion, Interaktionsgeräte

1

Einleitung

Es gibt wohl kaum einen Menschen, der nicht täglich mit einer Unzahl von Benutzerschnittstellen konfrontiert ist. Doch selten werden diese als solche wahrgenommen, da Schnittstellen einen fixen Bestandteil unseres Alltages darstellen. Dieses Paper soll darüber Auskunft geben, wie eine 3D-Benutzerschnittstelle aufgebaut ist, in welcher Art und Weise ein Benutzer interagieren kann, welche Einbeziehungsweise Ausgabegeräte zur Verfügung stehen und wie dies technisch realisiert wird. Weiters soll ein Einblick in zukünftige Entwicklungen und Möglichkeiten und die damit verbundenen Vor- und Nachteile behandelt werden. Bei einer 3D-Benutzerschnittstelle handelt es sich oftmals um ein Zusammenspiel verschiedenster Komponenten, welche miteinander agieren. Um eine 3DBenutzersicht zu erhalten, bedarf es einer getrennten Ausgabe der optischen Daten für das linke und rechte Auge. Dies kann mithilfe von einem 3D-Monitor, Head-Mounted Display oder eines CAVEs geschehen. Um andererseits mit einem Objekt interagieren zu können, haben altbekannte Eingabegeräte, wie Tastatur, Maus oder Joystick noch nicht ausgedient. Aber auch aktuellere Entwicklungen, wie beispielsweise der Datenhandschuh, finden hier Verwendung. Auch die akustische und haptische Interaktion, sowie sämtliche Komponenten zur Verwirklichung einer „Virtual Reality“ sind Bestandteile einer 3D-Benutzerschnittstelle Die Entwicklungen in den letzten Jahren und der technische Fortschritt, sowie rechenstarke Prozessoren lassen erahnen, dass die einzelnen Komponenten noch mehr ineinander verschmelzen werden und eine 3D-Benutzerschnittstelle für jedermann selbstverständlich sein wird. Hierbei sind die neuesten Entwicklungen im Bereich von 3D-Kino und der Spielekonsole Wii nur die Spitze des Eisberges.

2

Andreas Gruber, Thomas Steininger, Michael Thurner

2

Interaktionstechniken

Interaktionsmethoden, welche aus dem 2D-Bereich bereits bekannt sind, müssen im 3D-Interaktionsbereich neu überdacht, geändert oder umstrukturiert werden. Weiters müssen die Möglichkeiten vorhandener Ein- und Ausgabegeräte hinsichtlich der 3DBenutzbarkeit bestmöglich genutzt werden, um zusätzliche Kosten für Hardwareanschaffungen zu verhindern [4]. 2.1

Selektion

Die Selektion stellt die Grundlage der Interaktionstechniken dar und ist Voraussetzung für nachfolgende Aktionen, wie Manipulation, Transaktion und Rotation von Objekten. Es soll die Selektionsmöglichkeit für ein oder mehrere Objekte bestehen, beziehungsweise sollen auch einzelne Flächen, Kante oder Punkte ausgewählt werden können [4]. Um die Selektion durchführen zu können, kommen drei verschiedene Auswahlverfahren zum Einsatz: diskrete, lokale und entfernte Selektion. Diskrete Selektion betrifft alle Verfahren, bei denen Objekte über eine Menüliste, Spracherkennung oder textuell ausgewählt werden. Hierfür ist es natürlich nötig, dass jedes interaktive Objekt einen eindeutigen Identifikationsnamen besitzt. Lokale Objekte hingegen benötigen keinen Namen, da sie sich im Arbeitsbereich des Anwenders befinden und somit leicht berührt oder gegriffen werden können. Entfernte Selektion kann beispielsweise mit Hilfe von Cone- oder Ray-CastingMetaphern durchgeführt werden [4].

Fig. 1. Cone-Metapher und Ray-Casting-Metapher

2.2

Manipulation

Die Manipulation betrifft die Spezifikation beziehungsweise Neuspezifikation der Eigenschaften (Position, Form, Orientierung, Skalierung, etc) eines selektierten Objektes. Manipulation ist somit ein wichtiger Bestandteil der Interaktionstechniken, wobei die Qualität des Manipulations-Interfaces einen direkten Einfluss auf das Gesamt-Interface hat. Diese Art der Interaktion bringt vergleichsweiße viele Möglichkeiten mit sich, verursacht aber gleichzeitig einen verhältnismäßig großen Entwicklungsaufwand [4].

Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces

3

2.2.1 Translation Die Translation ist die Veränderung der Objektposition und ist je nach Objekttyp an bestimmte Einschränkungen gebunden. Beispielsweise wäre es bei einer Erstellung einer 3D-Landschaft nicht sinnvoll wenn Objekte unter der Erde oder in der Luft platziert werden [4]. 2.2.2 Rotation Die Rotation behandelt das Drehen eines selektierten Objektes, wobei dies um bis zu drei Achsen gleichzeitig geschehen kann. Wie auch bei der Translation kann es diesbezüglich Einschränkungen geben, da beispielsweise ein Objekt nicht Kopf stehen darf. Weiters ist die Festlegung des Rotationszentrums zu beachten, welche sich normalerweise in der Objektmitte befindet [4]. 2.2.3 Skalierung Bei der Skalierung von Objekten handelt es um Veränderungen der Objektgröße. Wie auch bei der Rotation ergibt sich ein Skalierungszentrum, wobei sich bei einer Verkleinerung alle Punkte eines Objektes diesem Zentrum nähern beziehungsweise bei einer Vergrößerung entfernen. Dieser Effekt wird auch zur Navigation in einer 3D-Landschaft benutzt, um beispielsweise einen Gesamtüberblick zu erhalten [4].

3

Interaktionsgeräte

Gemeinsam mit der verwendeten Software stellen Interaktionsgeräte das Interface zwischen Computer und Mensch dar. Bei der Beschreibung der Hardware ist eine genaue Begriffsdefinition wichtig, denn Interaktionsgeräte sind keine Interaktionstechniken. Vielmehr können mittels einzelner Geräte viele verschiedene Interaktionstechniken implementiert werden. Dabei werden die Aus- und Eingabegeräte getrennt betrachtet, da auch die Kommunikation von Mensch und Computer in getrennten Richtungen läuft. Diese Trennung ist jedoch oft nicht so einfach durchzuführen, da bei vielen Geräten die Ein- und Ausgabe kombiniert sind. Ein einfaches Beispiel hierfür wäre ein Joystick mit Forcefeedback [4]. 3.1

Ausgabegeräte

Geräte für die Ausgabe werden so gut wie möglich auf die menschlichen Sinne abgestimmt und es gibt mittlerweile Displays für alle Sinne. Die Erforschung von visuellen, akustischen Geräten ist mittlerweile sehr weit fortgeschritten. Haptische und taktile Ausgabe ist auch auf einem guten Weg. Die Entwicklung der Ausgabe für den Geschmacks- und Geruchssinn steckt hingegen noch in den Kinderschuhen und schreitet nur sehr langsam voran [4]. Im Folgenden werden visuelle und haptische Geräte näher betrachtet. Die Ausgabe von Geräuschen und Tönen erfordert keine speziellen Techniken, die für 3D

4

Andreas Gruber, Thomas Steininger, Michael Thurner

Benutzerschnittstellen relevant sind, deshalb werden sie auch nicht beschrieben. Olfaktorische und gustatorische Ausgabe sind ein spannendes Forschungsthema, jedoch schon sehr weit weg von unserem Kernthema, deshalb verweisen wir den interessierten Leser auf die Literatur [7] und [8]. 3.1.1 visuelle Ausgabe Visuelle Ausgabe gibt es in sehr vielen verschiedenen Ausprägungen, um die Möglichkeiten der Ausgabe zu vergleichen kann man sie nach verschiedenen Merkmalen charakterisieren [1].  Sichtfeld (field of view) – Das Sichtfeld ist jene Fläche (meist in Grad angegeben), die vom Auge in einem Blick erfasst werden kann [1].  Darstellungsfeld (field of regard) – Das Darstellungsfeld ist die Größe (meist in Grad angegeben) des Feldes, dass den Benutzer umgibt [1].  Immersion – Dabei geht es darum, wie sehr es das Gerät erlaubt in die virtuelle Welt einzutauchen und ob der Benutzer nur mehr die virtuelle Welt (fullyimmersiv) oder auch noch Teile der realen Welt (semi-immersiv) sieht [3].  Stereoskopie – Normale (monoskopische) Displays produzieren für beide Augen ein Bild, während stereoskopische Displays für jedes Auge ein eigenes Bild produzieren. Meist sind Zusatzgeräte (spezielle Brillen) notwendig, um die Bilder für die Augen zu trennen [4].

Fig. 2. Head-mounted Display und CAVE

Die am meisten verwendeten Verfahren basieren auf Projektionen verbunden mit 3DBrillen oder auf Head-mounted Displays (HMDs). Bei den HMDs gibt es für jedes Auge ein kleines Display, welches sehr nahe am Auge ist. Mittels Verfolgung der Kopfposition kann ein 360 Grad Darstellungsfeld erzeugt werden, ein Nachteil ist das geringe Sichtfeld [1]. Die Techniken mit Projektionen benötigen hohe Bildwiederholraten. Es werden Bilder für beide Augen abweichend erzeugt und mittels einer speziellen Brille bekommt jedes Auge das richtige Bild. Es gibt viele Möglichkeiten, wie diese Projektoren aufgebaut werden, die Bekannteste ist wahrscheinlich der CAVE (Cave Automatic Virtual Environment) [4]. Links auf Fig. 2 ist ein HMD der Firma Virtual Research Systems zu sehen, rechts ein schematischer Aufbau eines CAVEs.

Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces

5

Fig. 3. Beispiele für autostereoskopische Displays

Ein weiterer Ansatz sind autostereoskopische Displays, sie stellen dreidimensionale Bilder ganz ohne Zusatzhardware dar. Es gibt viele verschiedene Technologien, wie die Bilder erzeugt werden. Beispielsweise wird das Bild streifenweise aus zwei Perspektiven dargestellt, je eine für das linke und rechte Auge. Dieses Bild wird mittels speziellen Masken oder Linsen so dargestellt, dass jedes Auge die richtige Information erhält [5]. Eine andere Bauart sind die volumetrischen Displays. Sie produzieren dreidimensionale Bilder indem eine durchsichtige Anzeige verwendet wird, die unter einer Glaskuppel rotiert und so den Effekt eines plastischen Bildes erzeugt [1]. In Fig. 3 ist links ein 3D Monitor des Fraunhofer Institutes (Typ Free2C) zu sehen, rechts ein volumetrisches Display der Firma Actuality Systems. 3.1.2 haptische Ausgabe

Fig. 4. Beispiele für haptische Displays (www.cyberglovesystems.com)

Haptische Ausgabe ist ein komplexer Teil der Interaktion mit einer dreidimensionalen Benutzerschnittstelle. Das Fühlen und Greifen der realen Welt in eine virtuelle Welt zu transportieren, ist ein langwieriger Prozess. Grundsätzlich gibt es vier Methoden, um haptisches und taktiles Feedback zu erzeugen. Bei stationären Methoden wird eine Verbindung zwischen dem Benutzer und den Boden geschaffen und auf diese Weise Kraft erzeugt. Bei der zweiten Methode wird das Gerät am Körper des Benutzers befestigt und erzeugt so die Rückkopplung. Die dritte Möglichkeit erzeugt Vibrationen oder ändert Oberflächenbeschaffenheiten um den taktilen Sinn zu reizen. Als letzte Methode können Reize direkt an den Fingerkuppen erzeugt werden [1]. Fig. 4 zeigt links eine Kombination aus Methode 1 und 2, auf der rechten Seite wird mittels kleiner Motoren direkt an den Fingerkuppen eine Vibrationen erzeugt.

6

Andreas Gruber, Thomas Steininger, Michael Thurner

3.2

Eingabegeräte

Heutzutage wird dreidimensionale Eingabe und Interaktion in Spielen, CAD oder 3D Animationsprogrammen hauptsächlich über die konventionelle, zweidimensionale Maus betrieben. Alle Aktionen werden von einem Punkt aus ausgeführt, deshalb muss der Benutzer lernen, seine Aktionen in den Raum zu transformieren. Das heißt, je komplexer die Anwendung, desto schwieriger wird der Lernprozess. Der Trend der Multitouch Interfaces zeigt aber, dass der Mensch mit mehr als einem Finger seine Eingaben machen will. Doch selbst dieser Trend kratzt nur an der Oberfläche dessen, was in der Zukunft möglich sein soll. Aktionen wie Greifen, Drehen, Drücken, Werfen und Springen sollen mit zukünftigen Eingabegeräten möglich werden. Der große Erfolg der Nintendo Wii zeigt, dass der Benutzer der interaktiven Eingabe nicht abgeneigt ist. Kurz gesagt, professionelle Anwendungen sind noch weit weg davon, interaktiv und dreidimensional bedient zu werden, deshalb bedarf es spezieller Eingabegeräte [6]. Es gibt viele verschiedene Wege um die Eingabegeräte zu charakterisieren, die gebräuchlichste Eigenschaft ist die Anzahl der Freiheitsgrade (Degrees of Freedom – DOFs). Mit ihnen kann man angeben, wie komplex ein Gerät ist. Eine 3D Maus besitzt üblicherweise 6 Freiheitsgrade, je drei für Translation und Rotation [1]. In Fig. 5 ist auf der linken Seite eine 3D Maus der Firma 3Dconnexion abgebildet, welche auch für zirka 100 Euro im Handel erhältlich ist und bereits eine Vielzahl von CAD- und Design-Software unterstützt. Eingabegeräte können auch nach Art, des generierten Wertestroms unterteilt werden. Geräte, die einen Wert, zu einer bestimmten vom Benutzer ausgelösten Zeit, erzeugen, heißen diskret. Im Gegensatz dazu generieren die kontinuierlichen Geräte einen Eingabestrom. Ein wichtiger Vertreter dieser Kategorie sind die Datenhandschuhe, welche zum Beispiel die Winkel der Fingergelenke übertragen können [3]. In der Mitte der Fig. 5 ist solch ein Handschuh der Firma CyberGloveSystems zu sehen, welcher über 18 oder 22 Sensoren verfügt.

Fig. 5. Beispiele für Eingabegeräte

Eine weitere sehr wichtige Eingabemethode ist die Positionsverfolgung (Tracking). Dabei werden meist der Kopf oder die Hände des Benutzers verfolgt. Implementiert werden diese Techniken zum Beispiel mittels Ultraschall oder Kameras. Rechts in Fig. 5 ist ein Gerät für die Verfolgung der Hand innerhalb eines IS-900 Trackingsystems der Firma Intersens, welches auch für CAVEs verwendet wird, zu sehen. Dieses Geräte bietet neben 6 Freiheitsgraden auch einen weiteren Joystick und diskrete Schalter [1].

Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces

4

7

Technische Umsetzung

Um dreidimensionale Applikationen zu entwickeln stehen zahlreiche Frameworks zur Verfügung, ein Großteil setzt auf 3D-APIs wie OpenGL oder DirectX. 4.1

Grundlagen der Bildsynthese

Um dreidimensionale Bilder auf einem zweidimensionalen Ausgabegerät zu erzeugen, existieren verschiedenste Techniken. Grundsätzlich kann zwischen zwei Typen von besonderer Bedeutung unterschieden werden. Zum einen kann durch einen vektororientierten Ansatz, der Objekte durch Linien, welche durch Anfangs- und Endpunkt spezifiziert werden, und dem rasterorientierten Ansatz, welcher Objekte als eine Matrix von einzelnen Bildpunkten interpretiert wird, unterschieden werden. Für die Modellierung von Grundobjekten wird der vektororientierte Ansatz verfolgt, da dieser einfacher zu modellieren ist und die Manipulierbarkeit der Objekte stark vereinfacht. Alle Grundobjekte lassen sich auf Linien und Punkte zurückführen und somit durch die reine Angabe von Punkten vollständig spezifizieren [12]. Für die Modellierung von dreidimensionalen Objekten werden meist spezielle polygonale Netze, wie zum Beispiel Dreiecke, benutzt. Nahezu alle modernen Frameworks spezifizieren vektororientierte Modelle, die durch den sogenannten Rasterungsprozess für herkömmliche Ausgabegeräte aufbereitet werden. Dabei werden komplexe Objekte in einzelne Dreiecke zerlegt [12]. 4.2

Die Rendering-Pipeline

Im Bereich von Echtzeitrendering, das üblicherweise bei dreidimensionalen Benutzerschnittstellen eingesetzt wird, hat sich die Modellvorstellung einer Grafikpipeline durchgesetzt, welche die Operationen zur Darstellung einer 3D Szene durchführt. Generell lässt sich die Rendering-Pipeline in die Bereiche Anwendung, Geometrie und Rasterung aufteilen. Innerhalb der einzelnen Pipelineteile können Instruktionen parallel bearbeitet werden, der Übergang zum nachfolgenden Pipelineschritt erfolgt jedoch erst nach dem Abschluss der Berechnungen im aktuellen Pipelineteil [12]. Der Anwendungsschritt entspricht einer Softwareapplikation. In diesem Teil werden die Objekte spezifiziert und je nach Benutzereingaben entsprechend transformiert. Im nachfolgenden Schritt werden Koordinatentransformationen durchgeführt, Beleuchtungssowie Oberflächeneffekte berechnet und Projektionsoperationen ausgeführt. Im Rasterungs-Schritt werden abschließend die Pixel für die Bildschirmausgabe entsprechend eingefärbt [12].

Fig. 6. Rendering Pipeline (http://de.wikipedia.org/wiki/Grafikpipeline)

8

Andreas Gruber, Thomas Steininger, Michael Thurner

4.3

OpenGL - Open Graphics Library

OpenGL ist eine Spezifikation für eine programmiersprachen- und plattformunabhängige Programmierschnittstelle, welche die Darstellung von dreidimensionalen Szenen erlaubt. Sie stellt ein Interface zwischen Anwendungsprogramm und Grafikkarte dar, welches zirka 300 Befehle umfasst. Weiters wird eine Utility-Bibliothek (OpenGL Utility Library, GLU) zur Verfügung gestellt, welche die grundlegenden Funktionen von OpenGL kapselt. Zur Benutzerinteraktion und zur Integration in das Environment wird das OpenGL Utility Toolkit (GLUT) bereitgestellt [10]. OpenGL arbeitet nach dem Client-Server Prinzip, wodurch die Berechnung und Ausgabe der Daten auf unterschiedlichen Rechnern erfolgen kann, die beispielsweise über ein Netzwerk miteinander verbunden sind. Weiters ist die Spezifikation um Zusatzmodule, wie etwa spezielle Optimierungen von Grafikkartenherstellern, erweiterbar. Intern arbeitet OpenGL als Zustandsautomat, ausgehend vom Initialzustand werden vom Programmierer Operationen ausgeführt, welche den Automaten in einen neuen Zustand transformieren, welcher bis zur nächsten Operation gültig bleibt [10]. 4.4

Microsoft DirectX

DirectX ist eine von Microsoft entwickelte Programmierschnittstelle, welche speziell für Multimediaanwendungen konzipiert wurde. Sie bietet Schnittstellen zur 2D und 3D Grafikausgabe, sowie zur Audioausgabe und Unterstützung für diverse Eingabegeräte. Die erste Version von DirectX wurde 1995 veröffentlicht, aktuell wird DirectX 10 mit Windows Vista ausgeliefert [11]. DirectX Graphics spezifiziert dabei jenen Teil, der für den direkten Zugriff auf die Grafikhardware, ohne Umwege über den Graphics Device Interface (GDI) sowie über das Display Device Interface (DDI), genutzt werden kann. Der Aufbau ist ähnlich zu OpenGL, jedoch existiert derzeit nur eine Implementierung auf Windows Basis. DirectX verwendet ein monolithisches System, daher kann der Rendering Prozess nicht auf mehrere Systeme aufgeteilt werden [11]. 4.5

AMIRE (Authoring Mixed Reality)

AMIRE ist ein Open-Source Framework, das bestehende Technologien adaptiert und diese in einem komponentenbasierten Modell zur Verfügung stellt. Das von der EU geförderte Projekt wird von zahlreichen Universitäten (darunter auch Linz und die FH Hagenberg) weiterentwickelt. Dabei existieren drei grundlegende Objekttypen. Sogenannte Gems kapseln allgemeine Problemstellungen, wie zum Beispiel FaceRecognition Library oder 3D Ausgabe. Components stellen eine Sammlung aus Gems dar oder erweitern diese und abstrahieren eine spezielle Problemstellung. Mittels des Frameworks werden anschließend Gems und Components via eines Authoring-Tools zu Anwendungen zusammengesetzt [9]. Die mittels des Authoring-Tools spezifizierten Szenen beziehungsweise Applikationen werden vollständig in einem XML Format gespeichert.

Seminar aus Mensch-Maschine-Kommunikation: 3D User Interfaces

9

Fig. 7. AMIRE Architektur [9]

5

Anwendungsbeispiele

Fast jeder Benutzer steht im täglichen Umgang mit dem Computer bereits im Kontakt mit dreidimensionalen Benutzerschnittstellen. Meist sind in aktuellen Betriebssystemen bereits 3D-Effekte und 3D-Features implementiert, die den Umgang mit dem System vereinfachen beziehungsweise grafisch aufwerten sollen. Beispiele hierfür wären Desktop Erweiterungen wie die Windows Vista Aero, Compiz für Linux oder Aqua von Max OS X. Jedoch existieren auch Applikationen, die den Look&Feel der Standardoberflächen vollständig ersetzen. Die für Windows frei verfügbare Applikation Bumptop (www.bumptop.com) implementiert einen 3D Desktop, welcher völlig neue Funkionen zum Sortieren und Gruppieren von Elementen bietet. Die dreidimensionale Darstellung von Webseiten gelingt beispielsweise mit einem 3D Web Browser wie 3B (www.3b.net), über den der Benutzer herkömmliche Webseiten in eine virtuelle Welt integrieren kann. Weitere Bestrebungen, um auch das WWW um eine dritte Dimension zu erweitern werden seit geraumer Zeit mit VRML (Virtual Reality Modelling Language) beziehungsweise dessen Nachfolger X3D (Extensible 3D) sowie 3DMLW (3D Markup Language Web) verfolgt. Hierbei handelt es sich um XML basierte Modellierungssprachen, welche die Darstellung von dreidimensionalen Inhalten spezifizieren. Über entsprechende Webbrowser Erweiterungen lassen sich damit interaktive und dreidimensionale Inhalte in einem herkömmlichen Browser darstellen. Weiters finden sich im Bereich Mixed Reality zahlreiche dreidimensionale Benutzerschnittstellen, zum Beispiel die Applikation Construct3D, welche unter Zuhilfenahme des Frameworks Studierstube für das gemeinschaftliche Entwickeln von dreidimensionalen Modellen entwickelt wird (www.ims.tuwien.ac.at/research/construct3d/).

10

6

Andreas Gruber, Thomas Steininger, Michael Thurner

Fazit

Computer sind mittlerweile in allen Bereichen unseres Lebens vertreten und gehören in unserer modernen Informationsgesellschaft bereits zum Alltag. Die Rechenleistung aktueller Prozessoren steigt immer noch nach Moores Law, Speicher ist in Unmengen verfügbar - täglich wird eine kleine Welt vollständig durch neue Technologien revolutioniert. Im Bereich der Eingabe- und Ausgabegeräte steht im Vergleich zur restlichen Computerwelt die Zeit förmlich still. Seit Jahrzehnten stellen Tastatur, Maus und Bildschirm die dominierenden Interaktionselemente in der MenschMaschine Kommunikation dar. Natürlich existieren bereits alternative Eingabemethoden, jedoch lässt ihr Verbreitungsgrad meist aufgrund von gravierenden Nachteilen zu wünschen übrig. Im Kontext der 3D-Benutzerschnittstellen müssen sich zunächst noch die altbewährten Eingabegeräte durch neue Technologien abgelöst werden, um deren Durchbruch zu ermöglichen. Weiters werden an Interface-Designer völlig neue Anforderungen gestellt, denn die dritte Dimension erfordert eine weitaus detailliertere Planung als ein herkömmliches Benutzerinterface. Die Grundlagen wurden schon geschaffen und sind in Form von frei verfügbaren Bibliotheken verfügbar. Die Konzeptionierung und Implementierung eines 3D User Interfaces ist ohne große Investitionen möglich und vielleicht sind es gerade Spiele, wie die Nintendo Wii, die den Ausschlag für deren Durchbruch geben.

7

Referenzen

1. Bowman D., et al.: 3D User Interfaces: Design, Implementation, Usability: CHI 2009, http://people.cs.vt.edu/~bowman/3dui.org/CHI_2009.html 2. Bowman D., et al.: New Directions in 3D User Interfaces: The International Journal of Virtual Reality, 2006, Volume 5, Number 2, pp. 3-14 3. Bowman D., et al.: An Introduction to 3D User Interface Design: Presence, 2001, Volume 10, Number 1, pp. 96-108 4. Schwall J.: 3D Interaktion: Arbeit zum Projektseminar „Interaktive 3D-Stadtplanung“, 2004, Westfälische Wilhelms-Universität Münster 5. Dodgson N.: Autostereoscopic 3D Displays: IEEE Computer, August 2005, pp. 31-36 6. Bowman D., et al.: 3D User Interfaces - New Directions and Perspectives: IEEE Computer Graphics and Applications, November 2008, pp. 20-36 7. Iwata H., et al.: Food Simulator – A Haptic Interface for Biting: IEEE Cirtual Reality Conference 2004 (VR 2004), March 2004, pp. 51-57 8. Yang Chen: Olfactory Display: Development and Application in Virtual Reality Therapy: ICAT’06, November 2006, pp. 580-584 9. Burger W. et al.: AMIRE - authoring mixed reality: Specification, pp 13-18, http://webster.fh-hagenberg.at/amire/development/documents/D5.2.pdf 10. Segal M., Akeley K.: The OpenGL System: A Specification, pp. 14-16, http://www.opengl.org/registry/doc/glspec31.20090324.pdf 11.Programming Guide for Direct3D 10, http://msdn.microsoft.com/enus/library/bb205067(VS.85).aspx 12.Bungartz H. et al.: Einführung in die Computergrafik- Grundlagen, Geometrische Modellierung, Algorithmen: Vieweg+Teubner Verlag, 2002