3D-Maus

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Tischgebundene 3D-Maus mit Steuerobjekt in Form eines Pucks

Eine 3D-Maus ist ein Eingabegerät (Befehlsgeber) für Computer. In den häufigsten Anwendungsfällen dient sie dazu, in einer virtuellen 3D-Umgebung Objekte zu bewegen oder sich selbst durch eine virtuelle 3D-Landschaft zu manövrieren. Interaktive Applikationen werden durch die Eingabe eines Benutzers gesteuert. Dafür stehen ihm folgende Medien zur Verfügung: Tastatur, (2D-)Maus, Joystick, Spaceball, Datenhandschuh, Spracheingabe, Bilderkennung und 3D-Maus.[1]

Tischgebundene Geräte

[Bearbeiten | Quelltext bearbeiten]

Auf einem stationären Untersatz ist flexibel ein Steuerkörper in Form einer Kugel oder eines Pucks angebracht. Schub- und Drehkräfte, die der Benutzer auf den Steuerkörper ausübt werden in Eingabebefehle umgesetzt.[2] Ein solches System verfügt über drei translatorische und drei rotatorische Freiheitsgrade.[3] „3D-Mäuse oder Steuerkugeln messen über den Federdruck eine statische Auslenkung für Position und Winkel einer Kugel, die von der Hand des Benutzers umschlossen wird. Die Auslenkungswege und -winkel sind sehr klein, so daß die Auflösung dieser Geräte begrenzt ist. Deshalb werden Steuerkugeln vorwiegend für Geschwindigkeitssteuerungen verwendet.“[4]

Eine 3D-Maus – auch Spacemouse genannt – eignet sich als Zusatzgerät zur normalen Maus für die beidhändige Bedienung. Diese Form der Interaktion wird als besonders natürlich empfunden, wenn die dominante Hand relativ zur weniger dominanten Hand agiert. Die beidhändige Interaktionstechnik vermindert die kognitive Belastung des Anwenders.[5] Bei immersiven Visualisierungssystemen dürfen die Eingabemedien den Anwender nicht von der virtuellen 3D-Umgebung ablenken. Auch die Bewegung des Nutzers sollte es nicht einschränken. Eingabegeräte sollen den Nutzerfokus nicht auf sich ziehen. Diese Kriterien werden von einer 3D-Maus erfüllt.[6]

Der Benutzer hält das Eingabegerät in seiner Hand und kann es frei im Raum bewegen. Über im Gerät integrierte oder externe Sensoren werden Position und Bewegung im Raum bestimmt.[7] Kommen externe Sensoren zum Einsatz, spricht man von Tracking.

Spaceball 4000 FLX (Hergestellt im Jahr 2000)

Die Technologie wurde ab den 1970ern am Deutschen Zentrum für Luft- und Raumfahrt (DLR) vom Institut für Robotik und Mechatronik entwickelt, da man für die Steuerung von Robotern Eingabegeräte benötigte, die alle sechs Freiheitsgrade (DoF, engl. Degrees of Freedom) erfassen. In den 1980er Jahren wurde das Steuerungssystem, bei dem die Kräfte und Momente durch eine Hohlkugel von der menschlichen Hand abgenommen wurden, patentiert (1982 in Europa, 1983 in den USA und – in einer verbesserten Version – 1985 das international). Das Eingabegerät wurde SpaceMouse genannt.[8]

Im Laufe der 1980er Jahre etablierte sich dieses 6DoF-Eingabegerät entgegen dem ursprünglichen Zweck eher als Navigations- und Positionierungshilfe in virtuellen Szenarien, im Anwendungsbereich von 3D-Grafik und CAD-Anwendungen.[8]

Anwendungsgebiete

[Bearbeiten | Quelltext bearbeiten]
  • Robotik: Die Programmierhandgeräte von KUKA-Robotern sind seit 1995 mit einer 3D-Maus verfügbar. Hier kann der Anwender durch Kraftausübung den Roboter intuitiv in die gewünschte Richtung bewegen.
  • 3D-Konstruktion: Viele 3D-Programme wie Pro/Engineer oder AutoCAD unterstützen die Verwendung von 3D-Mäusen, damit ist es für den Bediener einfacher möglich zwischen den einzelnen Ansichten oder auch im 3-dimensionalen Raum zu navigieren. Die Oberklasse der 3D-Mäuse hat Funktionstasten, die frei belegt werden können. Wenn man eine 3D-Maus in der Konstruktion verwendet, kann man das Modell intuitiver manipulieren, z. B. drehen und schwenken. Obwohl auch Maus genannt, ersetzen sie diese in der Regel nicht, sondern werden mit ihnen parallel verwendet, während zwischen Maus und Stift gewechselt werden muss. So befindet sich die 3D-Maus bei Verwendung für Rechtshänder auf der linken Seite der Tastatur um sie gleichzeitig mit Maus, Stift, Touchpad oder Touchscreen zu verwenden. Neuere Dienstprogramme von 3Dconnexion erlauben auch die Einblendung eines Ziffernblocks mit Rücklöschtaste an der Bildschirmposition des Mauscursors. So müssen die anderen Zeigegeräte nicht aus der Hand gelegt werden, um Werte präzise abzuändern oder direkt einzugeben. Dies beschleunigt und vereinfacht den Konstruktionsprozess.[9]
  • Medizin: Eine 3D-Maus kann zur Simulation eines chirurgischen Eingriffs benutzt werden, um beispielsweise die Lage eines Implantats im Körper des Patienten in allen drei Dimensionen ausrichten zu können.[10] Auch bei der Operation von angeborenen Schiefstellungen des Schädels wird eine 3D-Maus als Eingabemedium eingesetzt, zum Beispiel für die „freihändige Korrektur der Position im CAD-System an einem 2D-Monitor“.[11]
  • Architektur: In Systemen der Computer Augmented Reality, wie sie in der Architektur verwendet werden, ist die Hand des Nutzers normalerweise frei und kann ohne Funktion für die Computersteuerung bleiben, sie wird jedoch häufig zur Bedienung einer 3D-Maus einbezogen.[12]
  • Heimanwender: Durch die Preissenkung der Technik (Stand 2008: etwa 50 €) ist der Einsatz von 3D-Mäusen in Privathaushalten zur Spielesteuerung oder zur Navigation in Google Earth möglich geworden.

Anbieter und Ausführungen

[Bearbeiten | Quelltext bearbeiten]
Optische Baugruppe einer Spaceball 4000 FLX

SpaceController, Spacemouse

Der auf einem Untersatz befestigte Steuerkörper lässt sich in alle Richtungen um einige Millimeter ziehen, drücken, kippen und drehen. Er springt nach dem loslassen wie ein Joystick zurück in seine Ausgangsposition. Die Messung der sechs Komponenten (Translation und Rotation) erfolgt über reibungs- und verschleißfreie opto-elektronische Sensoren. Mehrere am Untersatz angebrachte Tasten können von Anwendungsprogrammen individuell belegt werden.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. D. Müller: Application Framework für die Entwicklung interaktiver Anwendungen mit multisensorischen Benutzungsschnittstellen - Ansätze einer prototypischen Realisierung von Rechnersystemen für die Produktion. (PDF) April 1993, S. 10, abgerufen am 27. August 2023.
  2. Heinrich Hußmann, Albrecht Schmidt: Guidelines Input devices. (PDF) In: Vorlesung Mensch-Maschine-Interaktion. Ludwig-Maximilians-Universität München, 2004, S. 40, abgerufen am 29. November 2015.
  3. Peter A. Henning: Taschenbuch Multimedia. Hanser 2007. S. 226. ISBN 3-446-40971-8. Online bei Google Books.
  4. Thomas Klement, Matthias Hemmje: Eine konfigurierbare, constraint-basierte Kamerasteuerung für 3D Visualisierungswerkzeuge. (PDF) In: GMD-Studie. Fernuniversität Hagen, S. 34 f, archiviert vom Original (nicht mehr online verfügbar) am 4. März 2016; abgerufen am 29. November 2015.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/deposit.fernuni-hagen.de
  5. Felix Ritter: Interaktives Zusammensetzen von 3D-Modellen zur Unterstützung des räumlichen Verständnisses. (PDF) In: Diplomarbeit an der Otto-von-Guericke-Universität Magdeburg. Mai 1999, S. 112 f, abgerufen am 29. November 2015.
  6. Juri Engel, Jürgen Döllner: Immersive Visualisierung von virtuellen 3D-Stadtmodellen und ihr Einsatz in der Stadtplanung. (PDF) In: DGPF Tagungsband 21 / 2012. 2012, S. 5 f, abgerufen am 29. November 2015.
  7. Roland Schmitz: Kompendium Medieninformatik. Band 2: Medienpraxis. Springer 2007. S. 94. ISBN 3-540-36629-6. Online bei Google Books.
  8. a b Die DLR SpaceMouse (1981–1993). DLR-Institut für Robotik und Mechatronik, abgerufen am 3. November 2021.
  9. André Stork: Effiziente 3D-Interaktions- und Visualisierungstechniken für benutzer-zentrierte Modellierungssysteme. (PDF) In: Dissertation an der Universität Darmstadt. Fachbereich Informatik der Technischen Universität Darmstadt, August 2000, abgerufen am 29. November 2015.
  10. M. Scherbinsky, G. J. Lexow, Th. S. Rau, B. Preim O. Majdani: Computerunterstutzte Planung von Bonebridge-Operationen. (PDF) In: ResearchGate. Otto-von-Guericke-Universität Magdeburg, März 2015, abgerufen am 27. August 2023.
  11. R. Stelzer, A. Koßler, M. Funke, U. Eckelt, M. Schneider: Virtuelle Segmentierung und Fragmentpositionierung zur Planung navigationsgestützter operativer Eingriffe in der rekonstruktiven Chirurgie. (PDF) TU Dresden, 9. November 2005, archiviert vom Original (nicht mehr online verfügbar) am 4. März 2016; abgerufen am 29. November 2015.
  12. Ingrid Rügge: freihändig oder handgesteuert? Aktuelle Trends in der Gestaltung der Mensch-Computer Interaktion. (PDF) Universität Bremen, Technologiezentrum Informatik, abgerufen am 29. November 2015 (Abschnitt Augmented Reality).