Erweiterte Realität: Wie sie die Wirklichkeit verändern wird

Screenshot youtube.com

Die Erweiterte Realität und alle Abwandlungen davon, werden auf lange Sicht viele Bereiche der Wirtschaft und Gesellschaft erfassen. Die Auswirkungen können in letzter Konsequenz noch gar nicht abgeschätzt werden.

>>Mobilegeeks.de<<

„Greg Sullivan lächelt mir freundlich entgegen, als ich mich zu ihm und seinem Communications Manager an den Tisch setze. Trotz des Terminstresses auf solchen Entwicklerkonferenzen wie der BUILD, wirkt er souverän und locker. Ich eröffne das Thema Mixed Reality mit einer Frage, die auf das neu vorgestellte Programm „AI for Accessibility“ Bezug nimmt. Mich interessiert, welche HoloLens Anwendungen er sich für diesen Bereich vorstellen kann. Denn eine der Kernbausteine von Mixed-Reality-Produkten liegt natürlich in ihrer Fähigkeit, ihre Umgebung wahrnehmen zu können. Mittlerweile wird der Weg hin zur Interpretation des Gesehenen beschritten, was Menschen mit Behinderungen natürlich zu Gute kommt. Die HoloLens kann also den Sinn ausgleichen, der bei ihnen eingeschränkt ist. Geht es nach Sullivan, so liegt der Fokus bei einer „AI for Accessibility“-Anwendung also zunächst darauf, diesen Menschen eine gewisse Barrierefreiheit zu verschaffen – natürlich indem man sie dabei unterstützt, sich in ihrer Umgebung zurecht zu finden. Klar ist, dass Microsoft weiterhin in die Forschung und Entwicklung in diesem Bereich investiert. Doch mal abgesehen von lebenserleichternden Anwendungen für Menschen mit Behinderung. Mich interessiert, wer die HoloLens eigentlich noch nutzt – die industrielle Anwendung mal außen vor gelassen. Sullivan lacht: „Die Antwort ist ganz einfach: Das Gerät wurde natürlich in erster Linie für den kommerziellen Einsatz entwickelt.“ Klar, das wusste ich! Sullivan erzählt mir von der Vielzahl von Unternehmen, die die HoloLens allesamt nutzen. Hauptsächlich, um ihre Arbeitskräfte auszubilden. Da gibt es Fluggesellschaften, die ihre Crew und Mechaniker mit Hilfe von Mixed Reality trainieren. Am Beispiel der Triebwerkreparatur lässt sich das besonders gut erklären: Nach alter Schule lernen die angehenden Mechaniker ihr Handwerk an einem alten Flugzeugteil. Nimmt man es anschließend in Betrieb, muss man einen Schritt zurücktreten und kann dadurch nicht erfahren, wie die unterschiedlichen Komponenten zusammenarbeiten. Mit Mixed Reality an der Hand wird diese Hürde ganz einfach übersprungen. Plötzlich kann das Triebwerk holografisch, dreidimensional auf Lebensgröße skaliert werden. Man kann hindurch gehen, tatsächlich in ihm stehen und verstehen, welche Komponenten wie zusammenwirken. Das Ergebnis ist, dass die Mechaniker effizienter, effektiver und mit einer höheren Qualität ausgebildet werden. Das gleiche Spiel kann man auch in medizinischen Universitäten beobachten. Die Studenten lernen an toten Menschen, sehen also folglich nicht, wie die einzelnen Organe zusammenspielen. Sullivan verweist auf eine ganze Reihe von Forschungen, die zeigen, dass, wenn man jemandem ein Bild von einem Objekt zeigt, er dies zwar dreidimensional abstrahieren kann, sein Gehirn beim Anfassen eines physischen Gegenstandes jedoch buchstäblich neu verdrahtet wird. Man bekommt plötzlich ein Gefühl für das Volumen. Allein dieser Unterschied führt dazu, dass man Dinge besser versteht, sich besser an sie erinnern kann und das Wissen tiefer verankert wird. Sullivan schaut mich ernst an. Man merkt sofort, dass er sich sehr genau mit dem Thema auseinandergesetzt hat. Er überträgt das gleiche Prinzip auf die Anwendung der HoloLens, mit der es einem ja möglich ist, um ein 3D-Objekt herumzulaufen und es nicht auf einer Buchseite betrachten muss. Tatsächlich musste ich hier kurz dazwischen grätschen. Sullivan mag recht haben, und seine Erkenntnisse möchte ich auch gar nicht anzweifeln. Das Problem, was ich nur bei Mixed Reality sehe, ist genau dieses Fehlen der haptischen Komponente. Ein 3D-Objekt auf der Oberfläche der HoloLens ist schlussendlich auch nichts anderes als ein Bild. Material, Oberfläche, Temperatur, Form und sonstige Eigenschaften verinnerliche ich am besten durch Anfassen. Wenn man jemandem ein Bild von einem Stift zeigt, der noch nie zuvor solch ein Objekt gesehen hat, kann er verstehen, dass es sich um einen Stift handelt – er hat ihn jedoch nie berührt. Insofern fehlt die Stimulierung gewisser Reize, die eine Erfahrung, ein Erlebnis erst komplett machen. Sullivan freut sich wie ein kleines Kind, als er meine Gedanken hört. Man merkt ihm die Begeisterung an, denn sofort hat er Stift und Papier gezückt. Er zeichnet eine Tabelle mit 12 Kästchen auf. Vertikal nach unten schreibt Sullivan die Buchstaben H (für Mensch), E (für Umgebung) und O (für Objekte) auf. Das sind im Wesentlichen die Komponenten, mit denen wir interagieren. Auf die Frage nach dem wie, erklärt Sullivan, dass es drei Wege der Interaktion gibt: Durch Input, Output und den Austausch von Energie mit Hilfe von haptischen Berührungen. Folglich zeichnet er diese Begriffe in die horizontale Reihe. Bis hier hin vollkommen verständlich, doch jetzt wird es interessant. Nimmt man ein Gerät, dass Menschen versteht und Input aus ihnen schöpft, ergibt das im Prinzip Microsofts Kinect. Sie hat verschiedene Sensoren verbaut, die Sprache verstehen, Bewegungen erkennen und Nutzer unterscheiden können. Insofern ist die menschliche Komponente und der Input schon mal abgedeckt – Sullivan macht seinen ersten Hacken im Kästchen H+I. Die nächste Stufe wäre dann ein Gerät, dass sowohl Menschen und Umgebungen versteht, sowie Input als auch Output gibt. Diese Eigenschaften treffen alle auf die HoloLens zu und so macht Sullivan drei weitere Hacken. Zwar zeigt dieses Diagramm nur ein Bruchstück von dem, wie die Welt tatsächlich funktioniert – es beschreibt jedoch die Produktevolution bei Microsoft ganz schön. Die Frage bleibt: Was ist also die dritte Ebene? Sie müsste alle Techniken der HoloLens beherrschen und zusätzlich reale Objekte sowie haptische Berührungen verarbeiten können. Zum ersten Punkt hat Microsoft den Grundstein mit der Kombination aus Kinect und Azure gelegt, sodass die im Gerät verbauten Sensoren auch Objekte in der Umgebung erkennen und verstehen können. Man ist also auf einem guten Weg dahin, zwei weitere Hacken in dem Diagramm zu setzen. Die haptische Komponente gestaltet sich da um einiges schwieriger, denn wie garantiert man dies, ohne auf spezielle Handschuhe angewiesen zu sein, die das Thema nur rudimentär schneiden? Sullivan versichert mir, dass Microsoft Forschungen am Laufen hat, die sich mit dieser weiterführenden Technologie beschäftigen. Meine nächste Frage an Greg Sullivan ist eine Herzensangelegenheit. Da ich mich in meinem Studium immer wieder mit intuitiver Nutzerbedienung beschäftige, brannte mir die Frage nach dem Hintergrund der typischen HoloLens-Steuerungs-Geste unter den Nägeln. Meine persönliche Meinung dazu: Sie ist nicht sonderlich intuitiv und das erklärte ich Sullivan auch. Er lacht und hört mir interessiert zu. „Was man zunächst über Input wissen muss“, sagt er „ist, dass es drei verschiedene Komponenten dazu gibt.“ Die erste von ihnen beschreibt im Wesentlichen die Kopfbewegungen, die bei der HoloLens als Äquivalent zum Mauszeiger fungieren. Die nächste Komponente ist die Gestische-Ebene und zu guter Letzt kann Input auch durch die Stimme gegeben werden. Bei der HoloLens ist die typische Handbewegung also eine Maus-Klick-Geste, bei der die Nutzererfahrung mit dem PC einfach übertragen wird. Soweit so gut. Ich erzähle Sullivan, dass die fehlende Intuitivität wohl daher kommt, dass es keine natürliche Bewegung ist. Sie ist antrainiert, durch jahrelange Erfahrungen mit einer Computermaus. Er stimmt mir zu, hat aber noch einen weiteren guten Punkt in petto. Eine universelle Steuerungsgeste muss spezifisch sein, damit sie das System von anderen Handbewegungen unterscheiden kann. Klar, das leuchtet ein und so muss ich von meiner Meinung wohl einen Zentimeter abrücken. Die Geste gehört vielleicht nicht zu unserem natürlichen Gesten-Repertoire, aber Microsoft hat versucht das Beste daraus zu machen, indem eine fast schon tägliche Klick-Bewegung übertragen wurde. Insofern ist sie vielleicht doch intuitiver als gedacht. Nun haben wir über mögliche Anwendungen, holografische Lehrmethoden und intuitive Gesten gesprochen. All das mündet in der Tatsache, dass man, um Mixed Reality erleben zu können, auf ein Headset angewiesen ist. Die Frage aller Fragen ist jedoch: Wie könnte eine Zukunft aussehen, in der ich Mixed Reality nutzen kann, ohne auf ein zusätzliches Gerät zurück greifen zu müssen? Sullivan ist sichtlich verblüfft von der Frage. Begeistert steigt er in das Thema ein und erzählt mir, wenn man die gesamte aufgemalte Tabelle ausfüllt, sich in einem Zeitalter der komplett autonomen Roboter und Autos befindet. Die Idee der Zukunft ist es, vernetzte Objekte zu schaffen, die zusammen diesen großen Computer formen, von dem Satya Nadella in seiner BUILD-Keynote gesprochen hatte. Sullivan hält kurz inne und lässt die Worte wirken. Seiner Meinung nach, eifern die Menschen beim Thema Mixed Reality immer der „Prinzessin Leia“-Vorstellung nach. „Die eigentliche Definition von Hologrammen“, meint Sullivan „ist etwas, dass man ohne zusätzliche Hilfsmittel sehen und mit ihm interagieren kann.“ Er lacht herzlich: „Ich weiß, da haben wir wohl etwas gecheated!“ Sullivan ist sich jedoch sicher, dass sich die Display Technologie in den nächsten Jahren so rasant entwickeln wird, dass die Vorstellung einer echten gemischten Realität nicht mehr lange ein Wunsch bleibt. Wird man also immer auf ein Headset angewiesen sein? „Die Antwort ist nein“, lächelt Sullivan wissend „es geht schließlich immer um Evolution.“ – und damit hat er verdammt Recht! Vielen Dank an Greg Sullivan für dieses inspirierende Gespräch.“

 

Werbung

Loading...
Bild: nordvpn.com
Scroll Up