35
Bachelorarbeit

Bachelor 30Mai

Embed Size (px)

DESCRIPTION

hjugjgnjknjkn

Citation preview

Bachelorarbeit

2

Inhaltsverzeichnis

1.0 AUGMENTED REALITY1.1 Geschichte1.2 Die Technische Umsetzung von AR1.2.1 Das Tracking Verfahren1.3 Die Unterschiedlichen AR Systeme1.4 Die Verschiedenen Anwendungsgebiete von AR

2.0 AR IN DER AUTOMOBILBRANCHE2.1 Die Verschiedenen Einsatzgebiete in der Automobilbranche 2.2 Einsatzgebiete von AR im Auto-Interieur2.3 Fazit

3.0 Anforderungen an das UX-Design bei AR3.1 Was ist UX Design? (jesse james garrett Modell)3.2 Computer Mensch Interaktionen3.3 Interfacedesign3.4 Fazit/Kriterien für gutes UX3.5 Designanalyse bestehender AR Konzepte in der Automobilbranche3.5.1 Fazit (Vorteile Nachteile)

4.0 Lösungungsansätze für das UX Design4.1 Erläutern der Schwierigkeiten mit Lösung

3

1.0 Augmented Reality

In diesem Kapitel wird auf die Geschichte der Augmented Reality eingegangen und aufgezeigt was für solch eine Anwendung nötig ist und die technischen Hintergründe erläutert.

4

Der Begriff Augmented Reality heißt auf deutsch übersetzt „Erweiterte Realität“, da die reale Welt mit zusätzlichen virtuellen Informationen in Echt-zeit überlagert wird. Diese virtuellen Informatio-nen können z.B Grafiken oder Text sein.Sie stehen mit dem realen Objekt in einer Bezieung und werden in Echtzeit übertragen. Dies bietet dem Anwender eine Interaktionsmöglichkeit zwischen der realen- und virtuellen Welt. Ron Azuma defi-nierte Augmented Reality 1997 als eine Kombina-tion zwischen der Realität und der Virtualität.

Einer der ersten Forscher in diesem Gebiet war Ivan Sutherland. Er veröffentlichte 1965 seine Arbeit „The Ultimate Display“, in der er deutlich macht wie die Fortschritte in der Computer-technik eventuell die menschlichen Sinne durch zusätzliche virtuelle Erfahrungen erweitern könnnte. Drei Jahr später entwickelte er das erste Head-Mounted Display. Diese Entwicklung gilt als die Geburtsstunde der Augmented Reality (Im Folgenden AR genannt).Nach längerem Forschen an dieser Technik wur-de der Begriff „Augmented Realtiy“ in den 90er Jahren fest eingeführt. In dieser Zeit setzte man die Technik vor allem für das Flugmilitär ein. Das Flugdisplay der Piloten wurde durch zusätzliche

Radarinformationen erweitert.Mit voran schreitender Technik eröffneten sich für AR immer mehr Perspektiven und im Jahr 2009 auch erstmals für Heimanwender. Denn mit der Entwicklung des IPhone 3 war zum ersten mal ein Gerät auf dem Markt, dass alle notwendige Hard-ware für eine AR-Anwendung mitbrachte.

Heutzutage hat AR viele verschiedene Einsatzge-biete. In meiner Arbeit möchte ich auf das Gebiet der Automobilbranche und das Userexperience Design in einer AR-Anwendung eingehen.

Das erste Head-Mounted Display entwickelt von Ivan Sutherland 1968

1.1 Geschichte

5

1.2 Die Technische Umsetzung von AR

Um eine AR-Anwendung umsetzten zu können benötigt man unterschiedliche Komponenten. Marcus Tönnis teilte in seinem Buch „Augmented Reality - Einblicke in die Erweiterte Realität“ diese Komponenten in 3 Bereiche ein: Darstellung, Tra-cking und Interaktion. Es wird also eine Darstel-lungshardware benötigt, die die Sicht des Nutzers durch erweiterte Daten, die mit Hilfe von Tracking erlangt werden, erweitert.

Die deutsche Firma Metaio ist Marktführer für AR-Anwendungen in vielen Gebieten. Sie verfei-nerten die Ausage von Tönnis noch etwas. Sie Tei-len den Prozess für AR in vier Aufgabenbereiche ein. Diese sind der Sensoreniput, die Software, die Positionserkennung und die Darstellungshard-ware. Im folgenden möchte ich näher auf diese Punkte eingehen und sie kurz beschreiben.

6

Sensoreninput

Software

Darstellungs-hardware

Positions-erkennung

• Kamera• Ultraschall• GPS• Webcam

• AR Darstel-lungspro-gramme z.B Junaio Browser

• Bildschirm• Beamer• ...

• Tracking

Bildaufnahme und Verarbeitung

Lageerkennung

Rendering

DAS SYSTEMATISCHE VORGEHEN IN EINER AR-ANWENDUNG

7

SENSORENINPUT:

Der Sensoreninput und das Tracking arbeiten eng miteinander. Denn erst durch diese erhaltenen Daten kann die Postionserkennung für das Tra-ckingverfahren statt finden.Es gibt verschiedene Arten durch welches Me-dium ein Sensoreninput statt finden kann. Das gängste Medium, dass am Besten für den Anwen-der nutbar ist, ist der Bildsensor in einer Kamera. Andere Arten wären z.B GPS-Daten, Ultraschall, Magnetische Wellen oder Sound. Wie in Kapitel 1.0 erwähnt, war Ivan Sutherland der Wegbereiter einer AR Anwendung. Sein Pro-jekt Sketchpad basierte auf den Sensoreninput von Lichtwellen, die mit Hilfe eines Lichtgriffels auf einem Röhrenbildschirm erzeugt wurden.

SOFTWARE:

Die Software für eine AR-Anwendung ist sozusa-gen die Darstellungsengine, die auf einem Leis-tungsfähigen Hardware läuft, um AR-Aplikationen darstellen zu können. Je nach Art der AR-Anwen-dung gibt es hierfür unterschiedliche Software. In Kapitel 1.3 werde ich diese unterschiedlichen Arten genauer erläutern. Sollte es sich z.B um

eine „Wearable“-Anwendung auf einem Smart-phone handeln wäre eine AR fähige Software der Junaio Browser. Dieser Browser wurde von der Firma Metaio entwickelt und bietet Heimanwen-dern die Möglichkeit AR-Anwendungen selbst zu programmieren. Je nach Art des AR-Systems werden auch unter-schiedliche Schnittstellen für die Software benö-tigt. Viele Anwendungen basieren z.B auf Daten aus dem Internet.

PROZESSOREN:Für eine Leistungsfähige AR-Anwendungen wer-den meist Mehrkernprozessoren verwendet. Die-se sind z.B wichtig für aufwendige 3D-Renderings oder die Software an sich. Da eine AR-Anwendung viel Arbeitsspeicher benötigt konnte man viele Ideen Anfang der 90er Jahre noch nicht umsetz-ten. Mittlerweile sind bereits sehr gute Prozesso-ren in Smartphones und Tablets verbaut, die eine Ar-Anwendung möglich machen können.

POSITIONSERKENNUNG

Die Positionserkennung ist ein wichtiger Bestand-teil in einem AR-System. Für eine funktionierende AR-Anwendung wird die Position des Nutzers so-

8

wie die Position der Standorte von Virtuellen Ob-jekten benötigt um diese überlagert darstellen zu können. Dieses Vorgehen wird auch als Tracking bezeichnet. Da das Tracking Verfahren ein sehr wichtiger Bestandteil eines Ar-System ist, möchte ich darauf in Kapitel 1.1.2 noch näher eingehen.

DARSTELLUNGSHARDWARE:

Die Darstellungshardware bei einer AR-Anwen-dung stellt ein wichtige Verbindung zwischen der realen und der virtuellen Welt da. Sie ist sozu-sagen das Verbindungsstück zwischen diesen Welten für den Nutzer. Als Darstellungshardware werden in der Regel Displays oder Headmounted Displays verwendet. Wie bereits in Kapitel 1.0 erläutert erfand Ivan Sutherland eines der ersten Headmounted Displays. Diese Displays werden in zwei Kategorien unterteilt: Optical-See-Through und Video-See-Through-Systeme.In einem Optical-See-Through System hat der Nutzer weiterhin Sicht auf die Reale Umwelt. Google stellte 2012 die Google Glass vor. Diese Brille blendet zusätzliche Daten auf einem kleinen Display auf das Sichtfeld des Nutzers ein. Die Um-gebung wird dabei weiterhin wahr genommen.

Video-See-Through-Systeme werden vorallem für Virtual Reality verwendet. Benutzt man sie aller-dings für Augmented Reality werden dem Nutzer Kamerabilder vor dem Auge vorgeführt, die er in einer normalen Umgebung auch wahrnehmen würde. Diese Kamerabilder werden dann durch zusätzliche Informationen erweitert. Ron Azuma befasste sich in seiner Arbeit mit den Vor- und Nachteilen dieser beiden Systeme.

Google Glass, zum ersten Mal vorgestellt im Jahr 2012

9

Ein klassischer Flachmarker und die virtuelle Infor-mation, die er enthält

Es gibt eine Vielzahl an unterschiedlichen Trackingverfahren, die für AR-Anwendungen einsetzbar sind. Wie schon erwähnt kann es unterschiedliche Sensoreninputs geben und dementsprechend gibt es auch unterschiedliche Verfahren, die diese eingelesenen Daten verarbei-ten. Dazu gehört z.B das akustische Tracking (Ul-traschall) oder das elektromagnetische Tracking (Magnetfeld). Aber zu den häufigst eingesetzten Verfahren in einer AR-Anwendung gehört das Optische Tracking, weshalb ich dieses Vorgehen genauer betrachten möchte.

Wie der Name „Optisches“ Tracking schon verrät, ist es dem Nutzer hier möglich das Trackingver-fahren optisch nachvollziehen zu können in dem ein sichtbares Spektrum getrackt wird. Im folgen-den möchte ich die Methoden Markertracking und Markerloses Tracking erklären.

MARKERTRACKINGIn einem Markertracking wird nach einem Be-stimmten Muster im Sichtfeld des Nutzers ge-sucht und das gewünscht virtuelle Objekt auf der Position des Musters Abgebildet. Natürlich muss wie üblich hierbei auch die Position und der Blick-winkel des Nutzers mit bedacht werden. Diese

1.2.1 Tracking

Muster werden auch Flachmarker genannt. Flach-marker bestehen meist aus einfachen Formen wie z.B simple Rechtecke und sind oftschwarz weiß gestaltet. Werden diese Marker nun von einer Kamera getrackt wird nach einem starken Kontrastpunkt im Raum gesucht. Wird der Marker als solcher Kontrastpunkt erkannt können durch die Rechteckige Form auch gleich die Eckpunkte definiert werden. Aus jedem Rechteck in einem Marker können verschiedene Informationen gefil-tert werden. Sollte es sich nicht um einen Marker handeln befinden sich auch keine Informationen für das System in den Mustern und die Software erkennt dies nicht als Marker. So entsteht eine optisch getrackte Fläche im Raum, auf der Ob-jekte abgebildet werden können. Sollte man den Marker nun im Raum bewegen oder um drehen, so kann sich das virtuelle Objekt mitbewegen.

10

MARKERLOSES TRACKING / FEATURTRACKING Das Markerlose Tracking kann, wie der Name schon verrät, die nötigen Standorte ohne einen Marker tracken. Hierbei orientiert sich das Tra-ckingverfahren nicht an Kontrastpunkten sondern basiert auf das Wiederfinden Lokaler Bildmerk-male wie z.B „Linien“, Ecken“ oder Strukturen. Es gibt verschiedene Arten von Markerlosen tracking. Manche greifen auf GPS Koordinaten zurück und ermitteln so alle Erkennungsmerkma-le, die sich in der Nähe befinden müssten. Andere bauen auf bereits eingelsene kalibrierte Daten auf. Markerloses Tracking stellt bis zum heutigen Stand der Technik noch eine herausforderung dar, da das Trackingverfahren hier stark vom Licht-verhältnis abhängig ist und Daten, die zuvor eing-lesen wurden, sich ändern können und daraufhin nicht mehr erkannt werden.

Markerloses Trackingsystem, dass die Struktur des Raumes erkennt

11

1.3 Unterschiedliche AR Systeme

WEARABLE AR

Smartphones und Tablets gehören mitlerweile zum Altag vieler Menschen. Deshalb bieten sich Wearable AR-Systeme, also „tragbare“ AR-Apli-kationen besonders für den Endnutzer an, da in diesen Geräten schon alle notwendige Hardware eingebaut ist, die man für das durchführen einer AR-Anwendung benötigt. Wichtig hierbei sind z.B die eingebaute Kamera und das GPS-System, für das Tracken der Objekte. Das erste Gerät, dass auch den leistungsstarken Prozessor mit brachte war das Apple Iphone 3 im Jahr 2009. Mit diesem Telefon war es Heiman-wendern zum ersten mal möglich AR Apps zu entwicklen.

///// Bild Iphone 3

-> Wikitude als eine der ersten AR-basierten Apps

Auch Headmounted Displays und Datenbrillen gehören

-> Revulution Google Glass Datenbrille

-> z.B Smartphones oder TabletsVorteil:-> Bringt alles mit was man für eine AR Anwen-dung benötigt z.B Kamera, GPS systeme, Kom-passanwendung -> Stetige Weiterentwicklung der Technik und somit immer leistungsfähigere Geräte

-> Auch Datenbrillen oder Head Mounted Displays gehören dazu -> Microsoft Hololens

STATIONÄRES AR

z.B Modeläden-> Große Displays die an einer Position aufgestellt werden können-> Durch festen Standort kann besseres Equip verwendet werden. z.B hochauflösende Kameras und größere Prozessoren-> Das Display ist immer lesbar und wird nicht durch anderen Lichteinfall gestört

SPATIAL AUGMETED REALITY

12

-> Projektion des Interface auf alle Gegegstände in der Umwelt Vorteil:-> Alles kann in ein Display verwandelt werden-> Kostenreduzierung-> Das Interface kann genau positioniert werden (kein großer rechenaufwand wegen der Postion des Betrachters)-> Bei Bedarf kann das Interface versteckt wer-den

DER UNTERSCHIED ZWISCHEN AR UND VR

Bei einer VR Anwendung befindet sich der Be-nutzer mit seinem Sichtfeld komplett in einer computergenerierten virtuellen 3D Welt. Er hat in dieser Anwendung keinen Bezug mehr zur realen Welt. Eine Beispiel für die virtuelle Realität ist die Video Brille Okulus Rift. Mit dieser Brille fühlt sich der Benutzer als wäre er komplett in einer Virtu-ellen Welt integriert. Anders als bei Augmented Reality. Denn hier wird die Reale Welt mit der virtuellen verbunden. Dem Benutzer ist es möglich, weiterhin sein norma-les Umfeld zu sehen allerdings mit zusätzlichen virtuellen Objekten, die sich in seinem Sichtfeld

überlagern. Er kann also noch normal in der realen Welt interagieren, was in VR nicht mehr möglich ist.

-> Beispiel für VR: Okulus Rift

Realität

Mixed Reality

Virtualität

13

1.4 Die verschiedenen Anwendungsgebiet von AR

LOGISTISCHER BEREICH

-> DHL-> Zwar noch nichts Umgesetzt es bestehen aber schon Konzepte z.B-> Mit Hilfe einer Datenbrille schnellerer Ar-beitsprozess im Lager (Navigationsleitung) und schnellere Hilfe bei Technischen Fehlern, bessere Nachverfolgung des Paketes => Fehlerreduzie-rung und somit schnellerer Prozess

WERBEBRANCHE

-> Ikea werbeapp, Kaufprozess des Kunden wird schneller, da er das Produkt gleich in seinem Zim-mer virtuell plazieren kann-> Auf Messen wird die Aufmerksamkeit der Men-schen auf das Produkt gezogen durch virtuelle Gadgeds (z.B Tiger sitzt auf einem Auto)-> Auf Automessen können Kunden das Auto vir-tuell in einer anderen Farbe sehen -> Vielfalt für den Kunden-> Tangible Interface im Kaufprozess. z.b Kauf-tresen auf dem das Produkt steht. Nimmt man es weg erscheinen Informationen zu dem Pro-dukt z.B Kaufrezessionen, die man normal online nachgoogeln würde

-> Pinguinnavi

SPIELE INDUSTRIE

-> Sehr viele unterschiedliche Spiele Arten-> z.B für Apps das Spiel TreckSpek light hier muss man mit Hilfe der Kamera Geister sam-meln. Bassiert auf GPS koordinaten-> Ingress lässt den Spieler durch die echte Welt laufen und Portale finden. -> Firma Magic Leap stellt im März 2015 konzept-video vor in dem man das Büro in ein Spielfeld verwandeln kann

MEDIZINBRANCHE

-> Frauenhofer entwickelte app MEVIS die den Ärzten z.B bei einer Operation echtzeitanweisun-gen geben können-> TU München entwickelt eine Anwendung mit der man mit hilfe eines HMD den verlauf der Ate-rien oder die Lage der Organen bei einem Men-schen direkt sehen kann -> Röntgenblick

MILITÄR-> schon erste AR Anwendungen wurden für das Militär entwickelt. Das Militär gehört auch zu ei-

14

nem der größten investoren für AR Anwendugnen-> Zuerst entwickelte man ein Display, dass das Sichtfeld von Düsenjets erweiterete und ihnen anzeigen konnte wo sich der Feind befindet und in welche Richtungen sie fliegen mussten-> Q-Warrior Helmet wird gerade Entwickelt. Sozusagen ein tragbarer PC für einen Soldaten. Kann dem Soldaten einen schnellen überblick über das gesamte Schlachtfeld vermitteln. Wurde anfangs mit Hilfe der Google Glass Entwickelt.

AUTOMOBILBRANCHE-> Sehr Vielfältig deswegen möchte ich im nächs-ten Kapitel näher darauf eingehen

15

2.0 AR in der Automobilbranche

AR wird in der Automobilbranche immer gefragter. In diesem Kapitel möchte ich auf die verschiedenen Einsatzgebiete eingehen und besonders den Einsatz im Auto Interieur genauer erläutern. // in der foglenden Arbeit weiter auf die Automobilbranche warum?

16

2.1 Einsatzgebiete von AR in der Automobilbranche

SERVICEBEREICH

Fahrzeuge werden heut zu Tage immer Komple-xer. Mit der rasanten Entwicklung der Technik müssen auch Servicekräfte im Automobilbereich ihr Können stetig schulen damit sie weiterhin genügend Kompetenz in ihrem Fachbereich aufbringen. Denn besonders in der Automobil-branche wird ein hoher Standard an Fachwissen vorausgesetzt.BMW hat dieses Problem besoners bei Fachkräf-ten im Montagebereich erkannt und entwickelte daraufhin das Konzept einer Datenbrille, die den Arbeitern zukünftig zeigt, welche Reperaturmaß-nahmen erfüllt werden müssen oder welcher Fehler vorliegen könnte. Die Brille würde d

-> BMW setzt diesen Gedanken mit einer AR App um.->BMW stellt ein Konzeptvideo vor in dem ein Mitarbeiter mit Hilfe einer Datenbrille ein Auto reparieren kann. Die Software zeigt dem Arbei-ter genau an welche Teile er bewegen muss. Jeder Arbeitsschritt wird durch hilfreiche 3D Elemente deutlich gemacht.

-> Vorteil?

17

PROTOTYPEN BAU

-> Der Entwicklungsweg eines Autos ist lange und bevor es zum Entgültigen Produkt kommt müssen viele Schritte abgearbeitet werden

-> Bei der Produktion eines Prototypen stehen oft nicht alle Hardware Komponenten zur verfügung. Sie werden zwar in CAD bereit gestellt können aber oftmals nicht gleich produziert werden, da es sich hierbei um eine Aufwendige Einzelpro-duktion handeln würde. Die Anfertigung aller Teile dauert lange und ist mit viel Zeitaufwand und großen Kosten verbunden.

-> Durch eine AR Aplikation beispielsweise in einer Datenbrille könnten die Entwickler den Prototypen direkt vor ihren Augen in Echtgröße aufbauen und modelieren. So können mögliche Fehlkonstruktionen schneller erkannt werden und später viel Geld einsparen. Auch der Arbeitspro-zess kann so effizient verbessert werden, da es nicht mehr nötig wäre alle Einzelteile nachzubau-en.-> Die Firma Canon stellte 2012 ein Methode vor, wie die modelierung eines Auto Prototypen in der

Zukunft aussehen könnte.-> Mit Hilfe von Headmounted brillen können die Entwickler hier einen Prototypen in Echtzeit mo-delieren und können so sofort proportionen und Positionen verschiedener Teile besser erkennen.

-> Auch VW hat die Vorteile von AR bei der Ent-wicklung von Prototypen erkannt. Im Rahmen eines Forschungsprojekts könen durch Spatial AR können Enwürfe direkt auf das Model projektziert werden. Das Model kann hierbei ein Fahrzeug sein auf das durch spatial AR z.B verschiedene Materialien und Farben projektziert werden. So können die Designer schon früh beurteilen welche Materialarten gut sind. Aber auch im Interior kann diese Technik verwendet werden um zu erkennen welche Interiorelemente an welcher Position für den FAhrer am sinvollsten sind. Durch diese Technik können viele Modelkosten eingespart werden.

18

MARKETING BEREICH

-> AR bietet einen Vielzahl an Möglichkeiten um ein Produkt dem Kunden näher zu bringen. Vor-allem in der Automobilbranche möchte man dem Kunden das Auto so gut wie möglich präsentieren können.

-> Printmedien bieten zwar einen guten Überblick über ein Produkt allerdings bekommt der Kunde so kein Gefühl für Raum und Dimensionen über ein Auto.

-> Nissan stellt seinen Kunden z.B einen Aus-druck zur Verfügung mit dem der Kunde mit Blick durch eine Webcam das Auto als kleine 3D Dar-stellung direkt auf dem Blatt hat.-> Auf dem Blatt befinden sich verschiedene Funktionen mit denen man die Farbe des Autos änderen kann, die Türen öffnen und schließen oder direkt ein Video abspielen.-> Durch solch ein Werbeblatt erhält der Kunde einen Besseren Bezug zu dem Produkt. Dies kann die Kaufentscheidung deutlich beschleunigen.

-> Aber Auch auf Messen können Menschen durch Augmented Reality angelockt werden. 2012 wur-

de der neue Mahindra XUV500 auf einer Indischen Automesse Präsentiert. Als Gadget wurde ein virtueller Leopard auf das Auto gesetzt mit dem die Messebesucher interagieren konnten.

-> Sollte noch kein Modell zu einem Konzeptauto bestehen kann den Besuchern mit Hilfe von AR eine Virtuelle Version präsentiert werden. Diese Möglichkeit nahm Toyota im Jahr 2008 war, als sie den Toyota Scion präsentierten.

19

INTERIOR BEREICH- Auch im Interieur Bereich des Autos gibt es heut zu Tage viele Anwendungsgebiete in denen AR ein-gesetzt wird.

- Headup Displays- Datenbrillen- Holographic Dashboards

• Mercedes Headup Display 2012 • Hunday Konzept?• VW Holographic Dashboard?

20

2.1 Einsatzgebiete von AR im Auto Interieur

AR kann im Auto Interieur verschieden eingesetzt werden. Im Folgenden möchte ich auf ver-schieden mögliche Methoden eingehen

21

2.1 Einsatzgebiete von AR im Auto Interieur

HEADUPDISPLAYS-> Viele Unfälle im Straßenverkehr passieren, da Fahrer abglenkt waren und nicht auf den Verkehr geachtet haben.

-> Mit Hilfe von Headup Displays kann sich der Fahrer besser auf den Straßenverkehr konzent-rieren und muss seinen Blick nicht von der Straße abwenden um auf das Navi oder Dashboard zu sehen.

-> Headup Displays sind heut zu Tage schon in vielen Autos verbaut. Sie zeigen dem Fahrer zusätzliche Informationen auf der Frontscheibe seinen Fahrzeugs an-> Das erste Headup Display wurde 2003 von BMW für die neue 5er Limusine in Serie Gebracht

-> Headup Displays wurden im Lauf der Jahre stetig weiterentwickelt und verbessert. Den-noch beruhen weiterhin viele Anzeigelemente an statischen Informationen und der Straßenver-kehr kann noch nicht vollständig mit einbezogen werden. So kann ein Fußgänger, der die Straße überquert, bespielsweise nicht als Gefahr ge-kennzeichnet werden.

-> Hunday stellte im Jahr 2015 ein Headupdisplay vor, dass mit Hilfe von einem sog. „Transparent Pillar“ funktioniert. Dabei Handelt es sich um ein großes Headupdisplay, dass die gesammte Sicht der Windschutzsscheibe integrieren soll. Mit dieser Technologie wäre es auch möglich alle Aktionen rund um das fahrende Auto mit einzu-beziehen. Das erste Konzept dazu stelle Jaguar im Dezember 2014 vor. In diesem Video werden verschiedene denkbare Ansätze gezeigt. So kann der Fahrer z.B anstatt von Navi-Anweisungen einem Goastcar folgen, der dem ihm den Weg lei-tet. Dieses Situation kann z.B an Kreuzungen mit mehreren Abbiegemöglichkeiten hilfreich sein, da der Fahrer so sicher dem Goastcar hinterherfah-ren kann und sich nicht von irreführenden Pfeilen des Navis leiten lassen muss.

22

Display

Combiner

Betrachter

Optikmodul(Spiegle)

Windschutzscheibe

Kurze Funktionsbeschreibung eines HeadupDis-plays:

-> Headup Displays bestehen in der Regel aus einem Display, einem Optik Modul und einem Combiner

-> Auf dem Display werden die Daten angezeigt diese werden dann mit Hilfe der Optik an einen Combiner gespieglt. Unter Optik versteht man hierbei das Ausbreiten des Lichtsprektrums. Bei einem Combiner handelt es sich um eine durch-sichtige Scheibe, auf der es möglich ist Daten an zu zeigen ohne dass der Hintergrund dabei ver-schwindet. Er bildet also ein Display zwischen der Realität und der Virtualität.

-> Die Headupdisplay Anzeigen können in 2 Punk-ten unterschieden werden:

statische Informationenkontaktanaloge Informationen

-> Bei statischen Informationen handelt es sich um Anzeigen, die dem Fahrer jederzeit angezeigt werden während kontaktanaloge Informationen

Realitätsbedingt angebeldent werden, wie z.B Anweisungen eines Navigation Systems

23

DATENBRILLE

-BMW entwickelt erste Datenbrille für das Auto-fahren

- Vorteile- Nachteile

24

HOLOGRAPHISCHES DASHBOARD

- Gerade in der Entwicklung- VW hat bereits ein Konzept dazu vorgestellt

25

2.2 Fazit

Vor und Nachteile aus den verschiedenen Einsatzgebieten gewinnen. Vergleiche Auto-Interieur AR Systeme?

26

3.0 Anforderungen an ein User Experience Design

Mit der fortschreitendem Entwickeln von Augemented Reality Anwendungen steigt auch der Anspruch an das User Experience Design dieser Systeme. In diesem Kapitel möchte ich auf den Begriff User Experience eingehen und klären, welche Elemente für ein gutes UX Design notwendig sind.

27

3.0 Anforderungen an ein User Experience Design 3.1 Was ist UX Desigen?

Der Begriff User-Experience-Design, im folgenden UX-Design genannt, ist ein umfassender Begriff für das Designen eines Produkts nach Nutzerbe-dürfnissen. Das heißt, dass in jedem Schritt des Designprozess der Nutzer mit einbezogen wird und sich das Design seinen Bedürfnissen an-passt.Ich möchte mich im folgenden an das Diagramm „Elementes of User Experience“ von Jesse James Garrett orientieren um den Prozess eines guten UX-Design besser aufzeigen zu können.Jesse James Garrett teilte den Prozess in 5 Ebe-nen ein:

• Die Oberfläche• Das Raster• Die Struktur• Der Anwendungsbereich• Die Strategie

Mit Hilfe dieser Einteilung ist es ihm gelungen eine strukturierte Arbeitsweise zu entwickeln, in der er sich von Abstrakter Ebene zu Konkreten Darstellungsweisen heranarbeitet. Jede Ebene ist von der darunterliegenden Abhän-gig und jede Entscheidung die auf einer Ebene gemacht wird, beeinflusst die nächste Ebene.

Sollte sich auf einer Ebene ein Fehler feststellen müssen die Entscheidung auf darunter liegenden Ebenen eventuell neu durchdacht werden. Aus seinem Model geht klar hervor, dass alle Ebe-nen von einander abhängig sind und somit alle unteren Ebenen das Fundament für die nächste bilden. Jede Ebene ist in 2 Segmente Unterteilt. Auf der linken Seite steht die Funktionalität und auf der rechten Seite alle Informationen zum Produkt. So lässt sich der Fokus auf jeder Ebene nochmal genauer betrachten.Im folgenden möchte ich anhand der 5 Ebenen von Jesse Games Garret, auf den Prozess eines Userexperience Design eingehen.

28

DIE STRATEGIE EBENEDer Umfang, den ein Projekt annehmen kann, wird in erster Linie durch die verfolgte Strategie festgelegt. In dieser Strategie wird definiert was das Produkt können muss und welche Ansprü-che somit der Nutzer an das Produkt hat. Für die Umsetzung und Definition dieser Ziele gibt es verschiedene Methoden und Ansätze, die verfolgt werden können um am Ende die Anforderungen des an das Produkt sowie die Bedürfnisse des Nutzers herausfiltern zu können.

DIE ANWENDUNGSEBENENachdem auf der Strategieebene geklärt wurde, was gebraucht wird und was der Nutzer will, kann auf der Anwendungsebene nun genauer auf die Funktionalitäten und die inhaltlichen Anforderun-gen eingegangen werden. Oft wird ein Produkt mit möglichen Funktionen überhäuft ohne jegliche Hintergrundgedanken, ob diese Funktionen auch wirklich nötig sind. Auf dieser Ebene wird mit Hilfe einer Funktionspezifikation genau herausge-arbeitet welche Funktion für das Produkt und für den Anwender sinnvoll ist und wie viel Aufwand hinter jeder dieser Funktionen steckt. Ebenso wie die Zusammenhänge zwischen verschiedenen Funktionen.

DIE STRUKTUREBENEMit der genauen Prioisierung der Funktionen aus der Anwendungsebene kann auf dieser Ebene nun ein strukturiertes Konzept erarbeitet werden. Auf dieser Ebene wird unterschieden zwischen In-teraktion Design und der Informationsarchitekur. Beide Bereiche sind wichtig um ein strukturiertes Konzept aufstellen zu können. Unter Interakti-ondesign wird hier verstanden, wie der Nutzer mit dem Produkt interagiert und welche reaktionen ihm darauf gegeben werden. Die Informationsar-chitecktur beinhaltet den Aufbau von Informati-onen die das System dem Nutzer liefert und wie der Nutzer mit den, ihm zur Verfügung stehenden, Informationen umgeht.

29

DIE RASTEREBENE

DIE OBERFLÄCHE

30

3.2 Computer Mensch Interaktion

-> Computer Mensch Handlungsräume-> Mögliche Interaktionen bei AR Anwendungen im Automobilbereich

31

3.3 Interfacedesign

Was ist für ein gutes Design wichtig? (AR Systeme müssen so gestaltet sein, dass sie die menschliche Sinneswahrnehmung optimal ansprechen)Worin liegen die Schwierigkeiten bei AR Anwendungen (Auto)?

32

3.4 Fazit / Kriterien

33

3.5 Designanalyse bestehender AR Konzepte in der Au-tomobilbranche

34

3.5.1 Fazit (Vorteile Nachteile)

35

4.0 Lösungsansätze für die Umsetzung einer AR An-wendung im Automobilbereich

-> Eigene Aufgabenstellung, wie sieht meine Lösung aus? Im welchem Rahmen findet die Lösung statt

-> Zuvor in Designanalyse festgestellte Nachteile

-> Was muss für das Design bedacht werden? Schwierigkeiten? -> Lösung-> Was muss technisch beachtet werden? -> Lösung-> Was muss für die Interaktion zwischen Mensch und System eingehalten werden? -> Lösung