KE2 - Zusammenfassung Einführung in Mensch-Computer-Interaktion PDF

Title KE2 - Zusammenfassung Einführung in Mensch-Computer-Interaktion
Author Giuseppe Guglielmi
Course Einführung in Mensch-Computer-Interaktion
Institution FernUniversität in Hagen
Pages 8
File Size 93.8 KB
File Type PDF
Total Downloads 20
Total Views 147

Summary

Zusammenfassung Einführung in Mensch-Computer-Interaktion...


Description

2.1 Informationsübertragung - Es gibt 2 Richtungen der Informationsübertragung 1. Dateneingabe: vom Menschen zum Computer 2. Datenausgabe: vom Computer zum Menschen. Erfordert meist visuelle Verarbeitung. Audio hat meist nur ergänzenden Charakter. Die anderen menschlichen Sinne werden nur vereinzelt angesprochen (Vibrationsalarm, Kraftrückkopplung). Bei sekundärer Information spielen das haptische und auditive Feedback hingegen eine große Rolle (Look and feel der Tasten etc.)

- Die Schnittstellenwahl legt die Rahmenbedingungen fest, innerhalb derer sich die weiteren Gestaltungsmöglichkeiten bewegen. Grundlage fast aller Schnittstellen sind die sensorischen und motorischen Fähigkeiten des Menschen.

2.1.1 Informationstransfer vom Computer zum Menschen Visuelle Ausgabemechanismen

- Das physische Erscheinungsbild eines System zählt zu den grundlegenden Mechanismen, wie Informationen vom System zum Menschen übertragen werden. Meist werden große Mengen statischer Informationen übertragen, die unbewusst verarbeitet werden und u.a. anleiten, wie das System zu bedienen ist, in welchem Zustand es sich befindet usw.

- passive Mechanismen: meint das physische Erscheinungsbild und umfasst die Form eines Systems, die Beschriftung, Form und Anordnung einzelner Eingabemechanismen (z.B. Form der Fernbedienung deutet an, wie zu halten (Gewicht unten, Gruppierungen etc.)). Passive Mechanismen bestehen aus:

- einfache, aktive Ausgabeelemente: Zeiger auf Skalen, Lichtsignale. Sie geben den aktuellen Systemzustand zu jedem Zeitpunkt auf einen Blick an (siehe Labornetzteil: Regler und Anzeige so angeordnet, dass deutlich ist, dass sie zusammengehören).

- Erweiterung der einfachen, aktiven Ausgabeelemente: sind alphanummerische Anzeigen (Zahlen, Buchstaben und Symbole, siehe Produktionsstandanzeige) • Unterschied statische und alphanummerische Anzeige: Die statische Beschriftung ändert sich nicht und ist dem User nach einer Einarbeitungszeit bekannt. Die Beschriftungen sind dann im Mentalen Modell des Systems, das sich der User macht, eingebaut und aufgrund der sonstigen Erfahrung weiß der User, dass sich die Beschriftungen nie ändern. Der kognitive Aufwand für die Verarbeitung nimmt mit der Zeit entsprechend stark ab. Bei alphanummerischen Anzeigen hingegen weiß der User aufgrund seiner Erfahrungen, dass sich die dynamischen Anzeigen potentiell ändern können, weshalb sich der kognitive Aufwand für die Verarbeitung nicht in dem Maße verringert, wie bei statischen Anzeigen. Wie sich der Aufwand reduziert, hängt auch davon ab, wie häufig/selten sich die alphanummerische Anzeige ändert.

- grafische Anzeigeelemente (2D): bieten eine größere Flexibilität bei der Übertragung visueller Informationen. Bildpunkte werden Pixel genannt (siehe Bsp. Cockpit). Die Flexibilität birgt jedoch auch eine große Anzahl an Fehlerquellen • Softkeys: sind Hardware-tasten außerhalb des Bildschirms, deren jeweilige Funktion vom jeweiligen Interaktionskontext abhängt (dynamische Anpassung, Cockpit).

- Vorteile: Es können nahezu beliebig viele Informationen angezeigt werden - Nachteile: Aus dem Vorteil -> Informationen, die gleichzeitig dargestellt werden können, sind begrenzt. Es kann also passieren, dass zwei wichtige Informationen nicht gleichzeitig dargestellt werden können. Zudem kann es passieren, dass der user immer erst prüfen muss, welche Funktion die Taste gerade anbietet. Eine blinde Steuerung im Notfall wird damit unmöglich. Die Abhängigkeit von nur einem Ausgabesystem bedeutet

MCI, KE 2

1  von 8 

auch, dass es bei Ausfall oder ungünstigen Lichtverhältnissen nicht mehr genutzt werden kann.

- grafische Anzeigeelemente (3D): es geht um die Erweiterung der 2D-Anzeige um eine scheinbar 3-dimensionale Darstellung (z.B. Computerspiele) • Bewegungsparallaxe (sequentiell): bezeichnet die scheinbare Änderung der Position eines Objekts im Auge des bewegenden Betrachters (Blick aus fahrendem Zug: nah = schnelle Bewegung). Für 3D-Szenen wird die Kopfposition erfasst und die Perspektive auf die 3DSzene entsprechend angepasst (nutzt also die Parallaxe auf 2D-Monitor aus, um 3D darzustellen). • Stereoskopie: basiert auch auf Parallaxe, ist jedoch gleichzeitig durch beide Augen wahrnehmbar. Aufgrund des Augenabstandes nimmt jedes Auge die Umgebung aus einer etwas anderen Position war. So verändert sich die Position einzelner Objekte umgekehrt proportional zu ihrer jeweiligen Distanz (geringe Entfernung = hohe Änderung) => heißt auch stereoskopische Deviation. 2D-Bild wird mit verschobener Perspektive (im Augenabstand) dargestellt, wodurch 3D-Eindruck entsteht. • Volumendisplays: stellen eine echte 3-dimensionale Ausgabe dar, bei der die Pixel im Raum angeordnet sind (Voxel). Bewegungsparallaxe

- einfachste Methode, um Ausgabe visueller Daten räumlich wirken zu lassen. Bei Spielen in den 80er Jahren schon eingesetzt.

- intensiver wird der Effekt, wenn die Kopfposition getrackt wird. - MCI-Lehrstuhl nutzt einen Kinect-Sensor, mit dem die Kopfposition erfasst wird. dadurch kann eine 3-dimensionale Erfassung der Umgebung in Echtzeit erfolgen. Anders als bei anderen Systemen muss die Person keine Markierung am Kopf tragen und kann sich frei im Raum bewegen. Die 3d-Szene wird auch nicht auf einem Monitor, sondern auf einer Tischplatte wiedergeben. Die Projektion passt sich der Kopfbewegung an (Kaffeekanne). Stereoskopie

- die meisten 3d-Ausgabesysteme nutzen Stereoskopie. Es werden Shutterbrillen verwendetet, die mit hoher Frequenz abwechselnd je ein Auge verschließen (Blenden).Synchron dazu wird die passenden Bilder dargestellt. Nachteil des Verfahrens: Energieversorgung, Kommunikation, Gewicht etc. Zudem kann das Bild flackern, wenn die Frequenz zu gering ist. Bei der Poarisationsbrille wird polarisiertes Licht verwendet. Es schwingt in einer vorgegebenen Richtung und kann über optische Filter durchgelassen oder herausgefiltert werden. Bilder werden für beide Augen gleichzeitig projiziert, jedoch mit unterschiedlicher Polarisation (Brille mit unterschiedlichen Filtern für jedes Auge).

- HDM: ermöglicht dem User, eine 3D-Szene von innen zu betrachten (nicht nur von außen, wie bei obigen Verfahren (2D-Darstellung täuscht 3D vor), also „echte“ VR). Bilder werden in kleinen Displays wiedergegeben, die in einem kurzen Abstand zum Auge angebracht sind und die sich für das jeweilige Auge unterscheiden. Gerne wird auch die Kopfposition gemessen, um die Perspektive anzupassen. Viele Systeme decken leider nur einen kleinen Teil des Sichtfeldes ab, wodurch ein Tunnelblick entsteht. Da die Augen bei HDM auf den Nahbereich fokussiert sind, treten bei längerer Nutzung Ermüdungserscheinungen auf. Abhilfe könnte die Projektion auf die Retina bringen, an der noch geforscht wird.

- CAVES: auf Wänden, Decke und Boden ist die 3D-Umgebung dargestellt (meist Rückprojektion). Man nutzt Shutter- oder Polarisationsbrille, die den §D-Effekt unterstützen. Vorteil: mehrere User können im Raum sein und er kann mit realen Dingen kombiniert werden.

MCI, KE 2

2  von 8 

Volumendisplays

- es gibt 4 Ansätze: - Plasmaentladung: energiereicher Laser im infraroten Spektrum wird auf einen Punkt im Raum gerichtet. Die Plamaentladung wird als leuchtender Punkt wahrgenommen. Eine schnelle Abfolge ermöglicht eine Darstellung räumlicher Strukturen.

- Projektion: Kern ist eine um 45 Grad geneigte Projektionsfläche, die mit einer Geschwindigkeit von 15 bis 20 Hz rotiert. Pro Umdrehung werden 288 Bilder auf die drehende Fläche projiziert, die jeweils das 3D-Objekt aus der entsprechenden Blickrichtung darstellt. Der 3D-Eindruck entsteht nur orthogonal zur Drehachse (hier: horizontal). Vorteil des Verfahrens: Mann kann auch räumlich opaque (undurchsichtige) Flächen erzeugen.

- rotierende LEDs: schnell rotierender Körper, auf dem selbstleuchtende Elemente (LEDs) angebracht sind. Durch die Rotation entsteht ein Rotationsvolumen. Jeder Punkt ist bei einer Umdrehung sichtbar und leuchtet zeitlich entsprechend auf (Voxel). Hier wird die Trägheit des menschlichen Auges ausgenutzt. Herausforderung: Die großen Datenmenge auf den rotierenden Körper zu übertragen.

- direkte räumliche Anordnung der leuchtenden Elemente: einfach Ansteuerung. Nachteil: geringe Auflösung und intransparente Stütztstruktur, die zu einer teilweisen Selbstüberdeckung führt. gestapelte und transparente LCD-Anzeigen sollen Abhilfe schaffen, die jedoch neue Probleme hervorbringen, die aus der Brechung der Glasträger entstehen. Alternative könnten transparente selbstleuchtende OLED-Displays sein (organic light-emitting diode). Auditive Ausgabemechanismen

- auditive Informationsübertragung findet nur zum Zeitpunkt statt, zudem sie vom Sender initiiert wurde. Ist der Empfänger nicht anwesend, findet kein Transfer statt. Dauerhafte Wiederholung nur bei Alarmsignalen, da im Normalfalls äußerst störend.

- Auditive Übertragung lässt sich schlechter abschirmen als visuelle. - einfachste Form: akustisches Feedback (Maustaste, Tastatur). Ohne Geräusche würden die Geräte als schwammig und unpräzise empfunden. Ereignis und Wahrnehmung fallen zeitlich zusammen! Das muss auch bei berührungsempflindlichen Tastaturen so sein (verzögerungsfrei, sonst kontraproduktiv). Klickgeräusche von virtuellen Tastaturen können deren Bedienbarkeit verbessern (siehe Spiegelreflexkamera und Kompaktkameras: Ton soll den Eindruck von Wertigkeit und Professionalität transportieren.).

- Tongestaltung: siehe Kameras. Spielt bei hochwertigen Produkten eine wichtige Rolle (auch Sounddesign).

- Die meist nicht aktiv gestalteten, charakteristischen Geräusche eines Systems, die den jeweiligen Zustand emitieren sollen, unterstützen die Verarbeitung, weil sie von den jeweiligen charakteristischen Geräusche abweichen und somit unterscheidbar sind. Erst das Ausbleiben dieser Geräusche oder eine Veränderung weckt die Aufmerksamkeit des Users (Summen der Mikrowelle). Solange die Geräusche dem internen Systemmodell entsprechen und damit der Erwartung, werden sie unbewusst verarbeitet. Erst bei Abweichungen erfolgt eine bewusste Wahrnehmung.

- intendierte, akustische Signale: Ping-Geräusch der Mikrowelle, das einen Zustandswechsel anzeigt. Man kann allerdings nicht davon ausgehen, dass das Feedback vom User wahrgenommen wird (nicht anwesend). Analog: E-Mail-Programm: Posteingangston. Akustische Signale sind also eine Ergänzung.

- Sprachausgabe: auditive Informationsübertragung auf einem höheren semantischen Niveau (Navi). Anwendungen meist für spezielle Zielgruppen (Sehbehinderte) oder für Anwendungen, bei denen User seine visuelle Aufmerksamkeit für andere Aufgaben benötigt (Navi).

MCI, KE 2

3  von 8 

Haptische Ausgabemechanismen

- Die physischen Eigenschaften eines Systems und seiner einzelnen Komponenten übertragen auch Informationen, die meist unbewusst verarbeitet werden (betätigen eines Drehreglers mit Einrasten).

- Auch die Form und Anordnung der haptischen Interaktionselemente unterstützen das Erlernen von Automatismen. Insbesondere Elemente ohne visuelle Verarbeitung eignen sich für den Aufbau automatisierter Fähigkeiten, die auch in Notsituationen mit eingeschränkter kognitiver Leistungsfähigkeit aufgerufen werden können 8Pilot verinnerlicht Bewegungen im Cockpit, weil sie ständig gleich sind).

- aktives haptisches Feedback: Kraftrückkopplung. Beispiel: Phantom (stiftartiges Instrument, das in den drei Raumrichtungen und drei Rotationsachsen frei bewegt werden kann). Man kann das Objekt durch Kraftrückkopplung auch erspüren, nicht nur sehen.

- Exoskelette: ermöglichen eine noch weitergehende Kraftrückkopplung. Sie erfassen die natürlichen Bewegungen des Users und versuchen sie aktive durch Kraftrückkopplung zu beeinflussen (Arm-Exoskelett: Manipulation eines Roboterarms durch menschlichen Arm. Hierdurch intuitive und feinfühlige Steuerung. Auch medizinische Nutzung in Reha oder in VR).

- Vibrationssignale: bei Mobiltelefonen und Eingabegräten von Spielekonsolen. Unwucht wird durch kleinen Elektromotor angetrieben. Die kleine Masse reicht aus, um die Vibration zu erzeugen. Es wird die kritische Drehzahl ausgenutzt, die den Effekt der Resonanz im Gesamtsystem hervorruft. Durch die Kombination zweier Modalitäten kann die Informationsübertragung deutlich robuster bzw. die Differenzierbarkeit ähnlicher Signale verbessert werden. Vibration macht einem deutlich, dass es das eigene Telefon ist, das im Raum mit mehreren Leuten klingelt, die den gleichen Klingelton haben könnten.

- Braille-Displays: Nischenanwendung. Text wird in ertastbaren Punktmustern dargestellt. Sonstige Ausgabemechanismen

- Drucker. Kann auch Status über Konfiguration, Füllstände etc ausgeben (drucken, wenn kein Display). Form der Interaktion. Sonst nur reine Datenausgabe.

- Weitere Beispiele: Autowaschanlage: Code an Kasse, oder Pre-Paid-Karten bei Mobiltelefonen.

2.1.2 Informationstransfer vom Menschen zum Computer

- komplementär zu Weg: Computer -> Mensch. Schwerpunkt liegt bei den haptischen Interaktionsmechanismen (nicht visuellen, auditiven) Haptische Eingabemechanismen

- im Rückgriff auf die Klassifikation der mechanischen Gleichgewichtslagen in der Physik lässt sich auch das dynamische Verhalten der haptischen Interaktionsmechanismen beschreiben: • stabil: Lage der Kugel kehrt nach einer kleinen Auslenkung wieder in ursprüngliche Lage zurück • labil: Kleine Auslenkung reicht, um Kugel von stabilen Lage fortzutreiben • indifferent: nach kleinen Auslenkung nimmt Kugel neue Lage ein.

- Bei stabilen Lage kann man folgende Zustände unterscheiden: • monostabil: Taste auf Tastatur

MCI, KE 2

4  von 8 

• bistabil: Kippschalter • multistabil: Dreh- und Schiebeschalter

- einfache, haptische Interaktionsmechanismen: • Alle Interaktionsmechanismen sind entweder stabil (mono-, bi- oder multistabil) oder indifferent. • Anordnung der Tasten erfolgte damals nicht mit Blick auf hohe Eingabegeschwindigkeit und einfache Erlernbarkeit, sondern auf möglichst fehlerfreien Betrieb (kein verklemmen). So sind die Tasten noch heute angeordnet: QWERTY/QWERTZ. • Alle Schalter und Regler geben eindirektes, haptisches und visuelles Feedback. Hat der Zustand eine 1-zu-1 Beziehung zu einem Systemzustand, kann der User auf den Systemzustand schließend (erleichtert Erlernen von Automatismen). Falls nicht, muss der User den jeweiligen Kontext berücksichtigen. Dieser zusätzliche kognitive Aufwand erschwert eine einfache und intuitive Bedienung eines Systems.

- komplexere, haptische Interaktionsmechanismen: haben mehr als einen Freiheitsgrad und bestehen meist aus eine Kombination mehrere Mechanismen. Auch hier kann man zwischen monostabilen, multistabile und indifferenten Mechanismen unterscheiden. • monostabil: 3D-Maus und Joystick. Beide Systeme kehren in einen Ausgangszustand zurück, wenn der user keine Kraft ausübt.

- 3D-Maus mit 6 Freiheitsgraden: 3 Freiheitsgrade sind translatorisch (links/rechts, vor/ zurück, hoch/runter), die anderen 3 sind rotatorisch (drehen links/rechts, kippen links/recht und vor/zurück).

- beide Systeme eignen sich für die Steuerung eines Wertes über seine Änderungsrate in horizontaler und vertikaler Richtung (z.B. Perspektive bei Joystick, Mauszeiger bei Maus)

- Steuerknüppel (monostabil) eigenen sich zur Auswahl eines Steuerungswertes aus einem festen Intervall (Lenkradausschlag bei Fleugzeugsimulator z.B.). • indifferent: klassische Maus. ihre Ausgabewerte sind die aktuelle Geschwindigkeiten, also deren Änderungsrate in horizontaler und vertikaler Richtung. Die 1-zu-1 Abbildung von Handund Mauszeigerbewegung ist intuitiver und einfacher als der Steuerknüppel.

- Trackball: ähnliches gilt auch beim Trackball. Prinzip der umgedrehten stationären Maus. Hand- und Mauszeigerbewegung stimmen nicht direkt überein.

- Touchpad: Ähnliches gilt auch hier. Der Finger steuert die Maus. Allerdings bewegt sich der Finger mehr als beim Trackball, weshalb die Bedienung des Touchpads als einfacher und intuitiver wahrgenommen wird.

- Touchscreen: Mauszeiger verschwindet, weil die Elemente direkt mit dem Finger ausgewählt werden. Das beudeutet auch, dass es keine Mouse-over und Mouse-moveEreignisse mehr gibt, die u.a. für Hilfeausgaben genutzt wurden. Außerdem braucht man größere Schaltflächen, weil die Eingabe mit einem Finger unpräziser ist. Auch der zurückgelegte Weg ist nicht 1-zu-1, sondern unpräziser. Längerer Gebrauch ist ermüdender, weil die Hand nicht auf der Arbeitsplatte ruht. • Je einfacher und direkter die Abbildung zwischen dem Modell des zu steuernden Elements und dem Bewegungsmodell der verwendeten Körperteile ist, desto intuitiver ist die Steuerung im Allgemeinen.

- Wii-Remote: besitzt einen eingebauten Beschleunigungssensor und ein optisches System, das die relative Position zum Bildschirm erfasst (Sensorbar, siehe KE1).

- Motion-Capture-Anzug: wird im professionellen Bereich (Film- und Computerspieleindustrie) genutzt, um Gesten zu erfassen. Es kann die vollständige Pose gemessen werden. Es geht um reine Datenakquisition, nicht um Interaktion. Künstlichen Figuren sollen so realistischer wirken.

MCI, KE 2

5  von 8 

- Datenhandschuhe: Sie erfassen die Pose der Hand und können auch mit einem entsprechenden System räumlich erfasst werden. Sie werden für VR-Anwednungen genutzt. Sie sind meist die primäre Schnittstelle zur virtuellen Umwelt.

- Master-Slave-Steuerung: für Steuerung industrieller Robotersysteme. Die Freiheitsgrade des Roboterarms (Slave) werden auf das Eingabesystem (Master) übertragen. Die Steuerung erfolgt relativ, nicht absolut. So kann eine 90 Grad Rotation des Masterarms mit einer 9 Grad Bewegung des Slavearms korrespondieren (untersetzung). Die Freeze-Taste ermöglicht ein Einfrieren, also stoppt die Übertragung zum Slavearm, um z.B. den Masterarm neu zu positionieren. Vorteil der Steuerung: hohe Genauigkeit durch die Untersetzung. Nachteil: Bediener muss sehr konzentriert und trainiert sein. Dennoch ist diese Steuerung deutlich besser, als die verbreitete Einzelsteuerung der jeweiligen Robotergelenke (meist einfache Schalter, z.B. Hubsteiger). Kompliziert wird die Steuerung vor allem dann, wenn nicht ein einzelnes, sondern mehrere Gelenke gleichzeitig bewegt werden sollen. Auditive Eingabemechanismen

- einfache Spracherkennung: Diktiersysteme (müssen kalibriert und trainiert werden). In der Regel sind immer noch Nacharbeiten nötig, weshalb die direkte Eingabe häufig schneller ist.

- Spracherkennungssysteme ohne Training werden meist in einem speziellen Kontext mit wenigen Worten eingesetzt (telefonische Hilfesysteme). Mit Blick auf ubiquitious computing und ambient intelligence wird Sprachsteuerung jedoch weiter an Bedeutung gewinnen (inzwischen schon fortgeschritten, siehe Siri).

- Query By Humming: Musiksuchmaschine, bei der der User eine Melodie vorsummen kann und dann das Lied gesucht wird (Fraunhofer Technologie) Visuelle Eingabemechanismen

- werden meist nur für Datenakquisition genutzt (Scanner, Videotelefonie etc.) - eine semantische Interpretation der Daten, vor allem der Kameradaten, muss noch viele Herausforderungen bewältigen und wird kaum zur Interaktion genutzt. Vorreiter in diesem Bereich ist die Unterhaltungselektronik (Hersteller von Spielekonsolen). • Eingabemechanismen bei Spielekonsolen:

-

Bewegungen der Spieler werden ins Spiel eingebunden Erfassung von Mustern für die Individualisierung von virtuellen Gegenständen im Spiel Erfassung der realen Umgebung fur die Verwendung im AR-bereich (interaktive Brettspiele) Steuerung von Menüs über Gesten.

• Herausforderungen:

- Eingabe muss gegenüber Störungen robust gestaltet sein. Algorithmen erreichen unter Laborbedingungen oft gute Er...


Similar Free PDFs