Home Multimodale, berührungslose Interaktion für Next Generation Media
Article
Licensed
Unlicensed Requires Authentication

Multimodale, berührungslose Interaktion für Next Generation Media

  • Monika Elepfandt

    Dipl.-Psych. Monika Elepfandt ist Doktorandin am Graduiertenkolleg prometei sowie am Fachgebiet Mensch-Maschine-Systeme. Sie leitet das Projekt MuToAct. Ihre Hauptarbeitsfelder sind Multimodalität, berührungslose Interaktion im realen 3D-Raum und Interaktion mit Large Wall Displays.

    TU Berlin, GrK prometei Sek MAR 3-3, Marchstr. 23, 10587 Berlin

    , Anne Wegerich

    Dr.-Ing. Anne Wegerich ist Post-Doc am Fachgebiet Mensch-Maschine-Systeme der TU Berlin. Ihr Hauptarbeitsfeld ist nutzergerechte Augmented Reality Interaktion in Next Generation Media.

    TU Berlin, FG MMS Sek MAR 3-1, Marchstr. 23, 10587 Berlin

    EMAIL logo
    and Matthias Rötting

    Prof. Dr.-Ing. Matthias Rötting ist Leiter des Fachgebietes Mensch-Maschine-Systeme der TU Berlin. Seine Hauptforschungsfelder sind nutzergerechte Systemgestaltungen, sowie natürliche und effiziente technische Interaktionsformen.

    TU Berlin, FG MMS Sek MAR 3-1, Marchstr. 23, 10587 Berlin

Published/Copyright: November 16, 2013

Zusammenfassung

Im Bereich Next Generation Media (NGM) muss mit neuen Interaktionsformen dem Problem der Diskrepanz zwischen verfügbarer Informationsmenge und den nur wenigen möglichen Anzeigeflächen begegnet werden. Dazu beschreibt der Artikel vergleichende Experimente für mögliche Eingabemodalitäten zur natürlichen und berührungslosen Steuerung der NGM. Die Ergebnisse zeigen, dass sich die Kombination aus Zeigegesten und Sprachsteuerung besser hinsichtlich ihrer Usability eignet als Gesten allein oder die Kombination aus Blick und Sprachsteuerung.

Abstract

For the Next Generation Media (NGM) new forms of interaction are needed to cope with the huge amount of possible information for a limited number of displays which are provided in the environments. Therefore, this article describes experiments which compare different interaction modalities for this challenge. The results show that the combination of pointing and speech supports usability and the handling of information in touchless NGM information spaces better than gesture alone or the combination of gaze and speech.

Über die Autoren

Monika Elepfandt

Dipl.-Psych. Monika Elepfandt ist Doktorandin am Graduiertenkolleg prometei sowie am Fachgebiet Mensch-Maschine-Systeme. Sie leitet das Projekt MuToAct. Ihre Hauptarbeitsfelder sind Multimodalität, berührungslose Interaktion im realen 3D-Raum und Interaktion mit Large Wall Displays.

TU Berlin, GrK prometei Sek MAR 3-3, Marchstr. 23, 10587 Berlin

Anne Wegerich

Dr.-Ing. Anne Wegerich ist Post-Doc am Fachgebiet Mensch-Maschine-Systeme der TU Berlin. Ihr Hauptarbeitsfeld ist nutzergerechte Augmented Reality Interaktion in Next Generation Media.

TU Berlin, FG MMS Sek MAR 3-1, Marchstr. 23, 10587 Berlin

Matthias Rötting

Prof. Dr.-Ing. Matthias Rötting ist Leiter des Fachgebietes Mensch-Maschine-Systeme der TU Berlin. Seine Hauptforschungsfelder sind nutzergerechte Systemgestaltungen, sowie natürliche und effiziente technische Interaktionsformen.

TU Berlin, FG MMS Sek MAR 3-1, Marchstr. 23, 10587 Berlin

Erhalten: 2013-7-15
Online erschienen: 2013-11-16
Erschienen im Druck: 2013-11-1

© 2013 by Walter de Gruyter Berlin Boston

Downloaded on 28.10.2025 from https://www.degruyterbrill.com/document/doi/10.1524/auto.2013.1047/html
Scroll to top button