Programm des BGI-Workshops 2014

Zeitplan Sonntag 31. August 2014

 

09:00 – 09:15 Uhr   Begrüßung

09:15 – 10:15 Uhr   Gastvortrag
Raphael Wimmer: Be-greifend: Wie kann Grifferkennung Be-greifbare Interaktion ergänzen und verbessern?

10:15 – 10:30 Uhr   Kaffeepause

10:30 – 12:00 Uhr   Session 1: be-greifbar Verstehen
Oliver Schweikart / Kirstin Kohler / Daniel Litwin:  Auf magische Weise begreifbar? Linsen in der radiologischen Bildbefundung.

Gregor Buchholz / Peter Forbrig: Modellierung für Smart Environments mittels Tangible InterfacesModellierung für Smart Environments mittels Tangible Interfaces.

Joachim Nitschke / Martin Christof Kindsmüller. Ein be-greifbares Werkzeug zur Manöverplanung im Hafenleitstand.

12:00 – 13:00 Uhr   Mittagspause

13:00 – 14:00 Uhr   Session 2: be-greifbar Gestalten
Michaela Honauer / Eva Hornecker: Exploring Interactive Costumes.

Patty Gadegast / Diana Löffler / Christine Goutrié / Steffi Hußlein / Jörn Hurtienne: FIS-Dials: Interaktionsmodelle zur Unterstützung der Gestaltung haitischer Benutzungsschnittstellen.

14:00 – 14:15 Uhr   Kaffeepause

14:15 – 15:45 Uhr   Session 3: be-greifbar Partizipieren
Lukas Loss / Daniel Drochtert / Michael Hogen / Jörn Hornig / Alina Huldtgren / Christian Geiger. „Public Brewing“ – eine interaktive Medienfassade mit einer begreifbaren Nutzerschnittstelle.

Gunnar Stevens / David Maslim / Annika Placke / Blum Daniel: eBon: Eine Designstudie zum Verbraucherschutz 2.0.

Peter Judmaier / Gernot Rottermanner / Sabine Sommer / Lucas Schöffer / Johannes Pflegerl: Probleme mit Tangible Interfaces im Ambient Assisted Living.

15:45 – 16:30 Uhr   Diskussion aller Beiträge

16:30 – 16:45 Uhr   Resümee und Verabschiedung

16:45 – 17:00 Uhr   Kaffeepause

17:00 – 17:45 Uhr   Sitzung der GI-Fachgruppe Be-greifbare Interaktion

Informationen zum Gastvortrag

Raphael Wimmer: Be-greifend: Wie kann Grifferkennung Be-greifbare Interaktion ergänzen und verbessern?

„Die Art, wie wir ein physisches Objekt greifen, hängt von mehreren Faktoren ab – unter anderem davon, was wir damit machen wollen. Umgekehrt kann man aus der Art, wie das Objekt gegriffen wird, schlussfolgern, was der Benutzer damit vorhat.
Objekte mit griff-empfindlichen Oberflächen liefern deshalb wichtige Kontextinformationen, die die Interaktion mit dem Objekt bereichern können.
Beispielsweise kann ein griff-empfindliches Mobiltelefon erkennen, ob der Benutzer gerade damit telefonieren, ein Foto knipsen oder eine Nachricht schreiben will – und schaltet automatisch in den entsprechenden Modus.
Der Vortrag gibt einen Überblick über Modelle, Techniken, Möglichkeiten und Limitierungen von Grifferkennung für die Mensch-Maschine-Interaktion.“

http://www.uni-regensburg.de/sprache-literatur-kultur/medieninformatik/sekretariat-team/raphael-wimmer