Your wishlist is empty
Eye Tracking und Gestensteuerung bieten neue Möglichkeiten: Vor zwölf Jahren machte das iPhone von Apple mit einem neuen Bedienkonzept Furore. Die Tastatur wurde durch einen Touchscreen ersetzt, die gesamte Vorderseite des Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewe- senen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, das auch mehrere Touchereignis- se gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer völlig neuen Art der Benutzerführung über Software. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen.
Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. ‚Drag and Drop‘ oder ‚Pinch‘ funktionieren aus dem Handgelenk, ohne umständlich über Menüs Objekte auszuwählen und eine Aktion zuzuordnen. Diese Um- stellung verlangt eine völlig neue darunter liegende Software und damit einhergehend ein neues Bedienkonzept.
Den kompletten Artikel können Sie als PDF downloaden: