Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan
 

Moeten we écht alles gaan bedienen met bewegingen?

Kris Vanstappen

 
De huidige user interfaces zijn langzaam aan het evolueren van interfaces met toetsen en knoppen (op het toestel zelf of op het scherm) naar een interface die zuiver gemanipuleerd wordt door bewegingen. Termen als swipe, pinch en flick klinken misschien nog wat onwennig, maar wat ze doen, leren steeds meer mensen. Maar is het eigenlijk nog wel leren? Of weten we onbewust al wat te doen?

Tegenwoordig bestaat de doorsnee smartphone enkel nog uit een grote touchscreen, gebruik je je eigen lichaam als controller bij het spelen van videospelletjes en bladeren we rustig door een e-book op onze tablet.

De bewegingen of zogenaamde gestures hebben ervoor gezorgd dat we soms heel natuurlijke bewegingen kunnen gebruiken om onze toestellen te bedienen. Als je op een tablet een e-book leest, kun je met een swipe de pagina’s omdraaien, heel vergelijkbaar met hoe je dat bij een papieren boek zou doen. Dit maakt de interface meteen een heel stuk intuïtiever in gebruik.

Andere bewegingen komen niet meteen in het dagelijkse leven terug, maar voelen wel logisch, waardoor je ze snel oppikt. Een mooi voorbeeld daarvan is pinch en spread. Er is geen vergelijkbare situatie in het dagelijkse leven waarbij je dezelfde beweging zou gebruiken, maar het is op zich wel logisch dat je je vingers bij elkaar trekt om iets kleiner te maken en ze uit elkaar spreidt om iets groter te maken.

Soms wil men echter te ver gaan en zo goed als alle bestaande user interface elementen vervangen door bewegingen. Het resultaat is dat de gebruiker een heel aantal bewegingen moet onthouden om het toestel in kwestie optimaal te kunnen bedienen. Bovendien zijn er nergens nog visuele aanwijzingen om de gebruiker te tonen of en hoe hij een bepaald schermobject kan manipuleren, waardoor veel (essentiële) functies hem zullen ontgaan.

Zo zag ik laatst een demonstratie van Windows 8 op een tablet. De demonstrateur in kwestie toonde een opeenvolging van bewegingen die  ik op eigen houtje nooit bedacht zou hebben om te proberen. Toen ik achteraf de tablet in mijn handen geduwd kreeg, had ik er moeite mee om te achterhalen achter welke bewegingen functionaliteiten verborgen zaten. Aangezien bewegingen net bedoeld zijn om de user interface intuïtiever te maken, schoot men in dit geval dus het doel voorbij.

Met een andere aanpak kan het vervangen van user interface elementen door bewegingen echter wél werken. Neem SixthSense, een draagbaar gestural interface toestel, ontworpen door Pranav Mistry. SixthSense is een compact toestel dat je rond je nek kunt dragen en waarin een kleine projector, een spiegel en camera vervat zitten. De projector projecteert visuele informatie, waardoor muren en andere objecten rondom ons veranderen in user interfaces. De camera registreert de handbewegingen van de gebruiker, waardoor je met een aantal natuurlijke bewegingen de geprojecteerde informatie kunt manipuleren.

Zo kun je bijvoorbeeld op de muur een schets tekenen met je vingers. Of je maakt een foto van iets door met je handen een fototoestelbeweging te maken. De camera herkent dan de beweging en maakt een foto. Ik twijfel er niet aan dat in de toekomst technieken zoals die van SixthSense in het dagelijkse leven zullen integreren.

Evolueren we naar een toekomst waarin ons lichaam zelf de interface wordt? Allicht wel: maar dan moeten de nieuwe interfaces niet alleen simpel zijn, ze moeten ook eenvoudig aan te leren zijn voor iedereen. En dat tweede deel wordt momenteel nog iets te vaak vergeten…

 

Reacties

comments powered by Disqus
 

RECENT NIEUWS