Al sinds de eerste versie van Windows bedienen we de computer met een toetsenbord en muis. En ondanks allerlei pogingen is het eigenlijk nooit gelukt om dat te veranderen. Natuurlijk heb je tegenwoordig touchscreens, de standaard manier waarop we een smartphone en tablet bedienen. En ook begint spraak heel voorzichtig onderdeel te worden van hoe we een computer bedienen, maar eigenlijk blijven we maar vasthouden aan de klassieke combinatie van toetsenbord en muis.
Bij Microsoft zitten ze echter niet stil. Het bedrijf heeft sinds Windows 8 touchscreen-bediening onderdeel gemaakt van hoe je een pc kan bedienen. En een half jaar geleden introduceerde Microsoft de Surface Dial: een soort draaischijf die vooral voor creatieven een handige toevoeging kan zijn op hoe je bepaalde applicaties bedienen. De volgende stap: Microsoft wil dat je met handbewegingen applicaties kan besturen.
Nieuw is dit idee niet. We zagen Tom Cruise hier in Minority Report al een soort van toekomstbeeld van neerzetten. Enkele jaren geleden zagen we Leap Motion deze techniek al werkelijkheid maken, maar in de praktijk was het enkel leuk om een keer mee te spelen. Het bedrijf focust zich nu om zijn trackingtechnologie toe te passen in virtual reality.
Project Prague
Microsoft denkt echter dat gestures daadwerkelijk onderdeel kunnen worden van hoe we onze computer bedienen. Het is op dit moment bezig van de ontwikkeling van een Gesture API die ontwikkelaars kunnen gebruiken in hun applicatie, onder de naam Project Prague. De Gesture API kan hand- en vingerbewegingen heel precies detecteren en verwerken met behulp van een Intel RealSense-camera. Deze 3D-camera is los te koop en wordt door sommige pc-fabrikanten al ingebouwd in producten. Later wil Microsoft ook andere 3D-camera’s gaan ondersteunen.
Microsoft wil dat je handbewegingen gaat gebruiken om je computer te besturen. Op de ontwikkelaarsconferentie Microsoft Build, toont het hoe het werkt en wat er mogelijk is met deze technologie #build2017
Geplaatst door Numrush op woensdag 10 mei 2017
Project Prague maakt het mogelijk om op een hele simpele manier, met slechts enkele regels code, een bepaalde handbeweging te herkennen en hier een actie aan te koppelen. De onderzoekers van Microsoft die hier de afgelopen jaren aan hebben gewerkt ontwikkelde bijvoorbeeld al een Angry Birds-achtige game waarbij je de katapult met je handen naar achteren trekt en loslaat.
Maar ook nuttigere toepassingen, zoals het draaien en kantelen van objecten in Powerpoint door je hand te draaien. Dit gaat daadwerkelijk sneller dan met de muis. Of wat dacht je van het beëindigen van een Skype-call door met je hand een telefoon na te doen die je op de haak legt?
Een andere hele toffe toepassingen was de mogelijkheid om in videochat bepaalde animaties toe te voegen die passen bij een beweging. Houd je je hand ondersteboven en doe je hem open? Dan doe je letterlijk een micdrop! Het idee doet denken aan een Snapchat-filter, maar dan kiest de applicatie automatisch de animatie die bij de handbeweging past.
In ontwikkeling
Helaas is Project Prague op dit moment nog in ontwikkeling. Het is dus nog niet zomaar door alle ontwikkelaars te gebruiken om bediening met handbewegingen toe te voegen aan hun applicaties. En sowieso is het noodzakelijk dat gebruikers een 3D-camera hebben voordat ze er mee aan de slag kunnen. Geïnteresseerde ontwikkelaars kunnen zich melden bij Microsoft als ze als één van de eersten gebruik te maken van de Gestures API.
Of het Microsoft lukt om handbewegingen onderdeel te maken van hoe we onze computer bedienen is dan ook afwachten, maar dit is in ieder geval een hele toffe poging.