Met de BitBite foodtracker analyseer je automatisch je eetgedrag via je oor, waarvan geluid en bewegingssensoren de basis moeten zijn. Niet helemaal, natuurlijk. Maar waar hebben we dat nou eerder gehoord?
Het is niet de eerste (en vast niet de laatste) keer dat we een ruw prototype van een aanstaande innovatie voorbij zien komen, om dat vervolgens binnen afzienbare tijd al weer ingehaald te zien worden door een verbeterde versie.
In dit geval al binnen enkele dagen, althans, dat was mijn eerste gevoel toen ik voor het eerst begon te lezen over BitBite en moest denken aan de AIM. Maar de praktijk blijkt toch íets anders, hoewel de introductievideo voor de Indiegogo-campagne van BitBite een soortgelijk beeld schept.
Het belangrijkste obstakel van geautomatiseerde ‘trackers’ blijft het herkennen van voedsel. Bij de AIM maakt een camera een foto die geanalyseerd wordt, maar de resultaten daarvan blijven wisselvallig (neem hem eens mee uit eten bij de Chinees). In de video van de BitBite wordt duidelijk dat het oordopje ons meegeeft dat we te weinig calcium eten en dat we misschien een yoghurtje moeten nemen. Dat doet het op basis van manuele invoer van de gebruiker in de bijbehorende app.
En daar loopt de BitBite tegen een muur, wat mij betreft. De grootste meerwaarde is immers het automatisch registreren van je eten, zonder dat je er aan hoeft te denken om voor of net na elke maaltijd je telefoon te voorschijn te halen om te registreren welke kaakbeweging bij welk gerecht hoort.
Helaas, zowel AIM als BitBit zijn bepaald nog geen slimme tand. Terwijl we daar op wachten, log ik nog maar even door in Foodzy.