Toen Google aankondigde radargebaseerde gebaardetectie toe te voegen aan zijn op handen zijnde smartphone Pixel 4, hebben velen zich afgevraagd of de feature een interessante verbetering of ineffectieve innovatie is. Met andere woorden, is dit een gimmick of een transformatieve manier om te communiceren met onze telefoon?
Meerdere fabrikanten proberen onze aandacht te grijpen met Minority Report-achtige gebaarinterfaces. In de implementatie die LG laat zien met zijn Air Motion in de G8 ThinQ, kun je je hand voor het scherm houden en na detectie een klauwgebaar maken, waarna het toestel na enige seconden het gebaar herkende. Daarna kon je verschillende vormen aannemen die verschillende functionaliteiten ontlsuiten.
Als je denkt dat dat omslachtig is, wacht dan maar totdat je het gezien hebt:
Inderdaad, ongeveer zo effectief als je zou verwachten en de recensies waren dan ook niet mals. Website 9to5Google schreef: "Acht van de tien keer detecteert Air Motion je hand niet en de paar keer dat dit wel werkt, werkt het nauwelijks. Je moet je hand perfect positioneren om dit te laten werken en zelfs dan duurt het veel langer om de feature aan de praat te krijgen."
Tom's Guide was zelfs directer: "In theorie zijn Hand ID en Air Motion revolutionair. In de praktijk wilde ik de G8 ThinQ het liefst in de dichtstbijzijnde prullenbak gooien." Ook Android Central was niet onder de indruk. "Het lijkt veelbelovend, maar het is een flop. Ondanks veel training en experimenteren, kan ik de G8 niet zover krijgen mijn handgebaren vaak of snel te laten herkennen."
Waarom is het systeem van de Pixel dan anders? Kunnen we dit meteen afschrijven als gimmick? Waarom zouden we überhaupt aandacht moeten besteden aan wat Google doet? Die vragen kan ik natuurlijk niet definitief beantwoorden en het is evenwel mogelijk dat het uiteindelijk weinig toevoegt, maar ik ben voorzichtig optimistisch dat dit een wezenlijk toevoeging is en ik zal hier de redenen daarvoor toelichten.
1. Accuratesse
Veel van de klachten over het mislukken van LG's gebarensysteem draait om het feit dat het apparaat niet goed is in het bepalen van wat er moest gebeuren. Zelfs het simpele activeren van het systeem is frustrerend. Wat je vervolgens krijgt is een chic camerasysteem dat je ziet zwaaien en probeert te interpreteren wat je wilt doen.
Google's systeem gebruikt een kleine radarchip die is ontwikkeld in het door Motorola in het leven geroepen laboratoriumafdeling Advanced Technology and Projects (ATAP). De groep werkt daar sinds 2015 al aan los van de ontwikkeling van Android en we hebben sindsdien diverse demonstraties gezien. Het hele punt van radar is dat het kleine handbewegingen kan oppikken. Het systeem is volgens de ATAP-ontwikkelaars ontworpen om specifieke gebaarinformatie op een 'hoge framerate' uit het radarsignaal te destilleren.
Dat betekent dat, in theorie althans, de chip heel nauwkeurig en betrouwbaar kan meten hoe jij je hand beweegt, bijvoorbeeld dat je je hand in de lucht draait alsof je aan een volumeknop draait, of dat je je duim en wijsvinger tegen elkaar tikt om aan te geven dat je een knop indrukt. Deze acties worden dan gekoppeld aan specifieke functionaliteiten. En ze vereisen geen complexe, tijdrovende serie van abracadabra-gebaren om te activeren. Zie dit conceptfilmpje:
Nog interessanter is dat deze bedieningselementen dan wel virtueel zijn, maar ze volgens het ATAP-team fysiek en responsive aan zullen voelen, met feedback "gegenereerd door haptisch gevoel van vingers die elkaar aanraken".
Nou is een configuratie in een gesloten demo niet bepaald hetzelfde als het werken ermee in de praktijk. Maar het is wel duidelijk dat dit een heel ander soort technologie is dan wat LG probeerde en de potentie heeft om interessante nieuwe dingen te doen. Maar zelfs als het goed werkt, moet het meerwaarde brengen die meer is dan de nieuwe truc. Daar spelen de volgende twee redenen een rol bij:
2. Detectie op afstand
LG's gebaardetectiesysteem, net als Samsungs Air Gesture, vereist dat je je hand vlak boven je scherm houdt. En als je toch maar tien centimeter van je telefoonscherm afzit, waarom zou je dan niet die extra paar centimeter uitrekken om het apparaat daadwerkelijk te bedienen, in plaats van die gebaren te leren? Dat lijkt me geen onredelijke vraag. Dit is nog een gebied waar Google's radarsysteem van de Pixel 4 anders in kan zijn.
Volgens de eerdere demo's van Project Soli, zoals Pixel 4's radarsysteem heette bij ATAP, kan het systeem gebaren detecteren op een afstand van 15 meter (zie video hieronder). Omdat het radar gebruikt in plaats van een camera om gebaren te 'zien', hoe je je hand niet in het directe zicht van het apparaat te houden om het systeem aan te sturen.
Als we geloven dat het zo soepel werkt als in de demonstraties, levert dit een heleboel praktische toepassingen op, waarbij je je apparaat kunt bedienen als je hardloopt, fietst, autorijdt, kookt of vette vingers bij het eten hebt. Over deze feature gesproken:
3. Detectie door materiaal heen
De laatste factor die van belang is: volgens Google's ATAP-groep werkt dit radarsysteem zelfs door stoffen heen, zonder zichtbaar pad tussen je hand en het apparaat. We hebben het wederom over een laboratoriumtest en niet over de daadwerkelijke Pixel 4-implementatie, maar bij Project Soli in ieder geval kun je je apparaat met gebaren bedienen vanuit je broekzak, handtas of rugzak. Dat is intrigerend, nietwaar? Maar zelfs als we ervan uitgaan dat dit allemaal consistent en goed werkt in praktijkomstandigheden zijn er andere factoren om in het achterhoofd te houden.
Er blijft een grote onbeantwoorde vraag over Google's Pixel 4-gebaarsysteem: welke functionaliteiten zullen gekoppeld zijn aan de gebaren? Toen Google onlangs een tipje van de sluier oplichtte noemde het bedrijf het overslaan van een liedje, sluimeren van wekkers en het toestel op stil zetten - drie taken die je snel en makkelijk wilt uitvoeren, maar ook een relatief beperkte set acties zijn voor zo'n krachtig ogende technologie. Volgens Google is dit nog maar het begin en evolueert dit nog verder.
Dus wie weet wat zo'n systeem uiteindelijk kan bereiken? Het enige wat nodig is, is een beetje creatief nadenken over de mogelijkheden. Stel je bijvoorbeeld voor dat je door naar links en rechts te bewegen in de lucht PowerPoint-slides van een presentatie die je naar een groter scherm cast kunt bewegen, of dat je op deze manier kunt scrollen. Volume aanpassen lijkt een voor de hand liggende oplossing (en Project Soli noemt dit ook als voorbeeld). De functionaliteit kun je nog verder vergroten met integratie met slimme hardware, zodat je bijvoorbeeld het licht kunt dimmen en aan/uitzetten met bepaalde bewegingen.
Daarnaast kun je de Pixel 4 vrijwel zeker zien als een van de eerste Google-apparaten met deze technologie aan boord. De afgelopen jaren heeft het ATAP-team het gehad over Project Soli in wearables, speakers, smartphones, computers en zelfs voertuigen - allemaal gebieden waar Google zelf ook producten voor maakt. Dus het is niet zo vergezocht om te vermoeden dat Soli uiteindelijk een feature wordt die je overal terugkomt en een onderscheidende functionaliteit is die geen ander bedrijf biedt. Dit kan dus wel eens het ontbrekende stukje zijn dat de waarde van Google's eigen hardwareproductie laat zien en iets waarmee Google meer invloed krijgt over de uiteindelijke UX.
Er is voor nu nog genoeg reden om sceptisch te zijn over hoe dit straks in de praktijk werkt en hoeveel gebruikswaarde dit nu daadwerkelijk toevoegt. Maar er zijn ook aantrekkelijke argumenten om optimistisch te zijn dat dit misschien meer is dan wat we eerder hebben gezien.
Reageer
Preview