Les enceintes et les écrans connectés de Google pourraient, dans les prochaines années, être équipés d’une technologie impliquant un radar. Mais quel peut bien être l’intérêt d’une telle démarche ? L’utilisateur est au cœur de cette ambition.
Aujourd’hui, les possesseurs d’une enceinte Google Nest doivent activer leur appareil vocalement avec le déclencheur « Ok Google » ou « Dis Google » pour profiter d’interactions avec l’Assistant Google. Mais cela pourrait changer à l’avenir. En effet, la firme de Moutain View est en train d’explorer de nouvelles pistes pour rendre les futures générations de ses appareils connectés plus « à l’écoute » de leur propriétaire. Et la manière d’y arriver peut étonner.
Des appareils Google capables de comprendre leur utilisateur
Dans un billet de blog publié mardi, Google explique que ses équipes chargées du développement de son système d’objets connectés cherchent « de nouvelles idées pour concevoir et construire une technologie qui aide les appareils à nous comprendre sans commandes verbales ». La problématique mise en avant est la suivante : si notre environnement est de plus en plus connecté grâce à des appareils chargés de nous faciliter le quotidien, il reste cependant nécessaire de constamment les solliciter pour cela.
Le fait de devoir notamment dire « Ok Google » pour activer un appareil de l’entreprise est présenté par celle-ci comme particulièrement rébarbatif. « La répétition de ces commandes est fastidieuse et entrave le déroulement naturel de la vie quotidienne. » Et c’est à cela que Google souhaite répondre en développant des objets connectés plus intelligents, capables d’anticiper les intentions des utilisateurs sans que ces derniers aient forcément à utiliser une commande vocale d’activation.
Un système de détection radar en développement chez Google
Cela fait déjà six ans que Google développe Soli, une technologie de détection par radar, imaginée pour « créer ces nouvelles techniques d’interaction ».
« Le capteur radar utilise des ondes radio pour détecter la présence, le langage corporel et les gestes dans sa zone de détection. »
Pour Google, le premier intérêt de cette technologie, c’est que le capteur radar Soli « n’est pas une caméra », ce qui répond aux inquiétudes des personnes désireuses de préserver leur vie privée. Ensuite, le système est capable d’apprendre des habitudes de l’utilisateur, notamment la manière dont il entre dans « l’espace personnel », aussi appelé « Fields » ou « Champs », d’un appareil en vue de l’activer. « Grâce à nos études, nous avons constaté que le degré de chevauchement entre ces champs est un bon indicateur du niveau d’intérêt entre un utilisateur et un appareil », explique Google.
L’entreprise se sert de ses études pour développer ce qu’elle appelle une « intelligence sociale » qui devrait permettre, à l’avenir, à ses appareils de « participer à la vie quotidienne d’une manière plus harmonieuse et plus prévenante ». Comment cela pourrait-il se traduire ? Par exemple, imaginons que vous utilisez un appareil Google Nest doté d’un écran pour suivre une recette de cuisine que vous préparez en temps réel. Le dispositif serait capable d’identifier le moment où vous vous éloigner pour aller chercher un ingrédient, et il mettrait alors la vidéo en pause. À votre retour, la vidéo repartirait sans que vous ayez quoi que ce soir à dire.
Google ne donne pas de détails concernant l’arrivée sur le marché d’appareils connectés dotés d’un tel système. Mais il ne fait aucun doute qu’il s’agira de l’un des enjeux essentiels de ces prochaines années pour continuer d’intégrer des objets connectés « bienveillants » dans les foyers à travers le monde.