Une cliente s'adresse à une enceinte connectée d'Apple (HomePod)
Isabelle Olsson, designer chez Google, présente le nouveau Google Home Mini à San Francisco en octobre 2017.
Amazon présente Alexa au Consumer Electronics Show (salon des technologies) de 2019
Assistants vocaux: le manque de transparence révèle leur potentiel invasif
Une cliente s'adresse à une enceinte connectée d'Apple (HomePod)
Isabelle Olsson, designer chez Google, présente le nouveau Google Home Mini à San Francisco en octobre 2017.
Amazon présente Alexa au Consumer Electronics Show (salon des technologies) de 2019
Alexa, Siri, Google et d'autres assistants vocaux numériques accompagnent un tiers des Américains dans leur vie quotidienne, mais les inquiétudes montent à l'idée que ces robots-secrétaires n'anéantissent les derniers remparts de la vie privée.
Plusieurs enquêtes ont révélé ces derniers mois dans la presse que les échanges avec les assistants vocaux sont parfois écoutés par des humains, à l'insu des utilisateurs, dans le but de perfectionner les machines.
«Les gens s'imaginent que les assistants vocaux numériques vont s'améliorer par magie, en faisant de l'apprentissage automatisé tous seuls», commente Carolina Milanesi, analyste chez Creative Strategies. «Nous n'en sommes qu'au début de l'intelligence artificielle, l'intervention humaine reste très importante».
«Mais il faut une transparence absolue pour les utilisateurs, et ils doivent pouvoir choisir de participer à cet apprentissage de la machine ou pas», ajoute-t-elle.
Très critiqués à la suite de la découverte de ces écoutes, les grands groupes concernés ont dû réagir.
En mai dernier, Amazon a annoncé l'ajout de fonctionnalités pour demander à Alexa d'effacer ses enregistrements ou aveugler la caméra.
Google a suspendu les écoutes dans toute l'Union européenne pour trois mois, suite à une demande d'une autorité allemande de protection des données.
Cette semaine, Apple a aussi interrompu temporairement l'analyse par des employés ou des sous-traitants de conversations enregistrées par son assistant vocal Siri, le temps de «passer en revue» son dispositif.
«En outre, lors de la prochaine mise à jour du logiciel, les utilisateurs auront la possibilité de choisir de participer (à ce processus)«, a indiqué la firme à la pomme.
- Confiance -
L'information des consommateurs sur leurs données personnelles constitue le coeur du problème posé par ces écoutes aléatoires, surtout pour un groupe comme Apple, qui a fait du respect de la vie privée son argument de différentiation vis-à-vis des autres «GAFA» (Google, Apple, Facebook, Amazon).
Les utilisateurs doivent savoir qu'ils peuvent être écoutés, dans quelles circonstances, par qui et quelles informations supplémentaires sont transmises (notamment celles de nature à identifier la personne écoutée), liste Carolina Milanesi.
«Si ce sont des employés qui écoutent, la confiance remonte, mais si ce sont des sous-traitants, on veut savoir quels sont leurs standards, et comment les données sont stockées», précise-t-elle.
Près de 112 millions d'Américains, soit un tiers de la population du pays, utiliseront un assistant vocal au moins une fois par mois en 2019, d'après eMarketer. La France comptait 1,7 million d'adeptes fin 2018 (Médiamétrie).
Les utilisateurs s'adressent à ces voix robotiques pour faire des recherches, des courses ou écouter de la musique via des enceintes dites «intelligentes», mais aussi toute une galaxie d'objets connectés, des smartphones aux voitures.
Alexa (Amazon) et Google captent plus de 60% du marché mondial, selon le cabinet d'études Canalys, devant Siri, Bixby (Samsung) ou encore Cortana (Microsoft).
«C'est une technologie fascinante, qui a le pouvoir d'améliorer la vie des gens (...), mais les entreprises ne répondent pas bien aux inquiétudes légitimes que cela suscite aussi», constate Florian Schaub, professeur à l'université du Michigan et spécialiste des interactions hommes-machines.
- Anesthésiés -
Plus de 40% des propriétaires d'enceintes connectées s'inquiètent pour le respect de leur vie privée et autant se font du souci pour la sécurité de leurs données, d'après une étude du cabinet Accenture.
Certains utilisateurs ont même le sentiment d'être écoutés en permanence, alors que les appareils n'enregistrent rien et ne transmettent pas d'informations à moins d'être mis en route par une formule du type «Hey, Siri» ou «Alexa».
Mais le risque d'activation involontaire existe. Les dérapages potentiels, aussi.
«Je m'inquiète à l'idée que ces assistants se déclenchent non seulement quand on leur parle, mais aussi quand ils entendent des bruits de verre brisé, un bébé qui pleure ou tout autre signal de détresse... Et comme nous serons peu à peu anesthésiés, nous ne nous rendrons compte de rien», avertit Ryan Calo, co-directeur du laboratoire de recherches en politique et technologie de l'université de Washington.
Il évoque aussi la possibilité que les enceintes puissent être activées à distance. «Si les autorités obtenaient un mandat, elles pourraient transformer votre Echo (enceinte d'Amazon) en mouchard, pour vous écouter en permanence», explique-t-il.
Des perspectives qui ne relèvent pas de la science-fiction: la justice américaine utilise de manière croissante les informations que collectent les objets connectés.
Et Consumer Watchdog, une association de consommateurs américaine, avait révélé en 2017 des recherches menées chez Amazon pour déduire des sentiments et des comportements à partir des conversations ambiantes.
Même quand personne ne s'adressait au robot.
Retour à la page d'accueil