Interview : quels enjeux pour la protection des données sur les interfaces vocales ?
Le succès de la recherche vocale et des assistants vocaux n’est plus à démontrer. La tendance grandit de jour en jour et de nombreux utilisateurs choisissent de faciliter leur quotidien avec des appareils comme Alexa, Siri ou Google. Toutefois, ces usages posent également la question de la sécurité des données – et accessoirement des empreintes vocales – collectées par ces appareils. Yann Lechelle est directeur d’exploitation de l’entreprise Snips, qui propose une solution d’assistance vocale respectueuse des données personnelles. Nous lui avons posé quelques questions en marge de sa présentation du 30 novembre à l’occasion de la Digital Tech Conference à Rennes.
Où en sommes-nous en matière de technologie des assistants vocaux aujourd’hui ?
Les Smart Speakers commencent à éduquer les consommateurs afin qu’ils utilisent la voix pour interagir avec les contenus de tous les jours, qu’il s’agisse de contenu consommable ou du contenu transactionnel comme le e-commerce ou encore le streaming musical. Ces interfaces vocales ont d’abord émergé avec Siri, puis plus récemment avec Alexa ou Cortana. Le sujet n’est aujourd’hui pas différent de celui de l’usage des smartphones. Il y a 10 ans, le smartphone émergeait avec l’iPhone, puis avec l’apparition d’Android, suivie de différents concurrents pour arriver rapidement à l’écosystème que nous connaissons actuellement, avec plusieurs milliards d’utilisateurs à travers le monde. Aujourd’hui, l’interface homme-machine tend vers une utilisation où il n’y a plus besoin de sortir son appareil de sa poche pour interagir avec la machine, il suffit simplement de s’exprimer à voix haute.
Pouvez-vous nous expliquer le rôle de Snips dans ce contexte ?
Snips est un acteur émergent qui développe une interface vocale permettant de créer l’équivalent d’un assistant, comme Siri ou Alexa, en marque blanche et avec une spécialité qui la caractérise : le privacy by design. Ce dernier consiste à respecter les données personnelles d’un utilisateur, et donc sa voix. Snips ne va pas envoyer la voix d’un utilisateur dans le cloud afin que la requête soit traitée. Chaque recherche ou requête d’un utilisateur sera traitée en local grâce au système embarqué de Snips.
La voix est une empreinte biométrique au même titre que les empreintes digitales, elle fait partie de notre identité. Or, il paraitrait aberrant qu’un objet connecté récupère votre empreinte digitale à chaque fois que vous actionnez un de ses boutons. Si ces pratiques sont relativement acceptées en Chine et aux États-Unis, cela devient beaucoup plus problématique dans la culture européenne. Les Européens sont plus méfiants, plus sensibles et plus aux faits des dérives potentielles.
Aujourd’hui, avec Alexa ou Google Home, lorsque je parle, l’échantillon de ma voix est envoyé sur les serveurs d’Amazon ou Google, basés à Seattle. Ma requête est étudiée là-bas et le résultat est renvoyé sur le speaker. Avec la technologie de Snips, la voix est envoyée dans l’objet lui-même. Si je demande par exemple d’allumer la lumière avec un assistant vocal embarqué dans la maison, la lumière s’allumera parce que l’assistant vocal enverra un message directement à la lampe. Si je demande la même chose à Alexa, ma voix sera envoyée à Seattle et le message sera renvoyé chez moi pour allumer la lumière. C’est absurde !
Justement, les GAFA semblent avoir pour discours d’avoir besoin de ces données pour améliorer l’expérience de leurs utilisateurs, de mieux les connaître pour mieux les servir. Est-ce que cette utilisation des assistants vocaux et des intelligences artificielles qui les définissent est justifiée ?
Les GAFA jouent beaucoup sur la qualification « intelligente » de leurs assistants. L’interface vocale est une technologie extrêmement puissante. Elle nécessite donc des techniques d’intelligence artificielle pour créer des algorithmes afin que la machine s’adapte à l’homme et non le contraire. Ça ne veut pas dire pour autant qu’elle est « intelligente » comme nous pouvons l’entendre, c’est-à-dire atteindre un niveau proche de l’humain. Je considère que créer cet anthropomorphisme sur les assistants vocaux, comme le font les GAFA, est une erreur.
Pour autant, les GAFA ont intérêt à travailler sur l’anthropomorphisme des assistants, tout comme ils ont intérêt de faire croire au consommateur que tout cela est naturel et normal pour que celui-ci aille jusqu’à se confier à la machine. Il faut garder à l’idée que les GAFA n’ont qu’un seul objectif : protéger leurs valorisations à plusieurs milliards de dollars. Ils ont tellement à perdre qu’ils se battent avec des moyens déraisonnables pour capitaliser sur nos données. En créant du service pour améliorer le quotidien de leurs utilisateurs, ils créent également de la dépendance face à ces services.
Comment Snips compte-t-il convaincre les professionnels de ne pas céder aux sirènes des GAFA et de leurs assistants vocaux ?
Snips s’adresse aux professionnels qui sont sensibles aux questions de la protection des données. Notre entreprise se positionne sur un message alternatif : nous équipons des clients qui eux-mêmes peuvent décider d’agir différemment sur les questions de la vie privée. La notion de vie privée est majeure et inclut une notion de sécurité. Il y a toute une part du marché, que ce soit pour des applications militaires, bancaires ou d’assurances, qui restent très sensible à ces notions. En faisant fonctionner la technologie de Snips en local, nous suscitons aussi l’intérêt des clients sur cet aspect embarqué, cette indépendance face aux GAFA mais aussi sur le Cloud. Nous permettons ainsi à nos clients intégrateurs de ne pas devenir des satellites des GAFA par défaut. S’ils veulent devenir compatibles avec les GAFA, ils peuvent le faire dans un second temps, mais l’idée est de faire d’une interface sécurisée la base de toute application et que cela devienne un réflexe.
On a tendance à s’orienter vers Google ou Amazon « par défaut ». Mais ce « par défaut » devient de moins en moins vrai. On peut faire différemment, et c’est le discours que nous tenons avec Snips.
Retrouvez Yann Lechelle à la Digital Tech Conference de Rennes le 30 novembre prochain. Plus d’infos ici.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris
l’article est très intéressant, cependant l’illustration n’est pas en rapport sur l’image on voit juste une enceinte Sony et qui n’a pas d’assistant vocal intégré pourquoi ne pas mette en illustration Alexa ou Google Home
« Aujourd’hui, avec Alexa ou Google Home, lorsque je parle, l’échantillon de ma voix est envoyé sur les serveurs d’Amazon ou Google, basés à Seattle. » Il n’y a pas une seule donnée qui voyage transatlantique, tout est cloisonné par région. Donc votre voix, par ailleurs compressée donc pas a un niveau de qualité suffisant pour être utilisé pour reproduction de votre empreinte digital, ne quittera pas la région Ouest Europe.