Pseudo-IA : quand des humains se font passer pour de l’intelligence artificielle
Annoncer aux investisseurs que les produits s’appuient sur de l’intelligence artificielle, ça fait toujours sont petit effet. C’est tout de suite plus sexy que de dire que des humains font le « sale boulot » dans des open spaces bondés et à peine climatisés. Et pourtant, rémunérer un humain est moins coûteux que de développer des IA, dans un premier temps tout du moins. Il n’en fallait pas plus pour pousser certaines entreprises tech à déguiser des humains bien réels en intelligence artificielle.
La double affaire des emails lus par des humains
L’affaire des emails lus par des tiers sur Gmail a fait grand bruit la semaine dernière. Révélée par le Wall Street Journal, elle mettait en évidence des failles dans la confidentialité des données personnelles. Mais elle mettait également en lumière une autre vérité qui n’améliorera pas la réputation de certaines entreprises tech. Comme l’explique parfaitement The Guardian, dans cette histoire, des sociétés ont quand même fait croire qu’un programme embarquant de l’intelligence artificielle permettait de suggérer des réponses rapides grâce au scan de millions d’emails… alors qu’en réalité, des humains lisaient les emails des utilisateurs pour concevoir ces réponses. Elles étaient bel et bien rédigées par des hommes, tout simplement.
Intégrer de l’IA dans un POC, c’est compliqué
Pourquoi une telle supercherie ? C’est finalement assez simple : développer une IA coûte cher, et utiliser l’intelligence des hommes est bien plus facile à mettre en place. Cela ne veut pas dire que ces entreprises ne prévoient pas de développer des programmes complexes et apprenants par la suite, mais dans un premier temps, les humains peuvent suffire pour créer des prototypes et convaincre le public.
Pseudo-IA : des scandales à répétition
La société à l’origine du scandale Gmail n’est pas la seule à opter pour cette « stratégie » : d’autres avant elle se sont basées sur cette « pseudo-IA » pour concevoir leurs produits. Des humains convertissaient des conversations orales en texte (speech-to-text) en se faisant passer pour des machines, pour Spinvox en 2008. Des humains se sont fait passer pour des chatbots pendant 12 heures par jour pour le compte de X.ai et Clara en 2016. En 2017, Expensify sous-traitait sa technologie de reconnaissance des reçus (Smartscan) à des travailleurs du clic sur Mechanical Turk. Un travail mal payé, ingrat, qui pose également la question de la confidentialité des données, accessibles à toutes ces personnes plus ou moins anonymes.
Le rôle de ces personnes n’est bien évidemment pas à confondre avec celui des travailleurs qui entraînent des intelligences artificielles. Leur quotidien n’est pas toujours épanouissant, mais leurs travaux permettent à de développer des fonctionnalités réellement basées sur l’IA – en toute transparence.
Source : The rise of ‘pseudo-AI’: how tech firms quietly use humans to do bots’ work