IA : « il n’y a pas une once d’intelligence dans ce que font les machines »

On en parle partout, tout le temps. Mais au fait, l’intelligence artificielle, c’est quoi ?

AI design
Crédit : Getty / exdez

L’intelligence artificielle est sur toutes les lèvres. Avant elle, le big data faisait les gros titres de la presse généraliste et spécialisée. Mais où en est-on vraiment de ces révolutions annoncées ? Entre portée marketing, effets d’annonce et réelles avancées, l’IA reste une notion floue et un buzzword utilisé à toutes les sauces. Pour mieux cerner ce que l’on cache derrière cette tendance, nous avons interviewé Eglantine Schmitt, qui possède une double-compétence en product management et en big data. Elle nous livre son regard sur l’évolution de ce secteur.

Peux-tu commencer par te présenter ? Quel rapport entretiens-tu avec l’IA ?

Je m’appelle Églantine Schmitt, je suis product manager et UX designer indépendante et j’ai travaillé longtemps chez un éditeur de logiciel spécialisé dans une branche de l’intelligence artificielle qu’on appelle le traitement automatique des langues. Mon rôle était globalement de mettre l’IA au service des gens, de trouver et concrétiser des cas d’usage métier. En parallèle, j’ai mené une thèse de philosophie des sciences sur la question des big data, où j’ai cherché à comprendre le rôle des techniques et technologies d’analyse de données, mais aussi en quoi elles ne suffisent pas à produire des résultats qui ont du sens pour des humains. En cinq ans de thèse, mon sujet a beaucoup changé de nom : on a parlé de big data, puis de data sciences, d’algorithmes, et maintenant d’intelligence artificielle, mais globalement la question de fond est restée la même : qu’est-ce qu’il y a comme données et qu’est-ce qu’on en fait ?

Au-delà des mythes actuels sur le sujet, où en est-on exactement de l’IA actuellement ? A-t-on réellement progressé ces dernières années/décennies, et si oui à quels niveaux ?

Quand on parle d’IA, il peut s’agir de références à plusieurs choses. Il y a eu un retour en force du sujet qu’on peut schématiser comme suit : l’abondance de données et l’augmentation de la puissance de calcul a accéléré le développement des techniques d’analyse de données. Certaines de ces techniques, qui sont connues depuis plusieurs décennies dans le monde de la recherche, ont commencé à présenter des résultats satisfaisants pour des acteurs industriels, ce qui a permis de rentrer dans un cercle vertueux mais aussi dans une économie de la promesse où il a fallu se positionner rapidement d’un point de vue commercial. Il y a eu notamment un bond dans l’efficacité des approches par réseaux de neurones artificiels, qui existent depuis les années 1950, mais qui sont devenues accessibles pour un investissement faible : c’est le fameux « deep learning » qui est sur toutes les lèvres. Des chercheurs comme Yann Le Cun, qui étaient complètement inconnus du grand public, et longtemps considérés comme has been par leurs collègues, sont devenus les rois du pétrole, courtisés par tous les grands acteurs du numérique ; Yann Le Cun a notamment monté le centre de recherche en IA de Facebook, à Paris. Dès lors, il y a une multitude de tâches qui deviennent envisageables (organiser du texte, des images, des sons, prédire des valeurs…) et qui ont de très nombreuses applications concrètes.

Au-delà du deep learning, qui est une sous-branche du machine learning, qui est lui-même une façon d’analyser des données, d’autres thématiques sont revenues sur le devant de la scène : tout ce qui est agents conversationnels et interfaces vocales, mais aussi l’automatisation de processus, la robotique, la reconnaissance faciale… qui ne reposent pas forcément sur du deep learning. Dans ces domaines, il y a encore beaucoup de bricolage avec des systèmes qui apparaissent fluides et sans friction pour l’utilisateur, mais qui reposent en fait beaucoup sur des briques configurées voire actionnées à la main pour donner l’impression d’un raisonnement automatique.

Il y a de nombreux débats sur l’IA, notamment pour savoir qui en fait réellement ou non. A partir de quand peut-on parler d’intelligence artificielle pour un projet ?

Il n’y a pas vraiment de consensus sur ce qui est de l’IA ou ce qui n’en est pas. Au départ, l’IA est un projet de recherche qui vise à comprendre l’intelligence humaine par le biais d’artefacts qui imitent ou simulent cette intelligence. Parmi les pères de l’IA, Turing découpe déjà ce programme de recherche en sous-tâches spécifiques : le traitement de l’image, du son, de la parole, du langage, le raisonnement, le mouvement… qui sont chacune devenues des champs de recherche à part entière, avec des laboratoires, des financements, des applications industrielles. Aujourd’hui, les chercheurs qui travaillent depuis des années sur le traitement du signal ou la vision artificielle sont bien contents de pouvoir se présenter comme chercheurs en IA, mais ils faut garder à l’esprit que chacune de ces tâches induit une spécialisation, même s’il y a des techniques et des approches communes d’une branche à l’autre.

Ma définition est très large et inclut toute situation où une machine remplace une opération mentale humaine ; avec cette définition, une calculatrice est une forme d’IA parce qu’elle fait le calcul à ma place. Néanmoins, et je ne suis vraiment pas la première à le dire, mais il n’y a pas une once d’intelligence dans ce que font les machines. L’intelligence se trouve du côté des concepteurs, des développeurs, des data scientists, qui trouvent les moyens de combiner certaines données avec certaines techniques computationnelles, pour formaliser et automatiser une opération mentale. Cela veut dire qu’on ne peut automatiser que ce qu’on comprend, non seulement dans les grandes lignes, mais suffisamment finement pour l’exprimer de manière explicite et non ambiguë, ce qui est un prérequis pour implémenter le programme correspondant.

Cela veut aussi dire que l’on part d’une opération mentale spécifique (ou physique, avec la robotique) et non de l’esprit humain en général. Certains prospectivistes pensent qu’on arrivera un jour à ce qu’on appelle une IA « forte », un système artificiel capable de faire tout ce que fait un humain. D’après moi, cette perspective est plus qu’improbable, parce qu’on est encore très loin de comprendre comment fonctionne l’esprit humain et que je doute qu’on arrive à le formaliser un jour. Je crois aussi qu’il y a une contradiction logique à vouloir créer quelque chose d’autonome : comment programmer un système pour qu’il ait un comportement non programmé ?

Crédit : Getty / miakievy

On a parfois l’impression que l’IA, tout comme le deep learning, est devenu un concept communicationnel plus qu’un ensemble de technologies…  Pourquoi tant de hype autour de ce concept d’après toi ? Quels sont les risques liés à l’hyper-utilisation d’un terme qui ne revêt pas de réalité concrète ?

Pour l’argent bien sûr ! Que ce soit dans la recherche ou dans le privé, il est beaucoup plus facile de trouver des financements ou de signer des contrats quand on emploie des termes à la mode. Pour celles et ceux qui sont dans l’univers de la donnée depuis un certain temps, c’est une bonne nouvelle car cela permet de continuer à travailler, à expérimenter, faire progresser la technologie et développer de nouveaux usages. Derrière la hype, il y a une réalité concrète des usages et des technologies, et encore beaucoup de produits et de services « à base d’IA » à imaginer. A titre individuel, je suis ravie que ma banque me prévienne quand elle soupçonne une fraude ou que mon client mail enlève les spams de ma boîte de réception. Le danger, c’est de faire de l’IA pour faire de l’IA, parce que quelqu’un de haut placé quelque part a décidé que l’entreprise où vous travaillez devait avoir une « stratégie IA », et qu’en face des acteurs cherchent à répondre à un besoin que vous n’avez pas. Mettre la technologie avant le besoin, c’est pour moi le vrai risque de ces effets de mode, qui engendrent des dépenses conséquentes alors qu’on pourrait utiliser ces ressources pour améliorer les produits et les offres, ou mieux payer les gens, par exemple !

Pour ce qui est de déterminer pourquoi l’IA est aujourd’hui à la mode plus qu’un autre terme, c’est moins évident. C’est un terme qui charrie tout un univers, une mythologie nourrie par la littérature, le cinéma, avec ses gourous, mais aussi des personnes très influentes qui dépensent beaucoup d’argent et d’espace médiatique pour entretenir la peur de l’IA. Évidemment, c’est plus porteur de parler d’intelligence artificielle que de multiplication de matrices ou de régression linéaire dans des fichiers Excel. Il y a quelques années, les gros titres disaient « les big data font ceci ou cela », on est passé par « un algorithme a fait ceci » et maintenant c’est « une IA fait cela », avec très souvent les mêmes technologies derrière. Je dirais que c’est le retour en forme du deep learning, qui est techniquement une branche de l’IA au sens historique, qui a remis le terme sur le devant de la scène, et le reste est littérature.

Comment envisages-tu les prochaines années du secteur ?

Il est difficile d’anticiper sur les évolutions technologiques et les verrous théoriques qui pourraient être levés ; on peut se dire que les techniques actuellement utilisées vont se spécialiser, gagner en performance et en précision, mais une innovation radicale est, presque par définition, difficile à prévoir. En revanche, on peut avoir une intuition de la direction vers laquelle le marché et la communauté vont tendre. D’une part, je pense que l’on n’a pas épuisé les cas d’usage de l’IA et qu’il y a encore plein de scénarios intéressants à imaginer. Par ailleurs, on peut s’attendre à une commodification de l’IA, où il sera de plus en plus facile d’intégrer quelque chose qui relève de l’IA dans un produit numérique, sans être un expert technique : il me semble que nombreux éditeurs de logiciels sont aujourd’hui dans la course pour proposer des outils simples, destinés à un public large.

Néanmoins, il y a d’autres freins à une démocratisation de l’IA, dont on parle beaucoup moins. L’accès à la donnée reste difficile, réservé à quelques acteurs, et la qualité des données produites est encore très aléatoire. Le temps de préparation de la donnée, ce qu’on appelle aussi l’ingénierie de la donnée (data engineering) ne fait rêver personne, mais c’est souvent là que tout se joue. Les choix que l’on fait quand on nettoie et modélise la donnée ont un effet direct sur les résultats que l’on obtiendra à la fin. Ce que j’aimerais donc, c’est qu’on parle un peu moins d’IA et qu’on recommence à parler de la donnée…

Enfin, au-delà de ce qui est possible, je trouve qu’on ne se pose pas assez la question de ce qui est souhaitable. La production et l’exploitation de certaines données a un coût social et moral considérable, que ce soit en termes de vie privée, d’image de soi, d’ouverture d’esprit, de conditions de travail de ceux qui produisent la donnée, ou encore du fossé qui se creuse entre les individus qui développent les algorithmes et ceux qui sont au service de ces mêmes algorithmes. Je n’ai aucune idée de la façon dont on pourrait rééquilibrer ces relations de pouvoir, mais j’appelle de mes vœux une prise de conscience par les experts techniques, de leur responsabilité morale. S’ils sont capables de se poser la question de la désirabilité de ce qui leur est demandé, et d’utiliser leur position pour y mettre un coup d’arrêt quand, par exemple, le prix à payer dépasse les bénéfices attendus, alors on peut espérer s’acheminer vers un futur de l’IA plus désirable que ce que l’on a pu voir jusqu’à présent… et je dois avouer que cette perspective me réjouirait davantage qu’un nouveau bond technologique en IA !

Sujets liés :
2 commentaires
Commentaires (2)
  • Patrick

    « pourquoi l’IA est aujourd’hui à la mode plus qu’un autre terme » ? à mon avis parce que des premières avancées « remarquables » ont été faites sur certaines problématiques autour de la voix, de la reconnaissance d’image… et que du coup ca a permis de refaire prendre la mayonnaise marketting : c’est tellement porteur de « Promesse » et de « formidable » de parler d’Une Intelligence Artificielle…

  • _AXOLOTL_

    Merci, cela fait du bien de voir que l’on est pas seul à partager des idées à contre courant de la vague de la mode.

Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Visuel enquête Visuel enquête

Community managers : découvrez les résultats de notre enquête 2025

Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !

Je m'inscris

Les meilleurs outils pour les professionnels du web