Entretien réalisé le lundi 17 février dans la matinée, par téléphone et en roumain.
Professeur à la Faculté de mathématiques et d’informatique de l’université de Bucarest, Ionel Popescu analyse les enjeux et les défis de l’intelligence artificielle (IA), au centre d’un sommet international accueilli par la France du 10 au 11 février…
Le sommet de Paris a adopté une déclaration appelant à une intelligence artificielle « ouverte, inclusive et éthique ». Qu’en pensez-vous ?
Si vous me permettez, je commencerai par définir ce qu’est l’intelligence artificielle. En l’évoquant, on a généralement en tête des outils de type ChatGPT, c’est-à-dire des instruments définis comme des LLM – large language models, grands modèles de langage, ndlr –, soit des générateurs de mots. D’une certaine façon, de tels outils peuvent être vus comme une sorte de moteur de recherche de type Google, mieux organisés et fournissant des informations de manière plus précise et plus cohérente que ce dernier. Ceci dit, on a tendance à croire que l’accès à l’information signifie accès à la compréhension, ce qui est erroné. Les gens ont tendance à se fier totalement à l’outil en le prenant pour une mesure de la vérité. Conséquence, un fossé risque de se creuser entre ceux, relativement peu nombreux, qui comprennent réellement ce qu’il se passe, et une grande majorité de personnes qui vont sombrer dans l’ignorance. Ce fossé n’est pour l’instant pas visible, mais il le sera, au fur et à mesure que l’instruction sera fortement imprégnée d’IA. Donc, et je réponds là à votre question, d’un point de vue éthique et moral, je pense que nous avons surtout les mains liées, l’IA va entraîner un changement majeur de paradigme. Toujours d’un point de vue éthique, il faut souligner que ces LLM sont basés sur tout ce que l’homme a écrit jusqu’ici. Or, comment une compagnie privée pourrait-elle se permettre de capitaliser l’ensemble du savoir humain et de l’utiliser sans verser de droits d’auteur ? Je ne vois pas de solution à ces problèmes, à moins de nous éduquer nous-mêmes en freinant cette tendance à utiliser l’IA sans limites. D’un côté, ces outils ne sont pas sans failles ; de l’autre, notre capacité de discerner le vrai du faux va diminuer, ce qui représente, selon moi, une énorme inquiétude.
Où ira l’IA, à quoi faut-il s’attendre ?
D’un point de vue technique, l’IA a beaucoup évolué en termes de raisonnement, je dirais qu’elle n’a rien à envier à un bon doctorant, alors que certains moteurs sont capables de résoudre des problèmes de mathématiques de haut niveau ou encore de jouer parfaitement aux échecs et au Go. Pour ce qui est de la mécanisation ou de l’automatisation, dans des domaines où l’on sait déjà qu’il existe des solutions, la performance de l’IA est exceptionnelle. Mais sa faiblesse devient évidente lorsqu’il s’agit d’exploration, de recherche, quand on ignore s’il existe une solution à un problème, ou encore si le problème a été bien formulé. Cela veut dire que les questions de conception et de création incomberont toujours aux humains.
Mais arrivera-t-on toujours à se différencier en tant qu’humains ?
Cette question revient souvent, qu’est-ce qui nous distingue de l’IA, quelle est notre spécificité en tant qu’humains que l’IA n’aura jamais… Je dirais tout d’abord que la notion d’intelligence, dans un contexte plus large, ne peut pas être séparée de la conscience et du vivant. On ne peut pas parler de l’intelligence d’une pierre, mais on peut le faire pour une cellule, car cette dernière est vivante et doit s’organiser dans un certain espace, dans un certain environnement. L’IA est imbattable en termes de calcul et de traitement de l’information, et si nous voulons suivre le rythme de son développement, il faudra faire un saut créatif et conceptuel notable afin de trouver des niches où nous pourrons faire la différence. Malheureusement, l’intérêt corporatiste n’est pas celui-là ; il est davantage guidé par le profit que par des principes éthiques ou moraux. Pour résumer, il reste beaucoup de travail à faire. Le risque majeur n’est pas lié au développement de l’IA, mais à ce que nous ferons nous en tant qu’humains.
Propos recueillis par Mihaela Rodina (17/02/25).
Note :
En complément, cet article du Journal du CNRS, « IA et valeurs humaines : un problème d’alignement » (11/12/24) : https://lejournal.cnrs.fr/articles/ia-et-valeurs-humaines-un-probleme-dalignement