L’intelligence artificielle est indéniablement un sujet à la mode, on en parle partout et un important rapport sur le sujet a récemment fait parler de lui. Mais on explique rarement de quoi il s’agit.
Un sujet connu de tous… mais très méconnu
Par cette expression, on désigne généralement les procédés qui permettent de résoudre avec le plus d’efficacité possible les tâches que l’esprit humain sait traiter facilement. Parmi les exemples les plus classiques, on trouve l’identification des images, l’interprétation des sons, la traduction automatique, la compréhension du langage, le programme de marche d’un robot, etc.
Pour toutes ces applications, la principale difficulté à laquelle se heurtent les ordinateurs : beaucoup de règles doivent être prises en compte alors que nous mêmes ne sommes pas capables de détailler les critères exacts qui nous permettent, par exemple, de faire la différence entre une pomme et une pêche, entre un violon et un piano, ou les mécanismes qui nous permettent de transformer une série de lettres en quelque chose qui a du sens.
Les spécialistes qui travaillent sur ces différentes questions ont beau chercher à détailler ces mécanismes, en faisant intervenir des neurosciences, des linguistes, des sociologues et d’autres spécialistes. Mais il arrive également qu’une même image soit vue comme un visage par certaines personnes mais pas par d’autres, et on voit très vite qu’aucun algorithme ne peut donner à coup sûr la bonne réponse.
Pour traiter ce genre de problèmes, la seule approche qui semble fonctionner consiste à concevoir des algorithmes qui permettent à la machine de tester différents critères de façon automatique, afin de sélectionner ceux qui semblent fonctionner le mieux. Il y a de très nombreuses façons d’envisager de tels algorithmes, d’organiser les critères entre eux, de planifier l’exploration des règles, les plus connues étant les algorithmes génétiques et les réseaux de neurones profonds (deep learning). Chaque schéma a ses avantages et ses inconvénients pour traiter différents types de problèmes précis, mais il y a des points sur lesquels on ne déroge pas quand on explore ce type de systèmes.
Premièrement, ce sont des programmes qui font des erreurs. Pas parce qu’on les maîtrise mal, mais parce que c’est nécessaire qu’ils en fassent pour fonctionner. Le principe de ces programmes apprenants, c’est d’être dotés d’algorithmes qui utilisent les erreurs pour améliorer la fiabilité des résultats. C’est-à-dire qu’une intelligence toute fraîchement lancée fera beaucoup d’erreurs, et qu’elle en fera de moins en moins au fur et à mesure de son apprentissage. À la fin, elle continuera de faire des erreurs, mais moins souvent.
Deuxièmement, pour apprendre, l’intelligence a besoin de savoir ce qu’on attend d’elle. Dans sa phase d’apprentissage, une intelligence artificielle a besoin de savoir si ses résultats correspondent à ceux qu’on voulait obtenir, afin de déterminer comment s’améliorer. Et l’apprentissage d’une intelligence artificielle demande d’essayer beaucoup de résultats différents. Pour le concepteur du programme, il faut donc disposer d’une banque de données très importante de problèmes déjà résolus, qui couvrent une grande diversités de situations, pour que l’intelligence puisse généraliser le principe.
Les algorithmes génétiques ont l’avantage de contourner ce problème, à condition de pouvoir déterminer combien le résultat diffère de ce qu’on aurait souhaité.
Dans tous les cas, il faut à un moment ou un autre « montrer » à l’intelligence artificielle ce qu’elle doit faire. Cela nécessite des données, mais également une bonne connaissance du « métier » que le programme doit effectuer.
Enfin, l’intelligence artificielle repose sur des branches mathématiques qu’on appelle l’heuristique et l’optimisation, et qui utilisent massivement des outils assez mal maîtrisés par les mathématiciens, comme les équations aux dérivées partielles et les chaînes de Markov.
Quel impact social et sociétal ?
Ce qu’il faut en conclure : l’intelligence artificielle, si elle a un potentiel important, ne nous dispense pas de faire preuve d’esprit critique et de travailler par nous-même. Si les machines peuvent parfois être plus efficaces que nous, c’est au prix d’être aussi faillibles que nous ; et surtout, l’intelligence artificielle ne peut se développer que si notre intelligence humaine se développe également, en informatique et en mathématiques, mais également dans tous les domaines sur lesquels on veut l’appliquer. L’intelligence artificielle a engendré de grands débats éthiques sur les conséquences de son développement dans la société. Il en est sorti, entre autres, les « 23 principes d’Asilomar« , guide pour un développement moral de l’intelligence artificielle comptant parmi les 2000 signataires Elon Musk et Stephen Hawking.
Gardons à l’esprit que le sujet de l’intelligence artificielle est d’actualité, mais surtout qu’il nous concernera toutes et tous, sous tous les aspects de notre quotidien.
Par Clément Cartier – Chargé de mission aux affaires académiques (AFNEUS)