Contrairement à une maison ou un logiciel, un modèle d’IA n’est pas entièrement conçu à l’avance, étape par étape. On ne le « programme » pas dans le détail : on définit un cadre initial, puis on le nourrit de données pour qu’il se façonne de lui-même.
Par conséquent, un modèle d’IA ne se construit pas — il se cultive. Un peu comme une colonie de bactéries à qui l’on fournit les bonnes conditions pour se développer.
Prenons l’exemple d’un LLM : après avoir absorbé et trituré une large portion du contenu d’Internet pendant des mois, le modèle final est performant. Notre « colonie » a bien prospéré. Notre modèle donne de bons résultats mais sa logique est tellement dense et opaque qu’on ne comprend pas exactement comment il les obtient.
Ce problème concerne typiquement les modèles produits par l’apprentissage profond. Les modèles produits par l’apprentissage machine classique sont souvent plus compréhensibles.
Les petits noms des modèles de langage ou de vision (8B, 400B, …) peuvent nous laisser indifférents et pourtant, ce chiffre indique le nombre de paramètres, souvent en milliards (B) qu’ils utilisent.
Imaginons un LLM avec 600B (600 milliards) de paramètres :
A,cette échelle, la compréhension du modèle ne peut pas passer par l'analyse brute de ces composants. Nous manquons de capacité de traitement pour les rendre intelligibles. Paradoxalement, c’est peut-être en s’appuyant sur l’IA elle-même — en la sollicitant comme outil de traduction de sa propre logique interne — que nous pourrons espérer une forme d’explicabilité.
Dans le doute, favoriser le citoyen
Les administrations publiques sont confrontées à un dilemme :
D’un côté, l’IA représente une opportunité prometteuse pour améliorer l’efficacité des services publics et réaliser des économies.
De l’autre, la réglementation (CRPA R311-3-1-2), impose un haut niveau de transparence dès lors qu’un algorithme influence les droits ou les libertés des citoyens. Cette exigence de transparence entre difficilement en résonance avec la faible explicabilité de certains modèles d’IA, en particulier ceux reposant sur l’apprentissage profond.
Une piste de conciliation serait la suivante : autoriser l’usage de l’IA dans l’administration à condition que toute décision défavorable aux citoyens soit systématiquement revue et validée par un agent humain..
Cette supervision humaine garantirait les droits des citoyens tout en permettant à l’IA de contribuer à l’efficacité administrative.