En revanche, il est urgent d’en définir les limites en mettant en place un système d’évaluation de conformité et de normes. Cette initiative de contrôle relève de la responsabilité du politique. Il peut envisager cette tâche en toute confiance grâce à l’expertise que le LNE peut lui apporter.
Dans le domaine de l’intelligence artificielle (IA), l’année passée a été marquée par la mise en ligne de ChatGPT-4, une IA conversationnelle impressionnante par sa capacité à dialoguer avec un utilisateur en reproduisant de manière convaincante la structure d’une conversation.
À l’instar de DALL-E 2, Midjourney ou Stable Diffusion, spécialisées dans la production d’images, chatGPT est une IA dite générative. Celles-ci sont fondées sur des algorithmes d’apprentissage, capables de réaliser une tâche à la suite d’un entrainement à partir d’une très grande quantité de données. Ainsi, une IA productrice d’images parvient-elle par exemple à dessiner un chat après avoir analysé de très nombreuses images et descriptions de chats. De la même manière, ChatGPT est entrainé à deviner la fin d’une phrase ou d’un texte à partir de son début, celui-ci pouvant être une question à laquelle l’algorithme répond, mimant ainsi une conversation. De la même manière, pour son entrainement, ChatGPT a été confronté à un très grand nombre de textes disponibles sur Internet et qui couvrent tous les aspects de la vie humaine.
Il n’existe que peu de documentation sur l’algorithme aux fondements de ChatGPT. En revanche, on sait que les données d’entrainement ont fait l’objet d’un nettoyage drastique et que le processus d’entrainement a été très contrôlé. Les prédictions de l’algorithme ont notamment été « assainies » et certains cas d’usage raffinés par supervision humaine. D’où in fine des réponses qui semblent répondre aux attentes d’utilisateurs humains, par exemple en terme de valeurs morales, ou tout simplement du point de vue de l’articulation du discours.
Si ChatGPT-4 est l’aboutissement d’une série d’IA conversationnelle, elle représente une rupture d’une part par ses performances, d’autre part du fait de la prise de conscience du grand public des prouesses aujourd’hui permises par l’intelligence artificielle.
Cela dit, cette prise de conscience se fait dans une certaine confusion. Concrètement, le grand public, s’appuyant sur la qualité formelle des réponses formulées par ChatGPT, en déduit leur véracité. Or il faut avoir à l’esprit que ce type d’IA n’est pas entrainé pour énoncer des propositions vraies, mais pour répondre d’une façon fluide et naturelle. Ainsi la notion de vrai ou de faux n’entre ici pas du tout en ligne de compte. Par exemple, concernant la biographie de personnes connues, nous avons mis en évidence que ChatGPT pouvait renvoyer des informations complètement fausses, comprenant des dates erronées et des liens vers des sites inexistants. La raison en est que son entrainement lui a permis d’identifier que l’énonciation de ce type de faits, sur le plan strictement stylistique, s’accompagnait souvent de suite de caractères commençant par « www. ». En revanche, il ne lui a pas permis d’identifier la fonction de ces suites de caractères, à savoir faire le lien avec une source de l’information. Par rapport à tout ce qui s’est fait avant en matière d’IA, la rupture tient in fine au fait que désormais nos filtres habituels sont rendus inopérants : la forme est tellement impressionnante qu’elle ne nous permet plus de trancher sur le fond.
Cela étant dit, il ne s’agit pas de conclure pour autant à la dangerosité de ces IA génératives. Utilisées par des spécialistes d’un domaine, elles peuvent aider à rassembler, trier ou sélectionner de l’information qui devra être vérifiée par ailleurs. D’une certaine manière, ces IA sont à considérer comme un nouveau type de moteur de recherche permettant d’articuler comme jamais auparavant plusieurs concepts dans une unique requête. Et dans le cas des IA productrices d’images, elles sont déjà par exemple utilisées par des graphistes pour faire des propositions pour amorcer un processus créatif.
Quant à savoir si les IA génératives constituent la base d’une révolution technologique, sociétale ou humaine, c’est difficile à dire. Au moins cette révolution ne nous apparaît-elle pas plus radicale que celle qui a vu l’émergence d’Internet ou du smartphone, deux innovations qui ont profondément changé notre manière de nous informer et de communiquer. Les IA génératives auront-elles cette faculté ? Ou bien à l’instar de l’électricité, modifieront-elles plutôt notre manière de produire ? Nous n’en savons encore rien.
Une chose est certaine, nous ne reviendrons plus en arrière et l’idée même d’une pause même temporaire dans le développement des IA nous apparaît comme naïve et illusoire.
En revanche, il est désormais urgent de contrôler et de borner le développement de ces intelligences artificielles, qui est entre les mains d’entreprises privées aux ressources financières colossales. En ce sens il ne s’agit pas de les concurrencer, mais de mettre en place un système d’évaluation de conformité et de normes comme il en existe pour l’ensemble des produits mis sur le marché.
Cette initiative de contrôle est la responsabilité du politique, qui peut envisager cette tâche en toute confiance grâce à l’expertise que le LNE peut lui apporter. Non content d’avoir déjà évalué plus de 1000 systèmes IA pour les industriels ou les pouvoirs publics, dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome et également dans les secteurs agroalimentaire ou industrie 4.0, le LNE a également développé en 2021 le premier référentiel pour la certification des processus d’IA, qui vise à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, tant sur les aspects développement algorithmique, sciences des données, que prise en compte du contexte métier et du contexte réglementaire.
De plus, Le LNE travaille actuellement au déploiement d’une infrastructure unique en Europe : les Laboratoires d’Evaluation de l’Intelligence Artificielle (LEIA) : https://www.lne.fr/fr/actualites/le...
Les LEIA permettent d’évaluer les solutions logicielles à base d’IA et les dispositifs physiques embarquant de l’IA, en vue d’en caractériser la fiabilité et sécuriser leur usage, mais aussi de s’assurer du caractère éthique de l’IA : l’ensemble des données est-il traité de manière équitable, l’information divulguée à l’utilisateur est-elle juste… ?
Par ailleurs, le projet LEIA est l’une des clés de voûte de l’implication du LNE dans trois projets européens, en collaboration avec plus de cinquante partenaires, les autorités de contrôle et les industriels. Ces projets, appelés TEF (Testing and Experimentation Facilities) permettront de développer des méthodes et moyens d’essais à l’échelle européenne permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA, et d’établir s’ils sont dignes de confiance.
De par ses missions étatiques de protection des consommateurs et de préservation de la compétitivité de l’industrie, et s’appuyant sur son expertise d’évaluateur et de certificateur pour l’IA, le LNE se positionne comme un tiers de confiance à même d’accompagner l’essor des IA génératives en contribuant à assurer leur contrôlabilité et leur conformité à la réglementation. Le LNE cultive l’idée que l’innovation ne doit pas être freinée, mais accompagnée par des dispositifs permettant de garantir des IA de confiance sur les territoires français et européen.