UNE NOUVELLE ÈRE COMMENCE: LA PREMIÈRE GRANDE LOI SUR LA RÉGULATION DE L'IA AU MONDE

29 mars 2024 | Hot Trends & Stats | 5 min de lecture

C'est arrivé.

Le 13 mars 2024, le Parlement européen a adopté le Règlement sur l'intelligence artificielle (loi IA), la première grande loi régulant l'intelligence artificielle.

Les législateurs ont établi un cadre complet qui aborde les complexités et les risques potentiels associés à la technologie de l'IA. En tant que fervent défenseur du développement responsable de l'IA, je crois que cette législation marque une avancée significative pour garantir que l'IA serve au mieux les intérêts de l'humanité tout en minimisant les dommages potentiels.

L'essence de cette loi pionnière réside dans son adoption d'une approche basée sur les risques en matière de régulation de l'IA. Elle catégorise les applications d'IA en différents niveaux de risques. Chaque catégorie est accompagnée de réglementations et de mécanismes de surveillance adaptés, reflétant une compréhension nuancée des capacités diverses et des implications des systèmes d'IA.

  • Risque inacceptable : Ces systèmes et pratiques d'IA posent une menace claire pour les droits fondamentaux et sont interdits. Parmi les exemples figurent les systèmes d'IA qui manipulent le comportement humain ou exploitent des vulnérabilités telles que l'âge ou le handicap. Les systèmes biométriques comme la reconnaissance des émotions sur le lieu de travail ou la catégorisation en temps réel des individus sont également interdits.
  • Risque élevé : Les systèmes d'IA identifiés comme à haut risque doivent se conformer à des exigences strictes, notamment des systèmes de mitigation des risques, des ensembles de données de haute qualité, un journal d'activité, une documentation détaillée, des informations claires pour l'utilisateur, une surveillance humaine et une cybersécurité robuste. Les exemples de systèmes d'IA à haut risque incluent les systèmes qui impactent les infrastructures critiques telles que l'énergie et les transports, les dispositifs médicaux, et les systèmes déterminant l'accès à l'éducation ou à l'emploi.
  • Risque limité : Les systèmes à risque limité doivent accroître la transparence sur la manière dont et quand l'IA est utilisée pour apporter leur solution. Par exemple, les systèmes destinés à interagir directement avec des personnes, tels que les chatbots, doivent informer les individus qu'ils interagissent avec un système d'IA. Les deployeurs de systèmes d'IA générant ou manipulant des deepfakes doivent divulguer que le contenu a été généré par l'IA ou a été manipulé.
  • Risque minimal : Aucune restriction n'est imposée aux systèmes d'IA à risque minimal, tels que les jeux vidéo activés par l'IA ou les filtres anti-spam. Cependant, les entreprises peuvent choisir de respecter des codes de conduite volontaires.

Pourquoi une approche basée sur les risques de l'IA est la bonne approche

Un des aspects les plus louables de cette législation est le contrôle strict des cas d'utilisation de l'IA à haut risque. Reconnaissant le potentiel d'impact sociétal significatif et les implications éthiques, la loi impose des approbations et des contrôles intenses pour les systèmes d'IA jugés à haut risque pour les individus, les communautés ou les droits fondamentaux. En soumettant de telles applications à un examen et à une surveillance rigoureuse, la législation vise à atténuer les dommages potentiels associés à l'IA tout en favorisant l'innovation et le progrès, et à dissuader le développement de systèmes pouvant produire de tels dommages.

Également cruciales sont les exigences en matière de transparence et de responsabilité imposées aux cas d'utilisation de l'IA à risque limité. Bien que ces applications ne présentent pas nécessairement les mêmes risques immédiats ou graves que leurs homologues à haut risque, elles méritent néanmoins une surveillance, une adaptation et une réglementation attentives.

La loi met l'accent sur l'importance de la transparence dans les processus décisionnels de l'IA, garantissant que les individus comprennent le fonctionnement des systèmes d'IA et peuvent tenir les développeurs responsables de leurs actions. En favorisant la transparence et la responsabilité, la législation promeut la confiance et la fiabilité des technologies d'IA, essentielles à leurs adoptions et à leurs acceptations généralisées.

Cependant, le véritable défi réside dans la navigation de l'ambiguïté inhérente à la distinction entre les cas d'utilisation à risque limité et ceux qui pourraient potentiellement évoluer vers des scénarios à haut risque.

Alors que l'IA continue de se frayer un chemin à travers divers aspects de la société, identifier et traiter ces zones grises sera primordial. Cela nécessite une vigilance continue, une collaboration et une volonté d'adapter les cadres réglementaires face aux menaces et aux défis émergents.

Malgré ces complexités, je reste optimiste quant à l'avenir de la régulation de l'IA. L'adoption de cette loi constitue une étape importante dans notre parcours collectif vers l'exploitation du potentiel de l'IA pour le bien commun.

En adoptant une approche basée sur les risques et en priorisant la transparence et la responsabilité, nous travaillons activement à poser les bases d'un écosystème de l'IA plus responsable et durable. Et alors que nous nous engageons dans cette nouvelle ère de régulation de l'IA, restons vigilants, proactifs et engagés à garantir que l'IA serve de force bénéfique dans notre monde en évolution rapide.

Subscribe to the Skillsoft Blog

Commencez à réfléchir dès maintenant aux garde-fous de l'IA

Mon dernier mot est le suivant : la loi sur l'IA est une étape décisive pour remettre en question la manière dont la société pense et interagit avec l'IA. En fait, elle place les êtres humains aux commandes - nous permettant de contribuer à la narration de l'IA telle qu'elle se déploie.

Même si la loi n'a pas d'impact sur votre organisation en raison de son emplacement géographique ou du niveau de risque dans lequel vous déployez l'IA, il y a beaucoup de choses que vous pouvez en tirer.

Par exemple : l'une des manières les plus impactantes pour votre organisation de contribuer à la conversation autour de l'IA à court terme est de établir une politique d'IA pour ses employés. Une politique d'IA formelle définit comment les employés peuvent utiliser l'IA au sein de votre organisation et couvre généralement l'utilisation éthique, les normes de biais et d'équité, les exigences de conformité et d'autres lignes directrices et garde-fous essentiels.

À mesure que les meilleures pratiques en matière d'IA évoluent dans votre pays, il en ira de même pour votre politique d'IA.