I-Objectif et champ d’application

Nous verrons d’abord l’objectif de l’AI Act (A) et ensuite les personnes concernées par ses dispositions (B).

A-Objectif

Le règlement sur l’intelligence artificielle a pour but d’améliorer le fonctionnement du marché intérieur et de promouvoir l’adoption d’une intelligence artificielle axée sur l’humain et digne de confiance, tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la charte, notamment la démocratie, l’état de droit et la protection de l’environnement, contre les effets néfastes des systèmes d’IA dans l’Union, tout en soutenant l’innovation. Ainsi, ce règlement établit :

-Des règles harmonisées concernant la mise sur le marché, la mise en service et l'utilisation de systèmes d'IA dans l’Union ;
-L’interdiction de certaines pratiques en matière d'IA;
-Des exigences spécifiques applicables aux systèmes d'IA à haut risque et des obligations imposées aux opérateurs de ces systèmes
-Des règles harmonisées en matière de transparence applicables à certains systèmes d'IA;
-Des règles harmonisées pour la mise sur le marché de modèles d'IA à usage général;
-Des règles relatives au suivi du marché, à la surveillance du marché, à la gouvernance et à l'application des règles ;
-Des mesures visant à soutenir l'innovation, en mettant particulièrement l'accent sur les PME, y compris les jeunes pousses.

B-Le champ d’application

Le règlement européen sur l’intelligence artificielle s’applique :
-Aux fournisseurs établis ou situés dans l'Union ou dans un pays tiers qui mettent sur le marché ou mettent en service des systèmes d'IA ou qui mettent sur le marché des modèles d'IA à usage général dans l’Union ;
-Aux déployeurs de systèmes d'IA qui ont leur lieu d'établissement ou sont situés dans l’Union;
-Aux fournisseurs et aux déployeurs de systèmes d'IA qui ont leur lieu d'établissement ou sont situés dans un pays tiers, lorsque les sorties produites par le système d'IA sont utilisées dans l'Union ;
-Aux importateurs et aux distributeurs de systèmes d'IA;
-Aux fabricants de produits qui mettent sur le marché ou mettent en service un système d'IA en même temps que leur produit et sous leur propre nom ou leur propre marque ;
-Aux mandataires des fournisseurs qui ne sont pas établis dans l’Union ;
Aux personnes concernées qui sont situées dans l'Union.

II-Le contenu du règlement

Le règlement sur l’IA distingue quatre catégories d’IA en fonction du risque qui y est attaché. Nous avons ainsi les IA à risque inacceptable, les IA à haut risque, les IA à risque limité et les IA à risque minimal. La première catégorie fait l’objet d’une interdiction par le règlement, que ce soit sa mise sur le marché, sa mise en service ou son utilisation. Les deuxième et troisième catégories sont celles vraiment encadrées par l’IA Act. Quant à la dernière catégorie, elle n’est pas règlementée.

Nous nous focaliserons sur les IA à haut risque (A) et ceux à risque limité (B).

A-Les IA à haut risque

C’est la catégorie la plus réglementée par le règlement et à laquelle la majeure partie du règlement est consacrée. En raison des risques que présentent ces IA, le législateur met à la charge de chaque acteur de la chaîne d’approvisionnement des obligations dont voici les principales.

D’abord, les premiers acteurs qui sont les fournisseurs doivent mettre en place un système de gestion des risques tout au long du cycle de vie du système d’IA. Ils doivent assurer la gouvernance des données, établir une documentation technique pour démontrer la conformité et fournir aux autorités les informations nécessaires à cette évaluation. Ils doivent concevoir leur système d’IA pour qu’il enregistre automatiquement les évènements pertinents pour l’identification des risques au niveau national et les modifications substantielles tout au long du cycle de vie du système. Les fournisseurs d’IA à haut risque ont aussi l’obligation de fournir des instructions d’utilisation aux utilisateurs en aval pour leur permettre de se conformer à la réglementation. Ils doivent, en outre, concevoir leur système d’IA à haut risque pour permettre aux déployeurs de mettre en place une surveillance humaine et concevoir leur système d’IA pour atteindre les niveaux appropriés de précision, de robustesse et de cybersécurité.

Ensuite, s’agissant des seconds acteurs qui sont les importateurs, ils doivent avant de mettre sur le marché un système d'IA à haut risque, s’assurer de sa conformité au règlement en vérifiant que le fournisseur a suivi la procédure pertinente d'évaluation de la conformité visée à l'article 43. Lorsque le système d'IA à haut risque présente un risque, l'importateur en informe le fournisseur du système, les mandataires et les autorités de surveillance du marché. Les importateurs indiquent leur nom, raison sociale ou marque déposée, ainsi que l'adresse à laquelle ils peuvent être contactés sur le système d'IA à haut risque et sur son emballage ou dans la documentation l'accompagnant, selon le cas. Les importateurs s'assurent, lorsqu'un système d'IA à haut risque est sous leur responsabilité, que les conditions de stockage ou de transport, le cas échéant, ne compromettent pas sa conformité. Les importateurs coopèrent avec les autorités compétentes concernées à toute mesure prise par ces autorités à l'égard d'un système d'IA à haut risque mis sur le marché par les importateurs, en particulier pour réduire et atténuer les risques qu'il présente.

Enfin, viennent les distributeurs. Ceux-ci, avant de mettre un système d'IA à haut risque à disposition sur le marché, doivent vérifier qu’il porte le marquage CE requis, qu'il est accompagné d'une copie de la déclaration UE de conformité visée à l’article 47 et de la notice d'utilisation, et que le fournisseur et l'importateur dudit système, selon le cas, ont respecté leurs obligations respectives. En cas d’observation de non-conformité sur la base des informations en sa possession, il ne peut mettre les systèmes sur le marché qu’après sa mise en conformité. Les distributeurs doivent également s'assurer, lorsqu'un système d'IA à haut risque est sous leur responsabilité, que les conditions de stockage ou de transport, le cas échéant, ne compromettent pas sa conformité.
Lorsqu'un distributeur a des raisons de considérer, qu'un système d'IA à haut risque qu'il a mis à disposition sur le marché n'est pas conforme, il doit prendre les mesures correctives nécessaires pour mettre ce système en conformité avec lesdites exigences, le retirer ou le rappeler ou veiller à ce que le fournisseur, l'importateur ou tout opérateur concerné, selon le cas, prenne ces mesures correctives.
Les distributeurs coopèrent avec les autorités compétentes concernées à toute mesure prise par ces autorités à l'égard d'un système d'IA à haut risque mis à disposition sur le marché par les distributeurs, en particulier pour réduire et atténuer les risques qu'il présente

B-Les IA à risque limité

Il s’agit des chatbots, des assistants virtuels, des plateformes proposant des recommandations personnalisées (suggestions de produits dans le commerce électronique, recommandations de contenus sur les réseaux sociaux), des filtres et modérateurs de contenus. Ces systèmes à risque limité sont soumis à des exigences spécifiques de transparence qui se traduit par mesures d’information et de conformité.

Relativement aux mesures d’information, les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA. Par exemple, lorsqu’un chatbot est utilisé pour répondre à des questions, les utilisateurs doivent savoir qu’ils communiquent avec une machine. Les utilisateurs doivent recevoir des informations claires sur comment et pourquoi une décision a été prise par L’IA. Cela inclut des informations sur les critères et les données utilisés par le système.

S’agissant de la reconnaissance vocale et faciale, lorsqu’une entreprise utilise un tel système, les utilisateurs doivent en être informés. Par exemple, un système de surveillance utilisant la reconnaissance faciale doit indiquer clairement aux personnes qu’elles sont surveillées par une IA. Quant aux contenus générés par l’IA comme des textes, des vidéos, des images synthétiques, ils doivent être clairement marqués comme tel pour éviter toute confusion ou manipulation.

Au titre des mesures de conformité, les entreprises doivent fournir une documentation claire et accessible sur la manière dont leur système d’IA fonctionne, y compris les objectifs, les algorithmes utilisés et les sources de données. Les utilisateurs doivent avoir la possibilité de donner du feedback ou de faire des réclamations concernant les décisions prises par l’IA. Elles doivent également mettre en place des mécanismes pour traiter ces retours et corriger les éventuelles erreurs. Les entreprises doivent régulièrement évaluer l’impact de leurs systèmes d’IA sur les utilisateurs et la société, et ajuster leurs pratiques en conséquence pour minimiser les risques tout en maximisant les bénéfices.