
L’intelligence artificielle : produit innovant ou produit défectueux ?
Par Amoin Ghislaine Marie Judith KOUADIO
Posté le: 18/03/2025 13:17
L’intelligence artificielle fait l’objet d’un nombre croissant de publications qui ont contribué à forger dans l’opinion publique une nouvelle « mythologie digitale » suscitant à la fois des espoirs et des craintes . Elle est souvent perçue comme une révolution technologique capable de transformer profondément nos sociétés. Cependant, son développement rapide soulève des interrogations sur sa fiabilité, ses impacts et les risques qu’elle engendre. Dans un contexte d’accélération de l’IA dans la vie quotidienne, le législateur complète le cadre de conformité de l’intelligence artificielle. Il introduit un cadre de responsabilité centré sur un régime de réparation effective en cas de dommage . De tout ce qui a été énoncé il se pose un problème : Peut-on considérer l’intelligence artificielle comme un produit défectueux au regard des dommages qu’elle peut causer ? La réponse à ce problème nous amène à porter notre réflexion autour de deux points saillants, le premier repose sur la qualification juridique de l’intelligence artificielle (I) tandis que le second se base principalement sur la responsabilité de celle-ci en tant que produit défectueux (II).
I- LA QUALIFICATION JURIDIQUE DE L’INTELLIGENCE ARTIFICIELLE : ENTRE INNOVATION ET INCERTITUDES NORMATIVES
La qualification juridique de l’intelligence artificielle s’apprécie suivant la définition des textes juridiques en tant que produit (A) et les critères qui sont susceptibles de caractériser sa défectuosité (B).
A- L’intelligence artificielle comme produit au sens du droit de la responsabilité des produits
La nouvelle Directive de 2024 sur la responsabilité englobe désormais à la fois les produits physiques et les systèmes d'intelligence artificielle (IA). Son objectif est de garantir, au sein des États membres, une utilisation éthique, sécurisée et respectueuse des droits fondamentaux des systèmes d'IA. Cette mise à jour prend en compte la dimension numérique de l'IA et impose des responsabilités aux opérateurs économiques ainsi qu’à toutes les entités de la chaîne d'approvisionnement des systèmes d'IA.
Ainsi, la définition du produit est étendue pour inclure les logiciels et l'IA. Selon l'article 6 de la Directive, de nouveaux types de dommages pourront désormais être indemnisés, notamment les dommages causés aux biens, ainsi que la destruction, la suppression ou la corruption de données. Autrement dit, la perte ou la corruption de données est désormais considérée comme un dommage. L'IA, qui repose sur des algorithmes complexes et de vastes volumes de données, n'est pas à l'abri des défauts. En vertu de cette directive sur la responsabilité des produits défectueux, elle est considérée comme un bien immatériel, un logiciel soit intégré dans des produits physiques, soit utilisé de manière autonome.
B- Les critères de défectuosité appliqués à l’intelligence artificielle
La satisfaction attendue par l'utilisateur de l'IA peut parfois ne pas être atteinte en raison de défauts dans le système. La sécurité est un critère essentiel dans ce contexte. Les biais présents dans les données d'entraînement peuvent entraîner des discriminations, notamment dans des domaines sensibles tels que le recrutement ou la justice. En principe, l'IA doit respecter les normes du RGPD et protéger la vie privée des individus. Si ces exigences ne sont pas respectées, l'IA devient alors un produit défectueux en raison du défaut de sécurité qu'elle présente lors de son utilisation.
De plus, il existe également un défaut de conception ou d'exécution, car on constate une multiplication d'erreurs flagrantes. Bien que cette révolution technologique soit impressionnante, elle n'est pas sans défauts. En réalité, elle peut fournir des réponses ou des raisonnements erronés ou incohérents, ce qui peut induire l'utilisateur en erreur, surtout lorsqu'il s'attend à une réponse précise et juste. L'inclusion de raisonnements simplistes ou de réponses opposées à la demande montre que l'IA n'est pas totalement fiable. Il est donc possible de dire que la confiance, autrefois accordée à l'IA, a progressivement diminué. Les concepteurs doivent donc revoir leurs processus afin de corriger ces risques importants liés à cet outil. Cela se reflète, par exemple, dans certaines réponses incohérentes ou incorrectes que l'on peut rencontrer lors des échanges avec ChatGPT.
Une autre caractéristique importante à ne pas négliger est le défaut d'information. En effet, l'absence d'explications claires sur le fonctionnement ou les limites de l'IA constitue une violation des droits des personnes concernées. Le manque de transparence empêche une protection adéquate des données personnelles, car les individus ne savent pas pourquoi leurs données sont collectées ni combien de temps elles seront conservées. Toutefois, le problème de la "boîte noire" rend difficile la compréhension des décisions prises par certains systèmes d'IA. Malheureusement, on constate également une utilisation abusive des données personnelles. Les systèmes d'IA peuvent collecter et traiter des informations sensibles sans obtenir de consentement explicite, ce qui soulève de graves préoccupations en matière de vie privée.
II- LA RESPONSABILITE EN CAS DE DOMMAGES CAUSES PAR UNE INTELLIGENCE ARTIFICIELLE
A la survenance du dommage causé par l’intelligence artificielle il est judicieux de trouver un responsable pour réparer le préjudice subi par les victimes (A) même si la preuve du lien de causalité est potentiellement difficile à démontrer (B).
A- La pluralité des acteurs impliqués dans le cycle de vie d’une intelligence artificielle
La chaîne de conception de l'IA implique plusieurs acteurs, tels que les fabricants, les développeurs et les intégrateurs. Cette chaîne complexe rend difficile la détermination du ou des responsables en cas de dommages causés par l'utilisation de l'IA. En raison de la diversité des acteurs impliqués, il n'est pas simple d'identifier qui porte la responsabilité. L'article 8 de la Directive traite de la responsabilité des opérateurs économiques en cas de produits défectueux. Ainsi, les fabricants de produits ou de services reposant sur l'IA peuvent voir leur responsabilité engagée si le système d'IA intégré dans leur produit présente des défauts.
Si le défendeur est le fournisseur du système d'IA, une présomption réfragable s'applique si cinq critères ne sont pas respectés : la qualité des données d'entraînement, la transparence, le contrôle humain, la cybersécurité et la gestion des risques . En revanche, si le défendeur est le déployeur, la présomption réfragable du lien de causalité s'applique dans trois situations : si le système n'a pas été utilisé conformément à sa notice d'utilisation, si le système n'a pas été suspendu en cas de risque ou d'incident, ou si le système a été exposé à des données d'entrée non pertinentes, alors que celles-ci étaient sous le contrôle du déployeur .
B- Difficultés probatoires pour les victimes
Bien que l'IA soit considérée comme un produit défectueux, les victimes rencontrent des difficultés pour prouver le lien de causalité entre le défaut de l'IA et le préjudice subi. Selon l'article 10 de la Directive, le demandeur fait face à des obstacles importants en raison de la complexité technique nécessaire pour établir la défectuosité et le lien de causalité. Le législateur n'a pas encore abordé cette question, ce qui fragilise les victimes, qui se retrouvent désavantagées par rapport aux responsables. Les intérêts des responsables du produit sont ainsi mieux protégés que ceux des victimes.
Si le législateur souhaite véritablement protéger les données des personnes, il devra introduire des présomptions réfragables afin d’alléger la charge de la preuve, facilitant ainsi le régime probatoire pour les victimes. Il pourrait également envisager la création d’un régime hybride combinant la responsabilité sans faute pour les producteurs et la responsabilité fondée sur la faute pour les opérateurs et utilisateurs. L'obligation de mise à jour continue et de surveillance post-commercialisation des systèmes d'IA serait essentielle pour garantir la protection des données. L'intelligence artificielle peut être considérée comme un produit défectueux lorsqu'elle ne respecte pas les attentes légitimes en matière de sécurité, mais ses particularités techniques rendent son encadrement juridique particulièrement complexe.
BIBLIOGRAPHIE
Directive européenne (UE) 2024/2853 du Parlement européen et du Conseil du 23 octobre relative à la responsabilité du fait des produits défectueux
Jean-Bernard Mateu, Jean-Jacques Pluchart, « L’économie de l’intelligence artificielle »
https://naaia.ai/quel-regime-de-responsabilite-du-fait-de-lintelligence-artificielle/#:~:text=Il%20introduit%20un%20cadre%20de,l'intelligence%20artificielle%20%C2%BB..