Introduction :
La directive européenne 2024/2853 sur la responsabilité du fait des produits défectueux, constitue, une étape clé vers un régime complet de la responsabilité liée à l’IA, d’autant plus que la Commission a renoncé à adopter une directive séparée sur la responsabilité civile de l’IA.

Dès lors, on peut se demander : en quoi la directive 2024/2853 instaure-t-elle un régime adapté et suffisant pour traiter les dommages causés par des systèmes d’intelligence artificielle ?

Pour répondre à cette question, il convient d’analyser, dans un premier temps, les apports majeurs de la directive pour couvrir les spécificités des produits intégrant de l’IA (I), avant de s’interroger sur les limites et les enjeux persistants liés à l’application de ce régime (II).

I. Une directive qui modernise et adapte la responsabilité du fait des produits aux réalités technologiques de l’IA

A. Une définition élargie du produit pour inclure les logiciels et les systèmes d’IA

La directive 2024/2853 adopte une définition très large du « produit » (art. 4), incluant désormais les fichiers numériques, les logiciels, les algorithmes et les systèmes d’IA. Elle reconnaît donc que des éléments immatériels peuvent être à l’origine d’un dommage. Cette approche permet d’intégrer dans le champ d’application de la directive les biens complexes, interconnectés et évolutifs, caractéristiques des technologies d’IA modernes.

B. Une prise en compte des dynamiques propres à l’IA : autonomie, apprentissage et mises à jour

L’article 7 de la directive prévoit que l’appréciation du défaut d’un produit peut inclure « l’effet sur le produit de toute capacité à poursuivre son apprentissage ou à acquérir de nouvelles caractéristiques après sa mise sur le marché ». Cela permet de tenir compte de l’autonomie de fonctionnement de certains systèmes d’IA, capables de modifier leur comportement après la commercialisation. En cas de dommage, c’est le fabricant ou le fournisseur du système qui devra démontrer qu’il a correctement encadré cette évolution.

C. Un partage de responsabilité adapté aux nouvelles chaînes de production

La directive élargit la notion de « responsable » à plusieurs acteurs : fabricant, importateur, distributeur, plateformes numériques, voire prestataires de services logistiques. Cela permet de couvrir toutes les étapes de la chaîne, notamment pour les produits ou logiciels développés hors de l’Union européenne. De plus, la directive instaure une responsabilité solidaire entre ces opérateurs, facilitant l’indemnisation des victimes.


II. Un régime encore perfectible face à la complexité technique et juridique de l’intelligence artificielle

A. Des difficultés persistantes en matière de preuve du défaut et du lien de causalité

Bien que la directive facilite l’accès à la preuve (art. 9 et 10), il reste complexe pour une victime d’un dommage causé par une IA de démontrer le défaut, surtout lorsque celui-ci résulte d’un processus d’apprentissage opaque. Des présomptions de défaut et de lien de causalité sont certes prévues (ex. : non-respect d’une norme obligatoire), mais elles restent simples et peuvent être renversées. L’équilibre entre protection des victimes et secret industriel demeure fragile.

B. Le maintien de l’exonération pour risque de développement

Comme dans la directive de 1985, la nouvelle directive autorise une exonération de responsabilité si le défaut n’était pas décelable au moment de la mise sur le marché, compte tenu des connaissances scientifiques disponibles (art. 11). Or, cette exonération est difficilement compatible avec les produits évolutifs comme l’IA, qui changent après leur commercialisation. Le maintien de cette disposition risque de fragiliser les droits des victimes, surtout dans le domaine de la santé ou des véhicules autonomes.


Conclusion :

En modernisant en profondeur le régime de la responsabilité du fait des produits, la directive 2024/2853 réalise une avancée majeure pour mieux encadrer les dommages liés aux technologies numériques et aux systèmes d’IA qui permet une meilleure protection des victimes. Toutefois, certaines limites subsistent, notamment face à la complexité des systèmes d’IA et à la question de l’imputabilité du dommage. Si cette directive représente une étape essentielle, elle n’épuise pas le débat sur l’opportunité d’un régime autonome pour l’IA. Dans un contexte d’innovation rapide, le droit devra encore évoluer pour trouver un juste équilibre entre sécurité juridique, innovation et protection des citoyens.