Accueil Actualité des SSII Comment juger les préjudices causés par une IA ?

Comment juger les préjudices causés par une IA ?

Cour d'appel de Paris - Photo DR Benh LIEU SONG — Travail personnel - Wikipedia
Cour d'appel de Paris - Photo DR Benh LIEU SONG — Travail personnel - Wikipedia

La Cour d’appel de Paris a publié une précieuse fiche permettant d’évaluer les conséquences causées par des systèmes d’intelligence artificielle (IA).

Cette fiche a une ambition prospective dans la mesure où les contentieux n’ont pas, en l’état, fait l’objet d’une jurisprudence établie et que les textes français vont évoluer“, préviennent les membres du groupe de travail de la Cour d’appel de Paris.

Ce document anticipe les litiges à venir. De nombreux cas de réparation de préjudices devraient très prochainement émerger lier à l’installation de l’IA dans l’ensemble de nos activités. “Le préjudice causé peut être matériel ou immatériel, y compris physique, psychologique, sociétal ou économique”, rappellent les experts.

Intégré au Recueil 2025, ce document est majeur. Il pose les bases d’une doctrine judiciaire sur la manière d’évaluer et d’indemniser les dommages causés par un système d’intelligence artificielle.

Révolution pour tous les acteurs

Cette initiative annonce une évolution très conséquente pour l’ensemble des acteurs de la société : éditeurs, utilisateurs, entreprises, citoyens, Etats, organismes publiques ou tous les tiers impliqués dans la chaîne de valeur de l’IA.

Les professionnels du droit rappellent avec force que “la responsabilité personnelle du robot ne peut jamais être engagée, y compris sur le fondement des articles 1240 ou 1241 du code civil. Autrement dit, le responsable demeure toujours une personne physique ou morale. Ceci étant posé, l’une des principales difficultés résidera dans la preuve du lien de causalité, du fait de la complexité technologique et de l’ “effet boîte noire”.

Une présomption judiciaire laissée au juge

Aussi, les professionnels du droit proposent de laisser les présomptions à l’appréciation du juge. “Toute atteinte à un droit, qui devra être démontrée, y compris par un faisceau d’indices suffisants, pourra constituer une faute. De même, pour toute violation d’une obligation consacrée par le RIA“.

Ainsi, un système d’IA de scoring, pour le recrutement ou une demande d’accès au crédit qui exclurait systématiquement certains profils pourrait voir la responsabilité de l’entreprise engagée.
Le juge pourrait retenir comme faisceaux d’indices le taux d’exclusion, l’absence de transparence ou le défaut de supervision humaine, le défaut des algorythmes… pour conclure à une faute dans la conception ou dans l’usage du système.

La responsabilité de tous : fournisseur et déployeur

Autre point essentiel, une entreprise utilisatrice, considérée comme déployeur au sens de l’AI Act, sera systématiquement responsable en tant que professionnel. “En raison de l’autonomie du système d’IA, la distinction entre la “garde de la structure” et “la garde du comportement” pourrait servir à répartir les responsabilités entre le fabricant — le fournisseur d’IA — et le déployeur », précise les travaux du groupe de travail.

Vers une convergence avec le cadre européen

Ce document à consulter d’urgence pose les futurs principes de responsabilité civile française qui vont structurer une nouvelle architecture juridique de l’IA, pour assurer une IA responsable.