ANALYSE DE LA DIRECTIVE (EU) 2024/2853 SUR LA RESPONSABILITÉ DES PRODUITS DÉFECTUEUX À L’ÈRE DE L’IA À L’AIDE D’UNE ÉTUDE COMPARATIVE AVEC LES DROITS FRANÇAIS ET ITALIEN
Résumé : La directive (UE) 2024/2853 harmonise la responsabilité du fait des produits défectueux en incluant les logiciels et l’intelligence artificielle dans la notion de « produit ». Elle instaure une responsabilité objective, mais n’offre pas aux victimes des dommages causés par l’IA les mêmes garanties que certains droits nationaux, notamment français et italien, en matière de charge de la preuve et d’exonération de responsabilité.
Le 18 mars 2018, lorsque le véhicule autonome Uber percute mortellement une piétonne à Tempe (Arizona)[1], l’intelligence artificielle (IA) révèle brutalement ses limites et pose la question de la responsabilité civile. Face à ces nouveaux risques, la directive (UE) 2024/2853[2] s’impose comme une réponse européenne attendue.
Aujourd’hui, l’IA constitue un enjeu crucial pour le droit et la société, en raison des perspectives qu’elle offre. Toutefois, cela ne doit pas occulter les risques liés aux dommages « ordinaires » relevant de la responsabilité civile : erreurs médicales assistées par IA, accidents de véhicules autonomes ou dommages causés par la robotique chirurgicale. Dès lors, se pose la question de savoir comment indemniser les victimes de ces dommages, en l’absence de régime de responsabilité spécifique du fait de l’IA dans les droits nationaux et afin d’éviter que les victimes de l’IA soient moins protégées que les victimes de dommages n’impliquant pas l’IA. Deux voies étaient envisageables : laisser chaque État adapter ses propres règles, au risque d’inégalités de protection au sein de l’Union, ou intervenir au niveau européen pour harmoniser le cadre juridique. C’est cette seconde option qui a été retenue avec l’adoption de la directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux.
Cette directive abroge la directive 85/374/CEE du 25 juillet 1985, avec une transposition exigée au plus tard le 9 décembre 2026. Elle instaure un régime de responsabilité objective du fait des produits défectueux applicable également aux systèmes d’IA[3].
L’objectif de ce nouveau texte est double : d’une part, harmoniser les règles applicables, en offrant une discipline minimale à chaque État membre, notamment pour les dommages causés par un système d’IA. D’autre part, renforcer la protection des victimes en tenant compte de l’opacité et de la complexité technique de ces systèmes. Toutefois, la directive s’inscrit aussi dans une logique de soutien à l’innovation du marché numérique européen, ce qui conduit parfois à limiter l’ambition protectrice du régime de responsabilité[4]. D’ailleurs, certains pays, comme l’Italie et la France, témoignent de l’existence de mécanismes de responsabilité civile déjà assez protecteurs à l’égard des victimes.
Cette directive apporte une protection minimale dans tous les pays européens. On doit se demander, cependant, dans quelle mesure la directive, en instituant un régime de responsabilité ad hoc pour les produits d’IA, renforce réellement la protection des victimes par rapport aux solutions déjà offertes par certains pays, en particulier l’Italie et la France.
L’étude de cette directive montre qu’elle constitue un instrument protecteur en matière de responsabilité du fait de l’IA (I), mais qu’elle souffre de limites dans la protection qu’elle offre, en particulier au regard de certains droits nationaux (notamment italien et français) qui contiennent des mécanismes plus protecteurs (II).
-
Un instrument protecteur en matière de responsabilité du fait de l’IA
La responsabilité du fait des produits défectueux est prévue en France aux articles 1245 et s. du Code civil (c.c.) et en Italie aux articles 114 et s. du Codice del Consumo, en transposition de la directive 85/374/CEE. Toutefois, ce régime s’est révélé inadapté aux dommages causés par l’IA, en raison de définitions trop restrictives des notions de « produit » et de « défaut ». La directive (UE) 2024/2853 corrige ces lacunes, en adoptant des notions plus larges que celles retenues par les droits français et italien (A). Ensuite, face à la complexité de l’IA, la directive prévoit des innovations procédurales facilitant la preuve pour les victimes, qui étaient toutefois, elles, préexistantes dans les droits français et italien (B).
A. DES NOTIONS ÉLARGIES DE PRODUIT DÉFECTUEUX
S’agissant de la notion de produit, les droits français et italien[5] limitaient celle-ci aux biens meubles corporels, ce qui laissait planer des doutes sur l’inclusion des logiciels et, par conséquent, des systèmes d’IA. En France, une réponse ministérielle[6]admettait l’assimilation du logiciel à un produit, tandis qu’en Italie aucune reconnaissance explicite n’existait[7]. Cependant, sansfondement clair dans les deux États, la qualification restait controversée[8]. C’est dans ce contexte que la directive (UE) 2024/2853 est venue trancher le débat, en disposant, à son art. 4, que les logiciels sont considérés comme des « produits ».
Quant au défaut du produit, l’art. 1245-3 du Code civil et l’art. 117 du Codice del Consumo imposent de l’apprécier en tenantcompte à la fois de l’activité du producteur (notamment, la présentation du produit et les informations qu’il fournit aux utilisateurs) et de l’usage raisonnablement prévisible par ceux-ci. Cependant, pour le machine-learning, le dommage peut résulter de l’évolution autonome du système, qui apprend de manière erronée après sa mise sur le marché. Les victimes se heurtent, ainsi, à une impossibilité d’engager la responsabilité du producteur, car dans les deux pays le défaut n’est pas apprécié sur l’activité du produit lui-même. La directive 2024/2853 pallie cette lacune : à son art. 7, lettre c), elle reconnaît un défaut « dérivé », présumant la défectuosité lorsque le risque émerge de la capacité de l’IA “à poursuivre son apprentissage ou à acquérir de nouvelles caractéristiques après sa mise sur le marché”.
Outre l’élargissement de son champ d’application, la directive introduit également des innovations procédurales pour faciliter la preuve, sans se limiter à la protection matérielle. Sur ce point, la directive s’est montrée relativement peu innovante eu égard du droit français et italien.
B. DES INNOVATIONS PROCÉDURALES PLUS LIMITÉES
Selon les droits italien et français[9], l’acteur, à savoir la victime, doit établir le dommage, le défaut et le lien de causalité entre le dommage et le défaut. Or, l’opacité des dispositifs autonomes (effet de “boite noire”) et la complexité de l’IA compliquent la compréhension des causes techniques d’un dommage, défavorisant la victime.
L’art. 10 de la directive (UE) 2024/2853 atténue cette contrainte en introduisant des présomptions légales sur le caractère défectueux et le lien de causalité. Ce mécanisme est protecteur, mais peu innovant, car la France et l’Italie recourent déjà aux présomptions en cas de complexité technique, à condition de disposer d’indices graves, précis et concordants[10]. Toutefois, la directive ne reprend pas les mêmes présomptions judiciaires, puisqu’elle en crée de nouvelles (le produit est, par exemple, présumé défectueux en cas de défaut de divulgation d’informations par le défendeur ou de non-conformité aux normes de sécurité obligatoires). Pour autant, l’instauration de présomptions légales par la directive n’exclut pas le recours aux présomptions judiciaires des droits nationaux, à condition que cela ne fasse pas échec à l’effet utile de l’article 10 de la directive.
La directive prévoit également un mécanisme inspiré du « discovery » anglo-saxon. Selon l’article 9, la victime peut demander au juge d’ordonner au défendeur la communication des éléments de preuve, à condition que sa demande soit plausible. Là encore, il s’agit d’un outil protecteur, mais similaire à ceux existants en France et en Italie : l’art. 145 du Code de procédure civile français permet au juge d’ordonner des mesures d’instruction sur justification d’un motif légitime, tandis que l’art. 696-bis du Codice di procedura civile italien prévoit la Consulenza tecnica preventiva, permettant de vérifier techniquement certains aspects, après un examen in limine. La seule différence réside dans leur ratio legis : la directive vise à faciliter simplement la preuve pour la victime, alors que les dispositifs nationaux permettent à la victime d’évaluer, avant procès, si engager la procédure est pertinent sur la base des éléments de preuve issus de l’expertise.
Ainsi, la directive (UE) 2024/2853 instaure des mécanismes protecteurs, tout en restant, sur certains points, peu innovante pour la France et l’Italie. Par ailleurs, elle n’offre pas toujours le niveau de protection que l’on pourrait attendre.
-
Les limites de la protection offerte par le dispositif européen au regard de certains mécanismes nationaux existants
Afin de ne pas entraver l’innovation technologique du marché européen, la directive prévoit plusieurs causes d’exonération de responsabilité du producteur. Cependant, certaines d’entre elles soulèvent des inquiétudes quant à la protection des victimes (A). Cela conduit à s’interroger sur l’opportunité de recourir à des régimes nationaux plus protecteurs des victimes (B). C’est pourquoi la nouvelle directive, à son art. 2, ne fait pas obstacle à leur application.
- LA PRÉSENCE DE CERTAINES CAUSES D’EXONÉRATION SOULEVANT DES INQUIÉTUDES POUR LES VICTIMES
Parmi les causes d’exonération prévues par la directive figure le “risque de développement”, c’est-à-dire l’impossibilité objective,au moment de la mise sur le marché, pour le producteur de déceler la défectuosité du produit. Bien que prévues pour ne pas freiner l’innovation technologique, ces causes doivent tenir compte des spécificités de l’IA : les systèmes d’IA fondés sur le machine learning évoluent avec l’expérience, ce qui pourrait facilement exonérer le producteur. D’où la nécessité de ne pas la prévoir parmi les causes d’exonération lorsque le produit en question est une IA. D’ailleurs, la directive laisse aux États, lors de la transposition, le libre choix de l’adopter. Le législateur français l’a déjà écartée pour les produits issus du corps humain[11] et pourrait, ainsi, être plus favorable que l’Italie à sa suppression.
La directive prévoit aussi que la responsabilité du producteur peut être réduite ou supprimée lorsque le dommage résulteconjointement de la défectuosité du produit et la faute de la personne lésée. Ledit texte admet ainsi que le producteur puisse être totalement exonéré alors même que le dommage est seulement en partie imputable à la victime. La France connaît déjà une formule similaire à l’article 1245-12 du Code civil. S’agissant de l’Italie, celle-ci se montre plus protectrice des victimes. En effet, à la lecture de l’article 122 du Codice del consumo et de l’article 127 du Codice civile, il apparaît que le législateur italien n’a pas voulu exonérer totalement le producteur en cas de faute de la victime, mais prévoit uniquement une réduction proportionnelle de sa responsabilité.
Or, dans sa volonté de concilier innovation technologique et protection des victimes, l’UE n’a pas pleinement atteint cet équilibre pour certaines causes d’exonération de la responsabilité du producteur. Cela conduit à s’interroger sur l’existence de régimes nationaux plus protecteurs.
B. DES RÉGIMES ALTERNATIFS PLUS PROTECTEURS DANS LES DROITS NATIONAUX
En droit français, privilégier la responsabilité du fait des choses[12], plutôt que celle du fait des produits défectueux, apparaît plus protecteur pour les victimes des systèmes d’IA.
D’abord, le gardien de la chose ne peut s’exonérer qu’en prouvant une “cause étrangère”[13]. Or, le risque du développement de l’IA n’en constitue pas une, le producteur étant conscient, lors de la mise en circulation, que le système peut apprendre de manière autonome et, en raison de cela, causer des dommages.
Ensuite, la victime bénéficie d’un allègement notable de la charge de la preuve : il lui suffit d’établir le dommage, le fait de la choseet la garde de la chose (dans le cadre de l’IA, le pouvoir d’initier ou d’arrêter le jeu de l’IA), sans démontrer un défaut (particulièrement ardu pour l’IA). Ce régime suppose que la France qualifie l’IA de « chose », mais, à la lumière de la réponse ministérielle de 1988, cela ne semble pas poser difficulté.
En Italie, le régime de responsabilité objective pour l’exercice d’activités dangereuses[14] s’avère également protecteur. D’abord, il entraîne une inversion de la charge de la preuve[15] de sorte qu’elle pèse sur le producteur, qui doit démontrer avoir adopté toutes les mesures idoines pour éviter le dommage. Le risque du développement lui incombe également : si, au moment d’entreprendre l’activité dangereuse, la technique n’offre pas de mesures appropriées pour prévenir les dommages, il sera toujours responsable des dommages causés[16]. Il s’agit, néanmoins, de qualifier l’IA d’« activité dangereuse ». Dans certains cas, la dangerosité apparaît clairement : l’usage d’algorithmes d’évaluation du risque de récidive fondés sur des biais reproduisant des discriminations raciales (v. State v. Loomis, Wis. 2016), ou leur emploi pour apprécier la dangerosité d’un individu, soulèvent de sérieux enjeux. Toutefois, considérer l’IA comme une « activité dangereuse » ne peut être systématique : certaines applications (recherche juridique, traduction, aide au diagnostic) offrent des bénéfices réels. Une qualification indifférenciée risquerait d’entraver des usages sûrs et utiles. Il importe, donc, d’opérer une distinction graduée de la dangerosité ; à cet égard, l’AI Act européen, qui identifie les systèmes d’IA à haut risque, peut servir de référence[17]. Ainsi, il est possible d’engager la responsabilité du programmateur ou de l’opérateur du seul fait qu’il se livre à une telle activité à risque et qu’un dommage en est résulté.
En conclusion, bien que le régime issu de la directive (UE) 2024/2853 présente l’avantage d’établir un socle minimal de responsabilité pour l’IA dans certains États membres, il comporte des limites notables, notamment en matière de causes d’exonération et de la charge de la preuve, particulièrement visibles dans certains pays comme l’Italie et la France. Il est important de ce point de vue que l’art 2, §4 de la directive (UE) 2024/2853 prévoie la possibilité de cumuler la responsabilité du fait des produits défectueux avec d’autres régimes nationaux de responsabilité.
Bibliographie
Ouvrages généraux
- Biavati Paolo — Argomenti di diritto processuale civile, Bologna, Bologna University Press, 2020, 928 p.
- Brun Philippe — Responsabilité civile extracontractuelle, Paris, LexisNexis, 2023, 734 p.
- Galgano Francesco — Diritto privato, Milano, CEDAM, 2021, 1184 p.
- Lequette Suzanne — Droit du numérique, Paris, Lextenso, 2024, 858 p.
- Letourneau Philippe —Contrats du numérique, Paris, Dalloz, 12ème éd., 2018, 924 p.
- Mekki Soraya Amrani, Strickler Yves — Procédure civile, Paris, Presses Universitaires de France, 2014, 908 p.
Articles
- Cartapanis Marie— “Faut-il repenser l’exonération pour risque de développement?”, RTDCiv. Revue trimestrielle de droit civil, 3/2021, pp. 1-21.
- Cocteau Delphine — “La responsabilité du fait des produits défectueux”, Journal de droit de la santé et de l’assurance maladie, 2023/38, pp. 74-80.
- Lucas André — “La responsabilité du fait des “choses immatérielles””, Mél. P. Catala, 2001, pp. 817 s.
- Pierre-Maurice Sylvie— “Secret des affaires et mesures d'instruction in futurum”, Recueil Dalloz, 41/2002, pp. 3131.
- Montinaro Roberta, “Responsabilità da prodotto difettoso e tecnologie digitali : tra soft law e hard law", Persona e Mercato, 2020, n. 4, pp. 349-371
Textes officiels
- Directive (UE) 2024/2853 du Parlement européen et du Conseil du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux et abrogeant la directive 85/374/CEE du Conseil, JO L, 2024/2853, 18.11.2024.
- Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux, JO L 210 du 7.8.1985.
- Rapport de la Commission au Parlement européen, au Conseil et au Comité économique et social européen sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité, 19 février 2020, COM (2020) 64.
- Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828, JO L, 2024/1689, 12.7.2024.
- Réponse ministérielle à M. de Chazeaux Olivier, de Madame le Garde des Sceaux, du 15 juin 1998, n° 15677 JOAN, questions, 24 août 1998, p. 4728.
Décisions en justice italiennes et françaises
- Cass. civile, Sez. III, 28 marzo 2025, n. 8224.
- Cass. 1ère Civ., 21 octobre 2020, n. 19-18.689.
- Cass. 1ère civ., 12 novembre 2015, n. 14-18.118.
- Cass. Ass. plén., 21 juillet 1982, n. 81-12.850.
- Cass. civile, Sez. III, 4 maggio 2004, n. 8457/2004.
- Cass. civile, Sez. III, 7 novembre 2019, n. 28626/2019.
Autres
- Corine Lesnes — “Etats-Unis : un véhicule autonome d’Uber provoque la mort une piétonne”, Le Monde, du 19 mars 2018 https://www.lemonde.fr/economie/article/2018/03/19/etats-unis-une-pietonne-meurt-renversee-par-un-vehicule-autonome-d-uber_5273326_3234.html, lien consulté le 6 février 2026.
- Hervieu Merryl — “Point sur la nouvelle directive européenne (UE) 2024/2853 relative à la responsabilité du fait des produits défectueux”, Dalloz Acte étudiant, du 16 janvier 2025 https://actu.dalloz-etudiant.fr/a-la-une/article/point-sur-la-nouvelle-d... directive vise ainsi à,start-ups du secteur numérique.&text=Réinterprétation de la notion de défaut (art., lien consulté le 18 janvier 2026.
[1] Corine Lesnes — “Etats-Unis : un véhicule autonome d’Uber provoque la mort une piétonne”, Le Monde, 19 mars 2018.
[2] Directive (UE) 2024/2853 du Parlement européen et du Conseil du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux et abrogeant la directive 85/374/CEE du Conseil, JO L, 2024/2853, 18.11.2024.
[3] V. le Considérant no. 3 de la Directive (EU) 2024/2853.
[4] V. l’art. 1er de la directive (UE) 2024/2853.
[5] Art. 1245-2 c.c. français ; Art. 115 du Codice del Consumo italien.
[6] V. la Réponse ministérielle du 15 juin 1998 n. 15677, p. 4728.
[7] Aucune source de droit ne garantissait l’inclusion des logiciels dans la notion de “produit”. Cependant, la doctrine a parfois tenté d’en admettre l’intégration. V. R. MONTINARO, “Responsabilità da prodotto difettoso e tecnologie digitali : tra soft law e hard law", in Persona e Mercato, 2020, n. 4, pp. 349-371.
[8] Des auteurs considèrent que la directive de 1985 n’aurait pas envisagé les produits immatériels. À cet égard, v. A. LUCAS, « La responsabilité du fait des “choses immatérielles” », in Mél. P. Catala, Litec, 2001, p. 817 s. Contra : P. LETOURNEAU, Contrats du numérique, Dalloz, 12ème éd., n° 212.42.
[9] Art. 1245-8 c.c. ; art. 120 du Code del consumo.
[10] V. pour l’Italie : Cass., 28 marzo 2025, n. 8224 ; pour la France : Cass. 1ère Civ., 21 oct. 2020, n. 19-18.689 ; Cass. 1ère civ., 12 novembre 2015, n. 14-18.118.
[11] Art. 1245-11 c.c.
[12] Art. 1242 al. 1er c.c.
[13] Cass. Ass. plén., 21 juillet 1982, n° 81-12.850.
[14] Art. 2050 du Codice civile.
[15] Cass., n° 8457/2004 ; Cass., n° 28626/2019.
[16] Cass., n° 6587/2019.
[17] V. art. 6 et son annexe III du règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’IA, JO L, 2024/1689, 12.7.2024.