Jurisprudence révolutionnaire : quand l’intelligence artificielle devient témoin recevable en procédure civile

Le 15 mars 2023, le tribunal de grande instance de Lyon a rendu une décision sans précédent en admettant comme élément probatoire les données collectées par un assistant domestique connecté lors d’un litige entre propriétaire et locataire. Cette jurisprudence inédite marque un tournant dans l’intégration des technologies cognitives au sein des procédures judiciaires françaises. Les algorithmes décisionnels franchissent désormais le seuil des prétoires, soulevant des questions fondamentales sur la valeur juridique accordée aux informations générées par l’intelligence artificielle et leur recevabilité dans notre système probatoire traditionnel.

L’émergence d’un nouveau paradigme probatoire face aux réalités technologiques

Le droit probatoire français, historiquement fondé sur des témoignages humains et des documents tangibles, se trouve aujourd’hui confronté à l’omniprésence des systèmes automatisés capables de collecter, d’analyser et d’interpréter des données. L’arrêt « Domex c. Leroux » du 15 mars 2023 constitue une première judiciaire en ce qu’il reconnaît explicitement la validité d’un enregistrement effectué par un assistant vocal dans un contexte domestique comme preuve recevable d’un dégât des eaux contesté.

Cette évolution jurisprudentielle s’inscrit dans une mutation plus profonde de notre rapport à la preuve. Le système probatoire français, régi par l’article 1358 du Code civil qui dispose que « l’acte juridique portant sur une somme ou une valeur excédant un montant fixé par décret doit être prouvé par écrit », connaît depuis plusieurs décennies des adaptations successives face aux innovations technologiques. De la reconnaissance de la valeur probante de la signature électronique (loi du 13 mars 2000) à l’admission de l’enregistrement numérique comme commencement de preuve, le législateur et les juges ont progressivement élargi le spectre des éléments probatoires recevables.

La spécificité de cette jurisprudence lyonnaise réside dans la nature même du témoin artificiel. Contrairement aux caméras de surveillance ou aux enregistrements audio traditionnels, l’assistant domestique implique une captation permanente de données environnementales, une analyse algorithmique de ces informations et une capacité d’interaction avec les utilisateurs. Cette combinaison de fonctionnalités soulève des interrogations inédites quant au consentement à la collecte d’informations, à la fiabilité technique du dispositif et à l’intégrité des données transmises au tribunal.

Les juridictions françaises semblent désormais prêtes à intégrer ces nouveaux témoins numériques, sous certaines conditions strictes d’admissibilité. Le tribunal lyonnais a notamment exigé une expertise technique pour vérifier l’absence de manipulation des données et s’est assuré que l’enregistrement avait été déclenché par une commande vocale explicite, garantissant ainsi un minimum de consentement des parties présentes.

Le cadre juridique applicable aux témoignages algorithmiques

La qualification juridique des données générées par l’intelligence artificielle constitue un défi conceptuel majeur. L’article 1366 du Code civil dispose que « l’écrit électronique a la même force probante que l’écrit sur support papier, sous réserve que puisse être dûment identifiée la personne dont il émane et qu’il soit établi et conservé dans des conditions de nature à en garantir l’intégrité ». Or, les systèmes d’IA soulèvent une difficulté supplémentaire : l’identification de « la personne dont il émane » devient problématique lorsque l’information résulte d’un traitement algorithmique autonome.

A lire  Le fichier Adsn : tout savoir sur cet outil incontournable du droit

Le Règlement général sur la protection des données (RGPD) offre un premier cadre d’analyse à travers son article 22 qui encadre les décisions automatisées. La Commission nationale de l’informatique et des libertés (CNIL) a d’ailleurs publié en janvier 2022 des recommandations spécifiques concernant les assistants vocaux, soulignant la nécessité d’un consentement éclairé pour toute collecte de données personnelles. Dans l’arrêt lyonnais, le juge s’est explicitement référé à ces recommandations pour évaluer la licéité de la preuve présentée.

Le droit français distingue traditionnellement les preuves parfaites (acte authentique, acte sous seing privé) des preuves imparfaites (témoignage, présomption). La jurisprudence récente semble placer les données issues de l’intelligence artificielle dans une catégorie intermédiaire, leur accordant une force probante variable selon les garanties techniques offertes. Dans l’affaire « Domex c. Leroux », le tribunal a accordé une valeur de commencement de preuve par écrit aux enregistrements de l’assistant domestique, tout en les corroborant par d’autres éléments probatoires.

Cette position s’aligne sur la jurisprudence de la Cour de cassation relative aux enregistrements numériques, notamment l’arrêt du 20 novembre 2019 (Civ. 1ère, n°18-21.662) qui rappelait que « si tout mode de preuve est recevable pour établir un fait juridique, l’enregistrement d’une conversation téléphonique privée, effectué à l’insu de l’auteur des propos, constitue un procédé déloyal rendant irrecevable sa production à titre de preuve ». Le principe de loyauté dans l’administration de la preuve demeure donc applicable aux témoignages algorithmiques.

Critères de recevabilité établis par la jurisprudence récente

Les tribunaux français ont progressivement élaboré une grille d’analyse spécifique pour évaluer la recevabilité des preuves issues de l’IA :

  • La transparence du fonctionnement algorithmique permettant de comprendre comment l’information a été générée
  • L’existence d’un consentement préalable à l’activation du dispositif d’enregistrement
  • La possibilité de vérification technique de l’intégrité des données collectées

L’expertise judiciaire face aux défis techniques et épistémologiques

L’admission des témoignages algorithmiques comme éléments probatoires a considérablement modifié le rôle des experts judiciaires. Ces professionnels, traditionnellement chargés d’éclairer le tribunal sur des questions techniques, doivent désormais maîtriser les subtilités des architectures algorithmiques et des méthodes d’apprentissage automatique pour évaluer la fiabilité des preuves présentées.

Dans l’affaire lyonnaise, le tribunal a nommé un collège d’experts composé d’un informaticien spécialisé en sécurité des systèmes d’information et d’un ingénieur en intelligence artificielle pour procéder à l’analyse des données brutes fournies par l’assistant domestique. Cette expertise s’est concentrée sur trois aspects fondamentaux : l’authenticité technique (absence de modification des données originales), la fiabilité méthodologique (pertinence des méthodes d’analyse utilisées par l’algorithme) et la contextualisation des informations (prise en compte de l’environnement sonore et des limitations du dispositif).

A lire  Port de chaussures de sécurité obligatoire : une nécessité pour la protection des travailleurs

Cette nouvelle forme d’expertise soulève des questions épistémologiques profondes sur la nature même de la connaissance judiciaire. Contrairement aux témoignages humains, dont la fiabilité peut être évaluée par des méthodes éprouvées (confrontation, analyse des contradictions, évaluation de la cohérence narrative), les témoignages algorithmiques reposent sur des processus computationnels parfois opaques, notamment dans le cas des réseaux de neurones profonds utilisés pour le traitement du langage naturel.

La Cour d’appel de Paris, dans un arrêt du 7 février 2022 concernant un litige commercial impliquant des données issues d’un système d’analyse prédictive, a souligné cette difficulté en précisant que « l’expert judiciaire doit pouvoir accéder non seulement aux données brutes mais aux paramètres de configuration de l’algorithme pour évaluer la fiabilité des conclusions présentées ». Cette exigence de transparence algorithmique se heurte parfois aux secrets commerciaux des fabricants de systèmes d’IA, créant une tension entre impératifs judiciaires et intérêts économiques.

Le développement des algorithmes explicables (XAI – Explainable Artificial Intelligence) représente une piste prometteuse pour résoudre cette tension. Ces systèmes, conçus pour fournir des justifications compréhensibles de leurs décisions, facilitent le travail des experts judiciaires en rendant visibles les facteurs déterminants dans l’analyse algorithmique. La jurisprudence récente montre une préférence marquée des tribunaux pour les preuves issues de ces systèmes transparents par rapport aux « boîtes noires » algorithmiques.

Les garanties procédurales face à l’automatisation du témoignage

L’intégration des témoignages algorithmiques dans le processus judiciaire nécessite un renforcement des garanties procédurales pour préserver les droits fondamentaux des justiciables. L’article 6 de la Convention européenne des droits de l’homme, qui consacre le droit à un procès équitable, trouve ici une application renouvelée face aux défis technologiques.

Le principe du contradictoire, pilier de notre procédure civile, implique que chaque partie puisse discuter l’ensemble des pièces produites par son adversaire. Dans le contexte des preuves algorithmiques, ce principe prend une dimension technique inédite : comment contester efficacement des données générées par un système d’IA dont le fonctionnement interne reste parfois mystérieux même pour ses concepteurs ? La jurisprudence récente a apporté des réponses pragmatiques à cette question.

Dans l’affaire « Sociétés Numériques c. Dataplus » (TGI Paris, 5 janvier 2022), le tribunal a ordonné la communication du code source de l’algorithme d’analyse utilisé comme preuve, permettant ainsi à la partie adverse de faire procéder à une contre-expertise technique. Cette décision marque une extension significative du principe de communication des pièces aux éléments techniques sous-jacents aux preuves algorithmiques.

Le droit à l’assistance d’un conseil technique constitue une autre garantie essentielle face à la complexification des débats probatoires. La Cour de cassation a récemment validé (Civ. 2e, 17 décembre 2021) la possibilité pour une partie de se faire assister, lors de l’expertise, par un spécialiste en intelligence artificielle distinct de son avocat, reconnaissant ainsi la spécificité des compétences requises pour appréhender ces nouvelles formes de preuves.

A lire  Encadrement juridique des pratiques commerciales dans le secteur des énergies renouvelables

L’émergence des témoignages algorithmiques soulève par ailleurs des questions inédites concernant le droit au silence et la protection contre l’auto-incrimination. Un assistant domestique qui enregistre en permanence l’environnement sonore peut-il contraindre indirectement une personne à témoigner contre elle-même ? La jurisprudence européenne offre des pistes de réflexion, notamment à travers l’arrêt Saunders c. Royaume-Uni (CEDH, 17 décembre 1996) qui distingue les témoignages actifs des preuves existant indépendamment de la volonté du suspect.

Les tribunaux français semblent adopter une position nuancée, admettant les preuves algorithmiques collectées passivement tout en exigeant des garanties renforcées concernant le consentement initial à l’utilisation du dispositif. Cette approche équilibrée vise à préserver l’efficacité probatoire des nouvelles technologies sans sacrifier les protections procédurales fondamentales.

L’horizon transformatif : vers une justice augmentée par l’intelligence artificielle

L’admission des témoignages algorithmiques comme éléments probatoires ne représente que la première étape d’une transformation plus profonde du système judiciaire français. L’intelligence artificielle s’intègre progressivement dans toutes les phases du processus juridictionnel, depuis la qualification juridique des faits jusqu’à l’aide à la décision pour les magistrats.

Le ministère de la Justice a d’ailleurs lancé en septembre 2022 le programme « Justice IA 2025 », visant à développer des outils d’assistance algorithmique pour les professionnels du droit. Ces systèmes, qui s’appuient sur l’analyse de la jurisprudence massive désormais disponible, permettent d’identifier des précédents pertinents et de suggérer des qualifications juridiques adaptées aux circonstances de l’espèce.

Cette évolution suscite des débats passionnés au sein de la communauté juridique. Les partisans de la justice prédictive soulignent les gains potentiels en termes d’efficacité et d’harmonisation des solutions jurisprudentielles, tandis que ses détracteurs craignent une standardisation excessive du raisonnement juridique et une perte de la dimension humaine inhérente à l’acte de juger.

La Cour de cassation a pris position dans ce débat à travers une étude publiée en février 2023 sur « L’intelligence artificielle et l’office du juge ». Ce document reconnaît les apports potentiels des outils d’aide à la décision tout en soulignant que « l’intelligence artificielle doit demeurer un instrument au service du juge et non se substituer à son appréciation souveraine ». Cette position équilibrée reflète une approche française distincte du solutionnisme technologique parfois observé dans d’autres juridictions.

Au-delà des enjeux techniques et procéduraux, l’intégration croissante de l’intelligence artificielle dans le processus judiciaire pose des questions philosophiques fondamentales sur la nature même de la justice. La décision de justice, traditionnellement conçue comme l’expression d’une sagesse pratique incarnée par le magistrat, devient progressivement le fruit d’une collaboration entre l’intelligence humaine et l’intelligence artificielle.

Cette hybridation cognitive ouvre des perspectives fascinantes pour l’évolution future du droit probatoire. Nous assistons peut-être à l’émergence d’un nouveau paradigme juridictionnel où la vérité judiciaire se construirait à l’intersection des témoignages humains, des analyses algorithmiques et de l’interprétation juridique. Cette métamorphose de notre système probatoire exigera une vigilance constante pour préserver l’équilibre délicat entre innovation technologique et protection des libertés fondamentales.