Nos chercheurs ont la parole... Entretien avec Aurore Hyde, Enseignante-Chercheuse au CEJESCO (01/09/2025)
1°/ Pourriez-vous nous présenter l'un de vos travaux de recherche mené ces derniers mois ?
Entre 2021 et 2024, l'occasion m'a été donnée de piloter une recherche interdisciplinaire financée par l’Institut Robert Badinter, portant sur les outils dotés d’IA développés à destination des professionnels du droit pour les aider à envisager les issues probables d’un litige (dits « outils de justice prévisionnelle »). La perspective, interdisciplinaire (droit, économie, informatique, métrologie, sociologie), était de cerner comment la confiance dans ces outils peut être assurée, notamment en envisageant les modalités de leur régulation et de leur évaluation par un tiers indépendant. L’axe droit-économie a ainsi étudié la structuration de l’offre et des marchés, l’impact des outils sur la qualité de la décision judiciaire, les modalités régulatoires existantes, leurs limites, et celles envisageables. L’axe droit-informatique-métrologie s’est attaché à vérifier le respect du cadre éthique et juridique existant en matière d’IA et à concevoir un cahier des charges d’analyse de risques dans la perspective d’une éventuelle certification. L’axe droit-sociologie s’est enfin interrogé sur la mesure dans laquelle ces outils pouvaient avoir une incidence sur les sources du droit, d’une part, et sur les pratiques professionnelles des magistrats, d’autre part.
Ce travail, comme sa synthèse, sont accessibles en ligne ici.
2°/ Quelles conclusions principales en avez-vous tirées ?
La recherche a mis en lumière que si les outils de justice prévisionnelle (OJP) offrent des perspectives intéressantes pour améliorer la gestion du contentieux judiciaire, en augmentant la prévisibilité des décisions et en facilitant l'accès à un volume important de jurisprudence, le marché était dominé par quelques grandes entreprises, d'une part, et qu'il existe une grande asymétrie d’information entre ces entreprises, les professionnels du droit, les justiciables et la puissance publique, d'autre part. Le fonctionnement des outils est généralement opaque alors même qu’il n’est pas neutre. Les multiples choix de conception jouent un rôle dans les solutions proposées et le problème de vérifiabilité des résultats qui risque de se répercuter sur la qualité de la décision des professionnels du droit et in fine sur la confiance dans le système judiciaire.
La transparence et l’explicabilité doivent donc être au cœur de la conception de ces outils comme de leur utilisation. Autrement dit, il importe de rendre publiques les informations les plus pertinentes relatives à un outil de justice prévisionnelle (transparence) ainsi que sa logique de fonctionnement (explicabilité), selon un degré de précision que la puissance publique doit déterminer.
Le rapport montre également que la normalisation technique peut s’avérer utile pour guider les opérateurs dans leur démarche de conformité, spécialement dans une logique d’auto-évaluation puis d’évaluation par un tiers. Une certification serait souhaitable, dont l’étendue et le degré d’obligatoriété resterait à déterminer, là encore par la puissance publique.
Il conclut à la nécessité de hiérarchiser les décisions de justice accessibles en open data pour que leur poids dans le résultat puisse être pondéré dans les paramètres des OJP, ne soient pas mises toutes sur le même plan, et d’accompagner les professionnels du droit dans leur utilisation de ces outils, non seulement pour bien comprendre leur fonctionnement, mais surtout pour avoir une conscience aiguë de leurs limites.
3°/ Et pour demain, avez-vous de nouvelles perspectives de recherches ?
Il nous est apparu nécessaire de renforcer les partenariats entre les universités et les professionnels du droit, via les ordres professionnels, les juridictions ou l’Observatoire des litiges, à des fins de recherche pour observer le véritable impact de ces outils.
Personnellement, j’effectue actuellement une recherche pour la Fondation pour le droit continental afin d’étudier dans quelle mesure l’utilisation d’outils dotés d’IA par les professionnels du droit influence la manière de pratiquer le droit et d’élaborer un raisonnement juridique pour mettre en lumière les risques éventuels de perte d’identité du Droit continental par rapport au Common law, et les pistes pour y palier.
Pour l’avenir, j’envisage une collaboration de recherche avec l’Institut National pour l’Évaluation et la Sécurité de l’Intelligence Artificielle afin de poursuivre mon travail sur l’évaluation technico-juridique des outils d'IA.
Aurore Hyde, Professeure à l'Université de Reims Champagne-Ardenne