"Je reste convaincu qu’une partie du travail de la justice ne pourra jamais être automatisée", B. Warusfel
Intelligence artificielle, algorithmes, outils prédictifs. Ces mots sont de plus en plus associés au droit. La justice est-elle prête à les accueillir ? Le point de vue de Bertrand Warusfel.
Ces nouvelles technologies semblent avoir du mal à s’implanter dans le secteur. Pourquoi ?
La justice est en phase de réflexion face à ces nouvelles perspectives technologiques. Elle se questionne sur leur utilité et leurs limites. Mais cela s’inscrit dans un processus de numérisation des procédures qui est, pour sa part, déjà bien engagé. Actuellement, les avocats échangent leurs conclusions et effectuent leurs actes de procédure par voie électronique, en utilisant le RPVA (réseau privé virtuel des avocats, connecté de manière sécurisé au réseau des juridictions judiciaires). Mais on va certainement aller plus loin et dématérialiser plus encore les procédures, voire les audiences. A mon sens, ce n’est qu’une fois que cette première phase de dématérialisation de la justice aura été menée à bien qu’il serait justifié d’envisager d’introduire des outils plus « intelligents ». Sauter une étape serait sans doute peu cohérent, voire dangereux.
Quelles sont les limites de l’utilisation des algorithmes dans la justice ?
Je reste convaincu qu’une partie du travail de la justice ne pourra jamais être automatisée. Car seul un juriste a la capacité d’apprécier et de qualifier juridiquement des faits. Par ailleurs pour que la jurisprudence puisse avancer, il faut que le juge demeure libre d’interpréter la règle de droit et d’innover par rapport aux décisions antérieurement rendues dans le même domaine. Même si la loi Lemaire du 7 octobre 2016 prévoit maintenant l’accès du public à toutes les décisions des juridictions judiciaires et administratives (voir notre article), il ne faudrait pas que, dans l’avenir, les futures décisions soient prises directement à partir des corrélations issues de l’analyse de toutes ces « big data » judiciaires. Sinon, on risquerait de tomber dans une justice de masse soumise à une logique de pure efficacité qui ne prenne plus en compte l’individu et la particularité de chaque situation.
Par ailleurs, aucune technologie n’est intrinsèquement neutre. Chacune renferme des biais qui peuvent changer la manière de faire et de réagir, sans que l’utilisateur puisse s’en apercevoir. Ajoutons que tout système technique demeure aussi tributaire d’éventuelles failles dans sa programmation ou de vulnérabilités de sa sécurité. L’intelligence artificielle, en particulier, est d’une telle complexité technique que la rançon de son « intelligence » est bien souvent une relative fragilité interne qui ne se détecte pas facilement.
Malgré les risques de défaillance, les algorithmes d’apprentissage servant au traitement des données sont déjà utilisés par la police. Par conséquent, ne pensez-vous pas que les algorithmes vont bouleverser les pratiques voire prendre le dessus à terme ?
La police et la justice me paraissent être dans deux situations différentes s’agissant du recours aux algorithmes. La police se trouve au début de la chaîne pénale car elle cherche à prévenir le crime et à récolter les preuves. Par conséquent, il est logique qu’elle utilise toute sorte d’outils technologiques quitte à prendre quelques risques (c’est-à-dire de produire parfois ce que l’on appelle des « faux positifs », c’est à dire de soupçonner à tort des personnes qui seront innocentées par la suite de l’enquête ou par le tribunal). C’est sans doute le prix à payer pour assurer la sécurité. Mais c’est alors le contrôle par les juges (procureur, juge d’instruction ou juridiction de jugement) qui assure la garantie des libertés et le respect de la présomption d’innocence. Il faut donc à mon sens conserver d’autant plus cette dualité si l’enquête pénale se numérise de plus en plus : face à une police très technologique, le juge doit rester du côté de l’appréciation humaine distanciée. S’il se laissait coloniser lui-même par les algorithmes et les outils prédictifs, il ne serait plus en état d’assurer un contrôle et un contrepoids face aux nouvelles formes d’enquêtes.
Néanmoins, l’essor des legal techs montre que les algorithmes sont incontournables…
Je ne dis pas qu’ils sont inutiles dans le travail du droit. Au contraire, on peut penser que certains algorithmes pourraient être efficacement utilisés par les juristes et les avocats dans des domaines comme le droit des affaires, où ils pourraient, par exemple aider les parties à un litige à se faire une idée des risques et des gains juridiques escomptés en cas de contentieux. Cela pourrait servir à éviter des contentieux inutiles et aider à transiger plus rapidement certaines affaires, et donc à désengorger la justice. Mais pour ce faire, il faut qu’un climat de confiance s’établisse entre les legal techs et les professionnels du droit. C’est la raison pour laquelle, une charte éthique - à la rédaction de laquelle j’ai participé - a été conclue il y a quelques mois sous les auspices d’Open Law.
Une régulation des algorithmes est-elle envisageable ?
Bien entendu il va falloir contrôler leur sécurité et leur intégrité, le plus en amont possible. La CNIL a d’ailleurs lancé un débat national sur le sujet. On sait qu’il est possible d’inciter les fournisseurs de technologie à choisir des approches techniques respectueuses des droits. C’est déjà cette logique que l’on trouve, sur un sujet proche, dans les principes de privacy by design et de privacy by default qui ont été repris dans le nouveau règlement général de protection des données personnelles (voir notre dossier). On sait déjà que la loi Lemaire impose aux autorités administratives d’avertir les usagers de l’utilisation d’un algorithme pour prendre une décision individuelle et, surtout, de publier les règles régissant leurs traitements algorithmiques. C’est un début vers une transparence encadrée de la mise en œuvre de ces nouveaux outils.