Jingle Bell…

… où quelques flocons ne seraient pas de trop pour atténuer le spleen récurrent de l’avocat qui a le 23 en point de mire et voit Outlook se transformer Outlook en sapin de Noël.

Le 3…

… où l’esprit de Noël n’est manifestement pas encore arrivé ce matin dans la salle d’audience de la Comté voisine.

J’y assiste un frère dans un affaire de succession.

Tous les avocats qui traitent ce genre de dossier vous le diront : il y a les divorces où deux ex-amants se déchirent, les affaires pénales où il y a eu un drame épouvantable, mais quand on parle héritage, on atteint souvent un niveau émotionnel très très élevé. Et s’il y a en prime des gros sous en jeu, cela prend une dimension encore plus violente.

« Ce que mes sœurs oublient, c’est que quand elles sont parties sans se retourner, celui qui est resté avec les parents et le domaine dont il fallait s’occuper, c’est moi. C’est moi qui habitait à côté et qui devait gérer tous les matins« 

Et la Présidente d’intervenir tout à fait à propos : « Madame, cessez de jeter ce regard noir à votre frère. Ici on fait preuve de respect, ou on sort. Tenez-le vous pour dit. Je ne répèterai pas !

Beaucoup d’émotions donc. Et aussi des questions juridiques à résoudre à la pelle. C’est ici qu’on se rappelle les cours du Professeur Steinauer. Un pédagogue comme seul l’université est capable d’en produire. Durant ses cours magistraux, il nous faisait comprendre l’incompréhensible, notamment dans les questions successorales tordues. Et, une fois sortis de l’amphithéâtre, tout s’évanouissait dans les méandres de nos notes qui, à la relecture, se révélaient aussi transparentes que des hiéroglyphes de le IIème dynastie.

Le 4…

… où l’on assiste à une journée de formation organisée par notre alma mater, consacrée aux nouveautés en matière de responsabilité.

Sans surprise, le fil conducteur en est l’intelligence artificielle, avec notamment cette question sous-jacente traitée de manière encore tout à fait théorique par tous les intervenants : si l’IA se plante et l’avocat dans la foulée, parce qu’il a cru dans les réponses de ChatGPT, qui est responsable ? Celui qui a conçu l’application ? Celui qui la met en ligne ? Celui qui l’utilise sans vérifier la fiabilité des réponses ?

La réponse ne fait pas l’ombre d’un doute : celui qui est au bout de la chaîne, l’avocat !

D’abord, c’est logique. Si l’on vous confie un bolide et que vous roulez en dehors des clous, ce n’est pas celui qui l’a fabriqué qui sera puni, mais celui qui tient le volant. Cette réflexion ne vaut cependant que tant que nous aurons des véhicules dont nous contrôlons la conduite. Mais ceci est un autre débat.

Donc ce sera l’avocat. Pas seulement parce que la vérification de ses sources est de sa responsabilité, mais aussi parce que ce sera celui qui est en première ligne. Pas besoin d’aller chercher plus loin. Et notre système juridique est basé sur le postulat que la victime d’un dommage n’a en principe pas à chercher de midi à quatorze heures le responsable.

Et puis, tous les avocats le savent, quand des questions de responsabilité échouent sur les marches du Tribunal fédéral (TF), ses juges ne ratent jamais une occasion pour enfoncer un peu plus le mandataire qui, selon leurs savants considérants, doit anticiper toutes les éventualités, même celles qui ne sont pas encore identifiables. Vous êtes avocat, vous devez donc savoir.

Charmante façon de présenter les choses, sachant que, en matière de responsabilité professionnelle, la réponse du Juge mis en cause pour avoir – selon l’une des parties – fait une erreur grossière sera : si vous n’êtes pas content, faites recours. Damoclès, ils ne connaissent pas. Et il n’y a pas de recours direct contre les décisions du TF… dont les grands penseurs s’essaient sans doute aussi à l’IA.

Bref, nouvel électron libre au service (aussi) de la Justice, l’IA recèle autant de dangers qu’elle offre de possibilités. Les premières actions de lésés par des postulats finalement désastreux pris sur la base de ses mystérieux algorithmes ne vont pas tarder.

Au fil des nombreuses discussions avec des Confrères, quelques constats apparaissent déjà. D’abord, beaucoup utilisent déjà des applications qui fonctionnent (partiellement) grâce à l’IA, sans même s’en rendre compte. Il n’y a pas grand risque dans cette utilisation. Mais d’autres testent les fonctions d’analyse de leurs documents, au travers de versions gratuites d’applications, sans même se rendre compte que leurs données couvertes par le secret professionnel partent en goguette sur la toile et qu’on ne sait pas où elles peuvent refaire surface.

Le risque est faible de pouvoir relier ces données à une personne précises, mais, si c’est le cas, les dégâts seront conséquents et l’avocat ne pourra pas échapper à un retour de manivelle.

Et, enfin ceux assez rares qui l’utilisent presque quotidiennement, mais pour l’instant en tous cas, vérifient chaque résultat. Pour ne pas se retrouver dans la peau de cet avocat américain qui a cité des précédents inventés de toutes pièces par l’IA, sans prendre la peine de s’assurer de l’exactitude de ses source, et qui s’est fait prendre la main dans le sac….

Le 9…

… où en venant consulter un dossier dans un tribunal proche de la Baie de Lozan, on se dit que, ces histoires d’IA et de Justice, c’est bien joli, mais il faudrait d’abord que la technologie atteignent au minimum les greffes.

L’affaire concerne une procédure de responsabilité contre une entreprise de transports publics de la Riviera. Le dossier est conséquent non seulement quant aux écritures des parties, mais surtout avec un volume de pièces conséquent.

Votre serviteur s’en vient consulter notamment le dossier de l’assurance-invalidité de la victime. La section qui est consacrée à cette pièce est tout petit. Et pour cause, l’Office AI a fait suivre au Tribunal un lien pour le télécharger, mais ici on ne fait pas ça…

Pas de saisie numérique des dossiers. Du papier, rien que du papier, et des piles cartons qui prennent la poussière dans un bureau mal éclairée. Et pourtant le personnel est jeune, mais, quand bien même, ici on ne fait pas ça.

Le train de Justicia 4.0 est en marche nous dit-on, mais toutes les étapes judiciaires n’ont pas encore de gare…

Le 11…

… où on plaide une affaire de vol mineur devant une classe de gardiens de prison en formation.

Le but est bien évidemment louable. Les initier au processus judiciaire dont ils sont les successeurs. On s’interroge cependant sur ce qu’ils vont retenir de cette phase, cruciale certes, de la machine judiciaire, mais dans un cas où, aujourd’hui, l’accusé n’a aucune chance de finir incarcéré.

Tant mieux pour lui, mais dommage pour la formation. Quand la prison peut être au bout du chemin, les débats ont une dimension supplémentaire. Il y a la gravité des faits certes que les juges doivent qualifier. Mais il y a aussi un destin qu’il faut comprendre avant de sanctionner. Et c’est une démarche aussi particulière que complexe.

La personne mise en cause n’est pas que criminelle par nature. On a souvent tendance à l’oublier. Le criminel n’est pas un alien. C’est généralement quelqu’un comme vous et moi, mais qui un jour, pour des raisons et un passé qu’il faudra mettre en lumière, a dérapé. Elle a aussi une part d’humanité quelle que soit l’acte reproché. Une histoire, une famille, un parcours de vie, toute chose qui font un être humain et qui fait aussi partie de celui ou celle qui va peut-être bientôt franchir les portes du pénitencier.

Le 13…

… où il faut autant se méfier des vendredis 13 que des itinéraires pédestres sur Google Maps.

En ligne droite : 263 mètres à pedibus depuis la sortie du parking souterrain jusqu’à la salle d’audience.

En live, le bâtiment où se tiendra la séance est effectivement en face de la sortie du parking, de l’autre côté de l’esplanade, à plus ou mois deux trois cent mètres à vol d’oiseau.

Le hic, c’est qu’entre nous, il y a un imposant chantier qui empêche l’accès direct. Impossible de traverser la place. Alors, à gauche ou à droite ? Comme c’est une séance de conciliation et que l’on représente le locataire, on choisit la gauche. Cul de sac !

On cherche un autre itinéraire de substitution à l’aide de Google Maps. Contourner un pâté de maison. Traverser un tunnel. A sa sortie, l’objectif se rapproche tout à coup. Sauf que maintenant, il y a une rue bien pentue, puis des escaliers presque à pic, pour atteindre la Préfecture qui nous domine, là-haut sur la colline.

Résultat : une arrivée à bout de souffle et rouge comme une pivoine, avec seulement deux minutes de retard.

Le retour sera plus light, ça descend bien et nous avons un accord très satisfaisant en poche.

Le 31…

… où il est temps de conclure 2024 en se posant quelques questions.

Alors que Justicia 4.0 joue les Arlésiennes, les professions juridiques, ici comme ailleurs, vont inévitablement subir la déferlante IA l’année prochaine.

Notre système judiciaire va donc devoir – et rapidement, ce qui est une gageure dans notre pays – non seulement s’adapter, mais, si possible, prendre les devants. En 2025, l’intégration de l’intelligence artificielle va effectivement redéfinir notre approche. Et les avocats ne sont pas les seuls en première ligne, les Juges aussi. L’IA va inévitablement aussi impacter progressivement la manière dont ils vont rendre la Justice.

Pour anticiper ce qui les attend, un juge américain, féru de nouvelles technologies et blogueur impénitent, a demandé à son application AI (aka artificial intelligence on the other side of the Atlantic Ocean, donc rien à voir avec une assurance fédérale) d’analyser son travail, le contexte de la justice et faire des prédictions sur l’avenir du droit et de la technologie.

Premier constat, rassurant, du moins pour l’instant, l’IA peut nous aider et non nous remplacer.

Dans les tribunaux, elle se profilera d’abord comme un greffier personnel pour les magistrats. Un extra hors budget. La tentation de s’adjoindre les services de ce clerc virtuel sera d’autant plus grande que la pression des statistiques est grande dans notre landerneau judiciaire, où les greffes sont débordés.

Ce qui est sûr également, c’est qu’en 2025, les applications d’IA serviront moins à l’assistance administrative qu’à se muer en partenaires proactifs des juges. Le greffier virtuel fournira des analyses de jurisprudence, rédigera des projets d’actes procédure et pourra même anticiper des problèmes juridiques.

On peut aussi prévoir que, rapidement, l’assistant IA d’un juge lui fournisse des informations en temps réel, soit pendant les audiences, et signale par exemple des incohérences dans les documents déposés par les parties. Cette avancée est inéluctable.

Deux questions vont inévitablement se poser : les justiciables et leurs avocats seront-ils informés que le Tribunal siège avec un membre supplémentaire, invisible, qui réfléchit quelques millions de fois plus vite que tout le monde et a accès à une bibliothèque de données aussi vaste que le ciel ?

Et face à lui ? L’avocat qui, inconscient du risque ou réfractaire au LLM, n’aura pas éprouvé ses arguments et son dossier à l’aide de son propre stagiaire virtuel pourra-t-il toujours être dans le coup ?

Beaucoup d’inconnus et de nouveaux sujets à maîtriser donc.

Mais, ce n’est pas tout.

Alors qu’on élabore en coulisses étatiques les futurs modules de systèmes sécurisés de communication numériques des dossiers et des preuves, que faire pour sécuriser non pas la transmission, mais la fiabilité des données transmises ?

L’essor des « deepfakes » obligera le pouvoir judiciaire à imaginer des pares-feux efficaces pour s’assurer notamment de l’intégrité des preuves déposées. Les tribunaux ne pourront plus s’appuyer uniquement sur les méthodes d’authentification basiques. Des outils fiables devront rapidement être mis en place pour préserver la falsification des éléments factuels destinés à soutenir la décision du Tribunal. A quand l’adoption généralisée et reconnue du suivi des productions numériques ?

L’autre problème est que nous parlons d’un modèle d’IA qui avance beaucoup plus vite que les commissions d’expert. Dans six mois, l’actuel ChatGpT Pro sera peut-être (probablement) déjà dépassé et les questions d’éthique, de sécurité et de fiabilité des données pourraient déjà se poser différemment.

Aussi, il ne s’agit pas seulement de technologie, mais aussi d’éducation à mettre en place pas aussi lentement que possible, mais aussi rapidement que nécessaire (pour paraphraser un retraité du Palais fédéral). Juges et avocats devront suivre des formations spécialisées pour repérer les manipulations numériques. En France deux avocats ont produit à leur insu un faux jugement étranger blanchissant croyaient-ils leur trafiquant de stups de client, qui était bien évidemment à l’origine de ce faux. Ils ont frisé la correctionnelle et l’affaire n’est pas finie, le Parquet ayant fait appel de leur relaxe.

Google travaille paraît-il sur un logiciel capable de détecter les fakes issus de l’IA. Sera-t-il utilisable dans la sphère légale ? Ou disposera-t-on d’un outil spécifique protégeant le plaideur et son Juge d’une manipulation ? Pas sûr… pourtant cela pourrait devenir primordial. Surtout quand on lit comment le TF traite les avocats dans les questions de responsabilité professionnelle (Vous devriez savoir. Et même si vous ne pouviez pas savoir, vous auriez quand même dû être plus vigilants…) – Pour l’instant en tous cas, ce risque reste sous notre entière responsabilité et il faut nous débrouiller avec les moyens du bord.

La question n’est donc plus de savoir si l’IA va révolutionner le traitement des procédures judiciaires, mais jusqu’où et dans quel délai.

En 2025, nous assisterons aussi à une montée en puissance des plateformes alimentées par l’IA, conçues pour améliorer l’accès à la justice des particuliers. Les premiers clients en seront ceux qui pensent n’avoir pas les moyens de recourir à l’aide d’un avocat en chair et en os et qui se tourneront vers des solutions rapides, gratuites ou bon marché… et sans filet.

Ces applications viendront damner le pion aux actuels fournisseurs d’aides juridictionnels low cost en ligne. Alimentés par les grands modèles linguistiques (ChatGpt et autres), le juriste virtuel fournira des conseils juridiques instantanés sortis d’on ne sait où, rédigera des requêtes simples, sans garantie de recevabilité, et répondra mêmes aux questions de procédure. De manière justifiée souvent, il ne faut pas sous-estimer la bête. Mais s’il y a maldone, qui sera responsable ? Le provider ? Le concepteur de l’application ? Celui qui l’a proposée ? C’est peu probable. Par contre, le justiciable en fera les frais quasi à tous les coups.

L’Etat qui voudra éviter l’engorgement de ses juridictions va-t-il aussi se lancer dans le portail juridique online ? La tentation sera grande pour tous ceux qui, à un système loin d’être parfait, mais qui visent à garantir une Justice équitable et compréhensible, préfèreront un système de liquidation des dossiers, efficace, rapide, linéaire… et dépourvu de recul et d’empathie.

Les avocats vont, comme d’habitude, devoir intégrer et adapter leurs pratiques à ces nouveaux paradigmes, s’ils souhaitent travailler dorénavant avec ce nouveau stagiaire virtuel qu’ils pourront façonner à leur image. Pour reprendre l’analyse d’un brillant Confrère du bout du Lac : si l’avocat est bon et pose de bonnes questions, l’IA lui fournira de bonnes réponses.

Et du côté des couloirs du palais ? Le pouvoir judiciaire doit définir en priorité des normes éthiques pour l’utilisation de l’IA dans les procédures, pendant les audiences et dans la rédaction des jugements, en indiquant par exemple quels considérants découle de la réflexion de l’homme et ceux façonnés par la machine. Est-ce seulement déjà acceptable ? Pas sûr qu’on se soit déjà posé la question dans une juridiction à croix blanche.

L’IA va s’intégrer progressivement dans les procédures judiciaires, c’est certain. Comment ? Cela reste à définir de manière très claire. Il est nécessaire d’établir rapidement des lignes directrices, notamment en matière d’éthique. Les tribunaux devront surtout proposer des normes et des modus pour cadrer l’utilisation des outils d’IA dans les greffes. Ces garde-fous – mot bien choisi, car l’IA est encore trop souvent victime d’hallucinations – devront garantir qu’elle améliore la justice sans compromettre l’équité et le pouvoir d’appréciation du juge, afin de garder la confiance du justiciable envers une Justice aveugle certes, mais fiable dans son résultat global et qui doit préserver l’aspect humain.

En conclusion : Trump arrive au pouvoir, l’Europe semble de moins en moins sous contrôle, Poutine et Zelensky s’enfoncent dans leur rhétorique jusqu’au-boutiste, le Moyen-Orient part en cacahouètes et, là-bas, près du 38ème parallèle ça sent le roussi. Faut-il en plus craindre que notre système judiciaire ne devienne un jeu d’arcade ?

Les professions juridiques et le pouvoir judiciaire ont toujours été lents à s’adapter et Justicia 4.0 en est la démonstration, omnibus qui devra suivre tant bien que mal un TGV qui ne l’attendra pas. 2025 ne permettra pas d’hésiter. Avec l’IA, l’adoption généralisée des LLM, les dangers face aux révolutions en matière de preuve, l’avenir de la justice ce n’est plus de la science-fiction. C’est là.

Va-t-on se souvenir de 2025 comme de l’année où nous avons adopté l’innovation sans perdre de vue ce qui compte le plus : la justice, l’équité et l’humanité ?

Les choses changent. Mais si vite… Est-ce que les habitudes des hommes pourront suivre ?” (Isaac Azimov)

Bonne année à toutes et à tous et merci pour votre fidélité.

PS : à lire en écoutant l’album I Robot, d’Alan Parsons Project (1977), et Kilroy was here du groupe américain Styx (1983)