Sebastian pichler b AQH53 Vqu Tc unsplash

Kunstmatige intelligent in het recht: vervangt het masker de blinddoek?

Men zegt vaak dat het recht geen revoluties maar slechts evoluties kent. Of in het uiterste geval koerswijzigingen, naarmate de rechtbanken en tribunalen behoedzaam de evolutie van de zeden en de sociale verhoudingen volgen: juris-prudentie. Maar wat gebeurt als die kunst van de behoedzaamheid met de technologische evolutie wordt geconfronteerd? Wat als de technologie tot in het hart van de juridische sfeer doordringt en haar praktijken transformeert?

Zoals vele andere sferen blijven het recht en de justitie niet gespaard van het fenomeen van de digitalisering van het dagelijkse leven en de ontwikkeling van kunstmatige intelligentie die ermee gepaard gaat. De ontwikkeling van op kunstmatige intelligentie gebaseerde systemen maakt de automatisering mogelijk van meer en meer activiteiten die vroeger voorbehouden waren aan de advocaat of de rechter. Het aantal toepassingen met – soms zelflerende – algoritmen neemt toe. Terwijl sommigen ironisch van een potentiële ‘veruberisering van het recht’ spreken, investeren anderen in zogenaamde LegalTechs, een waaier van voorzieningen die justitie moeten moderniseren en voorgoed het nieuwe digitale tijdperk zullen binnenleiden: onlineplatformen die de toegang tot het recht vereenvoudigen, intelligente databases die de advocaten helpen om juridische strategieën op te bouwen, voorspellende systemen die de rechters adviseren om de potentiële gevaarlijkheid van een individu te beoordelen.

De combinatie van de woorden rechtspraak en algoritme roept een gevoel van ‘verontrustende vreemdheid’ op, want ze doet een mogelijke modelvorming van de rechtspraktijk vermoeden. De nieuwe technologieën kunnen justitie optimaliseren en efficiënter maken, maar ook de rationaliteit van de rechtspraktijk radicaal transformeren, de mechanismen van de rechtspraak in het gedrang brengen en dus problemen scheppen voor de rechtzoekenden. Met de ontwikkeling van algoritmische systemen die enorme hoeveelheden gegevens verzamelen, analyseren en verwerken, krijgen de actoren van het recht voorspellende instrumenten in handen waarmee ze de besluitvorming kunnen optimaliseren, op risico’s kunnen anticiperen, zelfs gedrag kunnen sturen. Een ironie van de geschiedenis? De juristen van het oude Rome, die onze westerse rechtstraditie zo sterk hebben beïnvloed, vertrouwden ook op orakels om uitspraak te doen…

Een duidelijke omschrijving van de maatschappelijke uitdagingen van deze nieuwe voorspellende tools is nu van cruciaal belang. Twee onderzoekssporen zijn het verkennen waard. Het eerste heeft betrekking op de rechtsprofessionals en stelt de vraag van de bijzonderheid van hun praktijk: wat doet een advocaat of rechter dat een machine niet kan doen? Hier moeten we ons afvragen of een machine werkelijk in staat is om de onvermijdelijke complexiteit van bepaalde zaken te vatten. Hoe kan de jurist met machines samenwerken zonder een louter uitvoerende rol te spelen? Hoe kan men een vertrouwensrelatie met de cliënt of de rechtzoekende tot stand brengen wanneer nieuwe algoritmische actoren op het juridische toneel verschijnen? Naast de problematiek van deze toekomstige samenwerking is er ook de vraag van de financiering en de controle van de digitale tools waarover de actoren van het recht beschikken, terwijl de markt van de gegevens en de ontwikkeling van de technologieën door de privésector wordt gedomineerd.

Het tweede onderzoeksspoor heeft betrekking op de rechtzoekenden, en meer bepaald op hun grondrecht op een onpartijdige behandeling. Een van de argumenten die vaak ten gunste van een ruimere inzet van machines worden aangehaald, is dat ze de cognitieve en affectieve vooroordelen compenseren waarvan de mens het slachtoffer is. De magistraten zouden volgens sommigen te subjectief en te partijdig zijn om iedereen ‘objectief’ dezelfde rechtsbehandeling te geven. Het zwaard en de weegschaal zijn immers niet de enige attributen van het recht… De blinddoek, symbool van onpartijdigheid, die de ogen van het recht bedekt, is essentieel. Vandaag weten we echter dat deze kritiek te simplistisch is, omdat ook kunstmatige intelligentie ondoorzichtig kan zijn en soms ongelijkheid en discriminatie in de hand werkt. Maar dat systeem is gemaskerd en zijn macht is onzichtbaar. Niet het recht maar de rechtzoekende is dan blind.

Christophe Lazaro,
Professeur en Droit et Société à l'Université Catholique de Louvain (UCLouvain)
Membre de la CERNA (Commission de Réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, France)

[:fr]

En droit, il n’y a pas de révolutions mais des évolutions, entend-on dire parfois. Ou tout au plus, y’aurait-il des revirements…les cours et tribunaux épousant avec circonspection l’évolution des mœurs et des rapports sociaux : juris-prudence. Mais que devient cet art de la prudence face à l’évolution des technologies ? Que devient-il quand les technologies s’immiscent au cœur-même de la sphère juridique pour en transformer les pratiques ?

Comme de nombreuses autres sphères, le droit et la justice ne sont pas épargnés par le phénomène de numérisation du quotidien et le développement de l’intelligence artificielle qui l’accompagne. Dans cette sphère, l’émergence de technologies basées sur des systèmes d’intelligence artificielle permet l’automatisation d’un nombre toujours plus grand d’activités, considérées auparavant comme l’apanage exclusif de l’avocat ou du juge. Les applications intégrant des dispositifs algorithmiques, parfois auto-apprenants, se multiplient. Alors que les uns ironisent en dénonçant une potentielle « überisation du droit », les autres investissent dans ce qu’on appelle désormais les LegalTechs, pour désigner une grande diversité de dispositifs censés dépoussiérer la justice et la faire entrer définitivement dans une nouvelle ère numérique : plateformes en ligne facilitant l’accès à la justice, bases de données intelligentes permettant aux avocats d’étayer des stratégies judiciaires, systèmes de prédiction aidant les juges à évaluer la dangerosité potentielle d’un individu…

La juxtaposition des termes justice et algorithme ne manque pas de faire naître un sentiment d’ « inquiétante étrangeté » car elle laisse croire en une possible modélisation de la pratique juridique. Derrière leurs fonctions vertueuses d’optimisation et d’efficacité, ces technologies pourraient transformer radicalement la rationalité des pratiques juridiques, fragiliser les mécanismes de mise en œuvre du droit et, ce faisant, troubler la trajectoire des justiciables. A travers le développement de systèmes algorithmiques capables de collecter, d’analyser, de traiter des quantités massives de données, les acteurs de la justice se voient conférer des outils de prédiction leur permettant d’optimiser les processus décisionnels, d’anticiper les risques, voire de gouverner les conduites. Ironie de l’histoire ? Les juristes de la Rome antique, qui ont tellement marqué notre tradition juridique occidentale, se fondaient eux aussi sur des oracles pour rendre leur décisions…

Il est aujourd’hui crucial de bien cerner les enjeux sociétaux de ces nouveaux outils de prédiction. Deux pistes d’investigation méritent d’être suivies. La première concerne les professionnels du droit et oblige à s’interroger sur la singularité de leurs pratiques : qu’est-ce que fait l’avocat ou le juge qui ne puisse être réalisé par une machine ? Il est nécessaire ici de se demander si la machine peut vraiment saisir la part d’irréductible complexité de certaines affaires. Comment envisager de nouvelles modalités de collaboration avec les machines, qui ne confineraient pas le juriste dans un rôle de simple exécutant ? Comment établir une relation de confiance avec le client ou le justiciable alors que de nouveaux acteurs algorithmiques font irruption dans l’arène judiciaire ? Au-delà des problèmes relatifs à ces futures collaborations, se pose également la question du financement et du contrôle des outils numériques mis à disposition des acteurs de la justice, à l’heure où le marché de la donnée et le développement des technologies est dominé par le secteur privé.

La seconde piste d’investigation concerne les justiciables et, plus particulièrement, leur droit fondamental à être traités de manière impartiale. L’un des arguments souvent avancés en faveur d’un recours plus étendu aux machines est qu’elles permettent de compenser les biais cognitifs et affectifs dont sont victimes les humains. Trop subjectifs et partiaux, les magistrats seraient, selon certains, incapables de rendre « objectivement » la même justice pour tous. Or parmi les attributs de la justice, il n’y pas que le glaive et la balance… Symbole d’impartialité, le bandeau couvrant les yeux de la justice est essentiel. Aujourd’hui on sait cependant que cette critique est trop simpliste car le fonctionnement des systèmes d’intelligence artificielle peut également se révéler très opaque et, parfois, dissimuler des traitements inégalitaires et discriminatoires. Le système avance alors masqué et son pouvoir est invisible. Le bandeau n’est plus sur les yeux de la justice, mais sur ceux du justiciable…

Christophe Lazaro,
Professeur en Droit et Société à l'Université Catholique de Louvain (UCLouvain)
Membre de la CERNA (Commission de Réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, France)

[:en]

People often say that law is all about evolutions, rather than revolutions. Or at the most, about reversals… The courts and tribunals approach the evolution of morals and social relationships with circumspection. This is juris-prudence after all. But what becomes of this art of prudence in the face of the evolution of technology? What happens when technology invades the legal sphere, transforming its practices?

As is the case in many other areas of our society, law and justice are not exempt from the phenomenon of the digitisation of our daily life and the related development of artificial intelligence. In this field, the emergence of technology that is based on artificial intelligence facilitates the automation of a growing number of activities, which were considered the exclusive task of lawyers or judges in the past. The number of apps based on algorithmic, self-teaching skills, is multiplying. While some ironically denounce the potential “Uberisation of law”, others already invest in what is known as LegalTechs, the name used to designate a wide range of applications that are supposed to innovate justice and finally coax it into the new digital era: online platforms that facilitate the access to justice, intelligent databases that enable lawyers to develop and bolster their legal strategies, predictive systems that help judges assess the potential risk of an individual…

The juxtaposition of terms such as justice and algorithm inevitably gives rise to a sentiment of “unnerving strangeness” because it leads people to believe in the potential modelling of legal practice. Behind their virtuous properties of optimisation and effectiveness, these technologies have the potential to radically transform the rationality of legal practices, making the mechanisms of the implementation of law more vulnerable, and in the process, making the process more laborious for litigants. Will the development of algorithmic systems that can collect, analyse and process massive quantities of data give legal stakeholders predictive tools that enable them to optimise the decision-making processes, anticipate on risks, and even control behaviours? An irony of history? The lawyers in ancient Rome, who profoundly influenced our western legal tradition, also relied on oracles for their decisions…

Today it is crucial that we properly identify the societal challenges of these new predictive tools. There are two avenues of investigation worth following. The first concerns legal professionals and requires us to question the singularity of their practices: what does the lawyer or judge do that cannot be done by a machine? We should ask ourselves in this context whether a machine can really capture the incredible complexity of certain cases. How should we envisage new modalities for collaboration with these machines that do not relegate the lawyer to the role of a mere executor? How to establish a relationship with the client or litigant, when new algorithmic actors are bursting on the legal scene? In addition to the problems relating to these future collaborations, this also raises questions about the funding and control of the digital tools that are made available to stakeholders, at a time when the market for data and the development of these technologies is dominated by the private sector.

The second avenue for investigation relates to litigants and more specifically their fundamental right to be treated impartially. One of the arguments that is often advanced in favour of a more widespread recourse to machines is that they allow you to compensate for the cognitive and affective bias that humans often are the victim of. Some postulate that magistrates are too subjective and partial, and therefore incapable of making the same “objective” judgement for everyone. And we all know that justice’s attributes include more than the sword and the scales… The blindfold that covers the eyes of justice, and symbolises impartiality, is just as crucial. Nowadays, however, we know that this criticism is too simplistic, because the operation of artificial intelligence systems can also be quite opaque and sometimes even conceal unequal and discriminatory treatments. The system thus advances covertly, with a mask, and its power is invisible. The blindfold no longer covers the legal system’s eyes, but the litigant’s…

Christophe Lazaro,
Professeur en Droit et Société à l'Université Catholique de Louvain (UCLouvain)
Membre de la CERNA (Commission de Réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, France)

Geschreven door

  • Christophe Lazaro

    Christophe Lazaro

    Professeur en Droit et Société à l'Université Catholique de Louvain (UCLouvain)
    Membre de la CERNA (Commission de Réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, France)