vrijdag 30 augustus 2019

Kunstmatige intelligent in het recht: vervangt het masker de blinddoek?

Men zegt vaak dat het recht geen revoluties maar slechts evoluties kent. Of in het uiterste geval koerswijzigingen, naarmate de rechtbanken en tribunalen behoedzaam de evolutie van de zeden en de sociale verhoudingen volgen: juris-prudentie. Maar wat gebeurt als die kunst van de behoedzaamheid met de technologische evolutie wordt geconfronteerd? Wat als de technologie tot in het hart van de juridische sfeer doordringt en haar praktijken transformeert?

Zoals vele andere sferen blijven het recht en de justitie niet gespaard van het fenomeen van de digitalisering van het dagelijkse leven en de ontwikkeling van kunstmatige intelligentie die ermee gepaard gaat. De ontwikkeling van op kunstmatige intelligentie gebaseerde systemen maakt de automatisering mogelijk van meer en meer activiteiten die vroeger voorbehouden waren aan de advocaat of de rechter. Het aantal toepassingen met – soms zelflerende – algoritmen neemt toe. Terwijl sommigen ironisch van een potentiële ‘veruberisering van het recht’ spreken, investeren anderen in zogenaamde LegalTechs, een waaier van voorzieningen die justitie moeten moderniseren en voorgoed het nieuwe digitale tijdperk zullen binnenleiden: onlineplatformen die de toegang tot het recht vereenvoudigen, intelligente databases die de advocaten helpen om juridische strategieën op te bouwen, voorspellende systemen die de rechters adviseren om de potentiële gevaarlijkheid van een individu te beoordelen.

De combinatie van de woorden rechtspraak en algoritme roept een gevoel van ‘verontrustende vreemdheid’ op, want ze doet een mogelijke modelvorming van de rechtspraktijk vermoeden. De nieuwe technologieën kunnen justitie optimaliseren en efficiënter maken, maar ook de rationaliteit van de rechtspraktijk radicaal transformeren, de mechanismen van de rechtspraak in het gedrang brengen en dus problemen scheppen voor de rechtzoekenden. Met de ontwikkeling van algoritmische systemen die enorme hoeveelheden gegevens verzamelen, analyseren en verwerken, krijgen de actoren van het recht voorspellende instrumenten in handen waarmee ze de besluitvorming kunnen optimaliseren, op risico’s kunnen anticiperen, zelfs gedrag kunnen sturen. Een ironie van de geschiedenis? De juristen van het oude Rome, die onze westerse rechtstraditie zo sterk hebben beïnvloed, vertrouwden ook op orakels om uitspraak te doen…

Een duidelijke omschrijving van de maatschappelijke uitdagingen van deze nieuwe voorspellende tools is nu van cruciaal belang. Twee onderzoekssporen zijn het verkennen waard. Het eerste heeft betrekking op de rechtsprofessionals en stelt de vraag van de bijzonderheid van hun praktijk: wat doet een advocaat of rechter dat een machine niet kan doen? Hier moeten we ons afvragen of een machine werkelijk in staat is om de onvermijdelijke complexiteit van bepaalde zaken te vatten. Hoe kan de jurist met machines samenwerken zonder een louter uitvoerende rol te spelen? Hoe kan men een vertrouwensrelatie met de cliënt of de rechtzoekende tot stand brengen wanneer nieuwe algoritmische actoren op het juridische toneel verschijnen? Naast de problematiek van deze toekomstige samenwerking is er ook de vraag van de financiering en de controle van de digitale tools waarover de actoren van het recht beschikken, terwijl de markt van de gegevens en de ontwikkeling van de technologieën door de privésector wordt gedomineerd. 

Het tweede onderzoeksspoor heeft betrekking op de rechtzoekenden, en meer bepaald op hun grondrecht op een onpartijdige behandeling. Een van de argumenten die vaak ten gunste van een ruimere inzet van machines worden aangehaald, is dat ze de cognitieve en affectieve vooroordelen compenseren waarvan de mens het slachtoffer is. De magistraten zouden volgens sommigen te subjectief en te partijdig zijn om iedereen ‘objectief’ dezelfde rechtsbehandeling te geven. Het zwaard en de weegschaal zijn immers niet de enige attributen van het recht… De blinddoek, symbool van onpartijdigheid, die de ogen van het recht bedekt, is essentieel. Vandaag weten we echter dat deze kritiek te simplistisch is, omdat ook kunstmatige intelligentie ondoorzichtig kan zijn en soms ongelijkheid en discriminatie in de hand werkt. Maar dat systeem is gemaskerd en zijn macht is onzichtbaar. Niet het recht maar de rechtzoekende is dan blind.

Christophe Lazaro,
Professeur en Droit et Société à l'Université Catholique de Louvain (UCLouvain)
Membre de la CERNA (Commission de Réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, France)