
De techniek is niet te stoppen. Denk aan de opkomst van machine learning, en hoe artificial intelligence (AI) steeds vaker wordt toegepast in de rechtspraktijk. Deze trein is niet te stoppen, en mogelijkheden (en risico’s) worden steeds meer duidelijk. Er wordt zelfs nagedacht over een ‘specifieke rechtspersoonlijkheid voor robots’, waardoor robots een papieren bestaan kunnen krijgen.
Door Caspar van der Winden en Arnout Rodewijk
Het Europese Parlement en de Europese Commissie praten al enige tijd over AI, de mogelijkheden daarvan, maar ook vooral over de risico’s zoals de aansprakelijkheids- en verzekeringsproblematiek rondom robots en AI. In dit kader wordt AI gezien als ‘een intelligent systeem die zijn omgeving kan analyseren en vervolgens in zekere mate zelfstandig actie onderneemt om specifieke doelstellingen te verwezenlijken’.
Aansprakelijkheid
Een voorbeeld van die aansprakelijkheidsproblematiek is de zelfrijdende auto. Als de auto functioneert worden de verkeersveiligheid en doorstroming op de weg verbetert, maar wie is er aansprakelijk te stellen voor schade die ontstaat als de AI in de auto disfunctioneert? Gebrekkige AI zou in verschillende risicosferen kunnen vallen. Zo kan gedacht worden aan de fabrikant als er sprake is van een productiefout, maar ook aan de eigenaar van de auto zelf, omdat het gebrek in de AI nu eenmaal in zijn risicosfeer valt. Of misschien kan zelfs de overheid als wegbeheerder aansprakelijk zijn, bedenkende dat een zelfrijdende auto duidelijke wegmarkeringen nodig heeft om zijn plaats op de weg te bepalen. Naar huidig recht is de overheid immers aansprakelijk indien de weg niet voldoet aan de eisen die men daaraan in de gegeven omstandigheden mag stellen.
Discriminatie en privacy
AI biedt enorme kansen, bijvoorbeeld als hulpmiddel via zelflerende informatietechniek of als middel voor automatische besluitvorming, maar heeft ook de risico’s op het gebied van discriminatie en privacy als keerzijde. Daarnaast spelen er vragen over de informatieverwerking: onjuiste gegevens kunnen leiden tot onjuiste beslissingen en je kan je afvragen hoe makkelijk het is om die terug te draaien? Het meest recente voorbeeld is de toeslagenaffaire, waar (nog onbeantwoorde) vragen zijn over het gebruik van data en de discriminerende werking van algoritmes. Ook het automatische sollicitatiesysteem van Amazon leek een bepaalde discriminerende voorkeur te hebben, namelijk voor mannen, waardoor het systeem buiten werking werd gesteld. Wanneer een AI zelf kan bepalen welke woorden, welke gegevens, en welke input en criteria van belang zijn voor de uitkomst, is controle van belang. Eenvoudig criteria blokkeren zoals het blokkeren van afkomst, geslacht, of naam volstaat vaak niet.
Tekenend is de procedure die is aangespannen tegen het gebruik van SyRI: het systeem dat de overheid gebruikt voor de bestrijding van fraude in de sociale zekerheid. De zaak werd gewonnen. Volgens de rechter is de wijze waarop het systeem werd toegepast niet te verenigen met artikel 8 van het Europees Verdrag voor de Rechten van de Mens (EVRM), dat het recht op respect voor het privéleven beschermt. De rechter gaf daarbij aan dat de wetgeving op grond waarvan de toepassing van SyRI mogelijk was onvoldoende inzichtelijk en controleerbaar is.
Mogelijkheden
Naast risico’s, brengt AI vooral ook mogelijkheden. In onze praktijk zien we steeds vaker dat klanten gebruik maken van ‘legal managed services’: AI waarbij juridische werkzaamheden worden geautomatiseerd om zo de efficiëntie te verbeteren, risico’s te beperken en kosten te reduceren. Daarnaast gebruiken wij AI om grote datasets aan contracten te analyseren op specifieke vooraf geselecteerde bepalingen. Voor Brexit is het bijvoorbeeld handig te weten bij welke contracten er een Britse wederpartij is, en of er wellicht een rechts- en/of forumkeuze is bepaald die verwijst naar het recht van het Verenigd Koninkrijk of een Britse rechtbank. Al eerder schreven wij over het voorspellen van uitkomsten van rechtszaken: bij een project van Cambridge University uit 2017, voorspelde het AI-systeem ‘Case Cruncher Alpha’ de uitkomst van 775 zaken van financiële ombudsmannen met een nauwkeurigheid van 88,6 procent juist. Een panel van 100 ervaren juristen haalde een nauwkeurigheid van 62,3 procent.
Conclusie
Wij bevinden ons midden in een fase van enorme technologische ontwikkelingen en veranderingen. Dit is aan de ene kant angstig en brengt risico’s en gevaren met zich mee. Aan de andere kant zijn er ongekende mogelijkheden die voor iedereen een verandering teweeg zullen brengen, ongeacht of je nu voor of tegen bent, en of je hier voor open staat of niet.
Volg Executive Finance op LinkedIn!