• Nieuwsbrief
  • Opleidingen
    • Collegereeks Accountancy & Controlling
    • Collegereeks Risk & Compliance
    • Collegereeks Turnaround Management & Restructuring
    • Collegereeks Controller als Business Partner
    • Collegereeks Data Driven Finance
    • Masterclass Essenties van Finance
    • Masterclass Bestuurdersaansprakelijkheid in Finance
    • Leergang Financieel Leiderschap
  • Permanente Educatie
  • Whitepapers
  • Abonneren
  • Magazine
  • Adverteren
  • Colofon
  • Contact

Executive Finance

Inspireert. In finance en management.


  • Home

  • Coronacrisis

  • Management

  • Finance

  • ICT

  • Controlling

  • Accounting

  • Compliance
  • Corporate
    growth

  • Risicomanagement

  • Fiscaal

  • Vacatures
Je bent hier: Home » Nieuws » Data driven finance: Leren financials om te vertrouwen op een algoritme?

Data driven finance: Leren financials om te vertrouwen op een algoritme?

6 januari 2021

Sander Klous Wat zegt u nu?

Hoe kunnen we leren om beter op algoritmes te vertrouwen? Transparantie en uitlegbaarheid, waar veel op wordt gehamerd, zijn volgens hoogleraar Sander Klous een kleinere factor dan ervaringen van gebruikers: vertrouwen komt als we het effect van analytics ervaren en de resultaten zien.

Analytics en AI staan nog aan het begin van hun ontwikkeling. Organisaties waren niet zo lang geleden over het algemeen huiverig om zich te laten leiden door algoritmes, deels vanwege een vermeend verlies van controle, een gevoel van ongrijpbaarheid, maar grotendeels omdat het vertrouwen er nog niet was. Dat is al sterk veranderd, nu er meer ervaringen zijn opgedaan met analytics. Financials zien in de praktijk hoe data driven beslissingen hun concurrentiepositie verbetert ten opzichte van onderbuikgevoel gebaseerd op ervaringen en intuïtie. Ondanks die resultaten is niet iedereen overtuigd. Algoritmes maken soms fouten, net als mensen. Maar waar we mensen wat meer vertrouwen, is het gevoelsmatiger lastiger om datzelfde vertrouwen te schenken aan een algoritme.

Net als een houdbaarheidsdatum

Hoe verbeteren we dat vertrouwen? ‘Ervaring is een belangrijke factor,’ legt prof. dr. Sander Klous, hoogleraar (UvA) op het gebied van big data ecosystemen en docent bij de collegereeks Data Driven Finance, uit. ‘Vergelijk het met een melkpak. Daarop staat een houdbaarheidsdatum en daar vertrouwen we op omdat we al veertig jaar melk drinken en de ervaring leert dat de datum meestal wel klopt. We weten niet hoe de datum wordt vastgesteld, maar in ons achterhoofd hebben we ook nog dat er iets met de Voedsel en Warenautoriteit is.’ We kunnen dus niet precies uitleggen hoe het werkt, maar weten dát het werkt. Hetzelfde principe gaat op voor bijvoorbeeld financiële algoritmes. We hoeven niet precies te weten hoe het op de achtergrond werkt, maar moeten vertrouwen hebben dat erover wordt nagedacht en dat iemand erop toeziet dat de informatie betrouwbaar is en blijft.

Collegereeks Data Driven Finance

Tijdens de collegereeks Data Driven Finance gaat prof. dr. Klous uitgebreid in op wat er nodig is om ervoor te zorgen dat algoritmen van de slimme samenleving voldoen aan de normen en waarden die we als samenleving koesteren. Vertrouwen in onze systemen is cruciaal voor het succes ervan. Klous legt uit wat de invloed van AI en big data op de maatschappij is en hoe u de organisatie inricht om data-analyse verantwoord te gebruiken. Schrijf u hier in.

Op de achtergrond valt er veel uit te leggen en dat is voor bijvoorbeeld de datascientist of auditor belangrijk, zodat deze kan valideren dat het algoritme betrouwbaar is. Maar voor de business user is dat allemaal een stuk minder relevant. Sterker nog, een gedetailleerde uitleg lijkt het vertrouwen juist te ondermijnen. Klous haalt een voorbeeld aan van universiteit Stanford die cursisten beoordeelde via een algoritme dat een cijfer baseerde op 20 peer-reviews van andere studenten. Na ontvangst van het cijfer werd de cursisten gevraagd naar hun ervaringen. Eén groep kreeg weinig uitleg over de berekening van de behaalde score en een tweede groep kreeg een heel gedetailleerde technische verklaring van de werking van het algoritme. ‘Mensen bleken vertrouwen te hebben met de korte verklaring, maar de mensen die de uitgebreide uitleg kregen, hadden daarna geen vertrouwen meer.’

Lees ook: Alex Dowdalls: “Data, kunstmatige intelligentie en digitaal zakendoen zijn de bepalende factoren” 

Drie soorten van uitlegbaarheid

De crux is het aanpassen van de boodschap aan het publiek. ‘Je hebt te maken met verschillende soorten uitlegbaarheid. De eerste vorm is de uitleg richting de datascientist of auditor. Dat is een bijna wetenschappelijke benadering waarin je uitlegt welke modelkeuzes er zijn gemaakt, welke dataselectie er heeft plaatsgevonden en hoe het model getraind is. Een andere datascientist moet dit precies kunnen nadoen en op dezelfde resultaten uitkomen.’ Dat is de uitlegbaarheid waar inhoudelijke deskundigen zich mee bezighouden, maar die voor de financial minder relevant is.  De technische uitleg kan, zoals uit het Stanford-voorbeeld blijkt, juist averechts werken.

Welke waarborgen zijn er ingebouwd?

‘De tweede vorm is procesuitlegbaarheid,’ gaat Klous verder. ‘Dat is belangrijk als je bijvoorbeeld voor de rechter komt te staan omdat je algoritme gefaald heeft. Welke waarborgen zijn er ingebouwd, welke controle, welke beveiligingsmiddelen – allemaal om te zien waar het misging en wie daar verantwoordelijk voor is.’ Bij de rechtbank is de technische uitleg minder relevant, maar gaat het om de implementatie in de context van een juridisch framework. Deze uitleg van het proces is, samen met de volgende vorm, relevant voor de financial.

Waarom is de regel er?

En ten slotte, is er de uitlegbaarheid voor de persoon die wordt geraakt door de uitkomst. ‘Als een aanvraag voor een lening wordt afgewezen, wil je weten waarom, zodat je het kunt aanvechten. Harde regels zijn duidelijk, zoals: ‘je hebt een jaarinkomen van minstens 30.000 euro nodig’. Maar waarom is die regel er? Negen van de tien keer is die ook gebaseerd op statistiek: de bank heeft ooit gemerkt dat de kans dat iemand een lening terugbetaalt onder dat drempelinkomen een stuk lager is.’

Waarom is deze beslissing genomen?

Het verschil met veel menselijke processen is dat gebruikers met data driven besluitvorming juist beter kunnen achterhalen waarom een bepaalde beslissing is genomen. ‘Denk aan recruitment. Waarom is die ene kandidaat aangenomen en die andere afgewezen? Dan krijg je iets als: ‘deze kandidaat past beter bij de organisatie’. Bij algoritmes kun je om een betere uitleg vragen.’ Dat vereist wel dat de datascientist, het model baseert op de juiste gegevens, bias vermijdt bij het trainen en het model corrigeert.

Een voorbeeld dat hierop aansluit is een berucht incident bij Amazon. Het bedrijf werkte aan een tool om te helpen met de werving van software-ontwikkelaars. Het algoritme baseerde zich bij de selectie op historische data. In die tien jaar waar het model op werd getraind werden voornamelijk mannelijke programmeurs aangenomen. Het algoritme was gebouwd om bijvoorbeeld voor 100 kandidaten de 5 meest geschikte te selecteren. Gebaseerd op die twee datapunten, was het logische gevolg dat vrouwelijke kandidaten bij de 95 minder geschikte kandidaten werden geschaard.

Het proces leerde termen op cv’s herkennen en hing daar een gewicht aan. Cv’s met termen als ‘vrouw’,  ‘schaakclub voor vrouwen’ en vermeldingen van opleidingen die meer door vrouwen werden gevolgd werden daardoor minder zwaar gewogen dan cv’s zonder deze elementen. Maar ook specifiek woordgebruik dat meer door mannen werd gebezigd dan vrouwen kreeg een zwaarder gewicht. Het ontwikkelteam paste de tool aan op deze inzichten, maar de resultaten werden steeds onbetrouwbaarder en leverde suggesties op die volgens ingewijden bij Amazon leken op willekeur. Bovendien konden de ontwikkelaars niet uitsluiten dat het deep learning-proces na de aanpassingen andere elementen zou leren om de ‘ongewenste eigenschap’ uit te filteren. Het hele model werd uiteindelijk naar de prullenbak verwezen.

Lees ook: De toekomst van de finance functie ligt in RPA, blockchain en kunstmatige intelligentie

Mens is ook een black box

Klous stelt dat de discussie over de uitlegbaarheid van algoritmes en het black box-effect – waarbij gebruikers en zelfs specialisten niet meer kunnen zien waaróm een beslissing is genomen – op gang is gekomen juist omdát je nu veel meer kunt uitleggen dan vroeger. ‘Je kunt nu scenario’s simuleren, een historische casus terugspelen en aanpassingen doen. Wat gebeurt er als ik deze factor verander?’ Omdat we kunnen uitleggen, is er meer behoefte aan uitlegbaarheid.

Hij haalt een bekende zaak aan van een zelfrijdende Uber-auto in Arizona. De zelfrijdende Uber reed in de staat een fietsster aan met fatale gevolgen. ‘Hierbij kun je aan de hand van de data het ongeval helemaal simuleren en achterhalen waar het precies misging. Met alleen menselijke betrokkenen heb je te maken met traumatische herinneringen en persoonlijke belangen waardoor zulke analyse niet mogelijk is. De echte black box is de mens.’

Verhalen als een ongeluk met een zelfrijdende auto of wervingssoftware die een voorkeur geeft aan mannelijke kandidaten geven de indruk dat er nog wel wat voor verbetering vatbaar is. Hoewel dat ook deels waar is, is het punt vooral dat de negatieve ervaringen een fractie zijn van het geheel aan ervaringen met AI. Als mens zijn we geneigd die negatieve ervaring van N=2 zwaarder te laten wegen dan de duizenden positieve voorbeelden van wat er wel goed gaat.

Algoritmes kunnen ongelijkheid verkleinen

In een rapport aan de Tweede Kamer over algoritmische besluitvorming, kijken onderzoekers dan ook niet alleen naar risico’s, maar ook naar kansen. Een goed ontworpen en getraind model verkleint juist ongelijkheid en discriminatie. ‘De inzet van algoritmen creëert ook kansen voor het recht op non-discriminatie,’ zo schrijven de onderzoekers. ‘Doordat algoritmen in staat zijn om veel informatie te verwerken kunnen ze veel individuele kenmerken van personen meenemen in besluitvormingsprocessen.’

Bij een case study van Stijn van Deursen en Stefan Philipsen van de Universiteit Utrecht naar algoritmes in de rechtspraak merken de onderzoekers fijntjes op: ‘Ook menselijke rechters zijn immers niet perfect en ook zij kunnen in sommige gevallen beslissingen nemen die mogelijk gebaseerd zijn op diepgewortelde maatschappelijke vooroordelen of stereotypen.’ Ook in dit rapport staat dus te lezen dat het menselijke beslissingsproces feitelijk een black box is. ‘Het voordeel dat een algoritme heeft ten opzichte van menselijke beslissingen is dat áls uiteindelijk wordt vastgesteld dat een reeks van beslissingen indirect discriminerende uitkomsten bevat, het meestal mogelijk zal zijn om het algoritme technisch bij te stellen (hoewel dat in technische zin lang niet altijd eenvoudig zal zijn). Menselijk gedrag bijsturen is in dat licht vaak moeilijker.’

Lees ook: CFO Gijsbert Burggraaf: “Ik zie mezelf als aanjager voor de lange termijn”

Fouten in perspectief plaatsen

Het is duidelijk dat op dit gebied vertrouwen te winnen valt zodra gebruikers de uitkomsten breder zien. Ervaringen met algoritmische beslissingen geven gebruikers meer houvast, omdat ze aan de resultaten zien wat er goed gaat. Als een algoritme vervolgens ergens de fout ingaat, wat net als met menselijke beslissingen onvermijdelijk is, kunnen gebruikers de foute uitkomsten beter in perspectief plaatsen, want een eerlijk algoritme is niet hetzelfde als een foutloos algoritme.

Volg Executive Finance op LinkedIn!


Categorie: Nieuws Tags: AI, algoritme, Artificial intelligence, big data, data, Data-driven, finance, ICT, technologie, UitgelichtDossier: ICT

« Vorige
Volgende »

Geef een reactie Antwoord annuleren

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

CAPTCHA
Refresh

*

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Het beste van 2020

Best gelezen

  • In 2021 zijn wij ‘on top of our game’ voor financials
  • “Uit data kun je een concurrentievoordeel halen”
  • Van Welie, CFO van Warner Music Benelux: “Ook finance moet zich gewoonweg bewijzen” 
  • Duurzaam risicoleiderschap: kansen en risico’s van klimaatverandering
  • Het beste van Executive Finance 2020

Alles over Data-driven

  • De 5 stappen op weg naar continue modernisering van de CFO office (26 aug)

Hét e-learning platform voor financieel professionals

Volg ons op social media
  • Twitter
  • LinkedIn

Topjobs

Agenda

Collegereeks Accountancy & Controlling
Start 25 januari 2021 – Nyenrode, Breukelen

Collegereeks Risk & Compliance
Start 9 maart 2021 – Nyenrode, Breukelen

Collegereeks Turnaround Management & Restructuring
Start 11 maart 2021 – Nyenrode, Breukelen

Collegereeks Controller als Business Partner
Start 22 maart 2021 – Nyenrode, Breukelen

Collegereeks Data Driven Finance
Start 23 maart 2021 – locatie: volgt binnenkort

Masterclass Essenties van Finance
6 & 13 april 2021 – Bilderberg Hotel, Garderen

Masterclass Bestuurdersaansprakelijkheid in Finance
25 & 26 mei 2021 – Bilderberg Hotel, Garderen

Leergang Financieel Leiderschap
Start 31 mei  2021 – Nyenrode, Breukelen

Nationale Controllersdag
12 oktober 2021 – De Rijtuigenloods, Amersfoort

Vacatures

Meer partnernieuws »

Direct naar

  • Nieuws
  • Educatie
  • Nieuwsbrief
  • Magazine
  • Partner of Choice

Kennis

  • Accounting
  • Compliance/ Integriteit
  • Consolidatie
  • Controlling
  • Corporate growth
  • Finance
  • Fiscaal
  • Management
  • Risicomanagement
  • Treasury

Executive Finance

  • Abonneren
  • Shop
  • Adverteren
  • Colofon
  • Contact
  • Algemene voorwaarden
  • Publicatievoorwaarden
  • Privacy en cookies

Categorieën

  • Nieuws
  • Inspiratie
  • Educatie
  • Branded content
  • Whitepapers