Machine learning: gaan we op de automatische piloot of blijven we kritisch?

Robotisering is hot. Op dit moment geeft Google enkel over de afgelopen maand al 3.260 resultaten op deze zoekterm. En dan gebruik ik nog maar een Nederlandse term, waarbij daarnaast ‘kunstmatige intelligentie’ en ‘machine learning’ synoniemen zijn die veelal voor hetzelfde verschijnsel worden gebruikt. Namelijk: software die kunstmatig intelligent wordt gemaakt door te leren van voorbeelden. Hierdoor wordt zij zelflerend en krijgt het eigenschappen van de mens en kan het zelfs menselijke taken overnemen. Neem nu het meest bekende voorbeeld van de zelfrijdende auto. De auto die goed anticipeert op het verkeer en goed weet in te spelen op plotseling ontstane verkeersituaties…. als het goed is. Lees in dit blog welke effecten Machine learning kan hebben.

Machine learning

In mei 2016 crashte een Tesla-auto die reed met het Autopilot-systeem. De auto faalde in het detecteren van een trailer vóór de auto. Volgens Tesla zou het gaan om een ‘uitzonderlijke situatie’. Echter is dit incident voor Amerikaanse instanties aanleiding geweest een onderzoek te starten of de Autopilot wel veilig genoeg is. Naast dit eerste dodelijk ongeluk kopte het Financieel Dagblad van september dat Tesla is aangeklaagd voor een dodelijk ongeval in China. Een man zou met hoge snelheid achterop een veegwagen gereden zijn doordat de Autopilot-functie de verkeerssituatie volledig verkeerd beoordeeld zou hebben. Tja, nu.nl berichtte twee maanden later dat de zelfrijdende auto van Google langzamer gaat rijden als er kinderen in de buurt zijn. Volgens Google moet de auto kinderen in alle vormen en maten herkennen, ook als ze verkleed zijn.

machine learningTrouwens, over kinderen gesproken. De Stanford Universiteit schijnt een robotpolitie te hebben gebouwd, waarbij een systeem de afbeeldingen interpreteert die de camera-ogen van de robotpolitie vastleggen. Dit systeem werkt goed op de meeste afbeeldingen die aan de robot worden getoond. Stelt u zich echter voor wat er kan gebeuren als de tandenborstel van het kind in de afbeelding door de machine wordt geïdentificeerd als een wapen?

Is de output van Machine learning betrouwbaar?

Je wilt hier liever niet over nadenken. Maar toch, het is wel een zeer wezenlijke vraag: hoe weten we of de output van machine learning betrouwbaar is? Machine learning wordt toegepast voor het waarderen van onroerend goed, voor credit ratings bij banken, voor het geven van advies of een aandeel gekocht, aangehouden of verkocht moet worden. Kortom, het raakt meer en meer geïntegreerd in onze samenleving en een foute voorspelling van de software kan financieel grote schade veroorzaken.


Machine learning wordt toegepast voor het waarderen van onroerend goed, voor credit ratings bij banken, voor het geven van advies of een aandeel gekocht, aangehouden of verkocht moet worden.


Het kan veroorzaakt worden door fouten in de software, maar ook door gewoonweg verkeerde inschattingen van het algoritme. En wie heeft nog niet gedacht aan het gevaar van gehacked worden? De FBI heeft gewaarschuwd voor het gevaar dat kwaadwillenden de software van de zelfrijdende auto updaten met malware, waardoor de besturing kan worden overgenomen. Al met al: laten we niet blindelings vertrouwen op de output van intelligente machines.

Om dit blog toch enigszins luchtig af te sluiten: laatst was ik op een bijeenkomst voor IT-auditors en werd bovenstaande video getoond over robotisering. Het laat zien hoe vernuftig robots momenteel al zijn. De maatschappij zal hierdoor de komende jaren ongetwijfeld veranderen. En daarbij ben ik nu éénmaal accountant: blijven wij echter wel kritisch genoeg over de betrouwbaarheid van de slimme software? Wilt u zeker weten dat alles ‘in orde is’, of stapt u zonder na te denken in ’s werelds eerste zelfrijdende taxi die in Singapore de weg op ging?

Laat de boodschap van dit blog zijn dat wij zelf niet op de Autopilot-functie gaan, maar kritisch blijven en waar nodig zekerheid vragen over de output van de intelligente machines. Misschien een toekomstig assurancegebied voor IT-auditors?