Fabio Lauria

Machines die (ook) leren van onze fouten Het boemerangeffect: we leren de AI onze fouten en hij geeft ze aan ons terug... vermenigvuldigd!

13 april 2025
Delen op sociale media

Enkele recent onderzoek hebben een interessant fenomeen aan het licht gebracht: er is een 'tweerichtingsrelatie' tussen de vooroordelen die aanwezig zijn in modellen voor kunstmatige intelligentie en die van het menselijk denken.

Deze interactie creëert een mechanisme dat cognitieve vervormingen in beide richtingen versterkt.

Dit onderzoek toont aan dat AI-systemen niet alleen menselijke vooroordelen overerven van trainingsgegevens, maar deze bij implementatie kunnen versterken, waardoor ze op hun beurt het besluitvormingsproces van mensen beïnvloeden. Hierdoor ontstaat een cyclus die, als deze niet goed wordt beheerd, het risico inhoudt dat de oorspronkelijke vooroordelen steeds verder toenemen.

Dit fenomeen is vooral duidelijk in belangrijke sectoren zoals:

Op deze gebieden kunnen kleine initiële vertekeningen zich versterken door herhaalde interacties tussen menselijke operators en geautomatiseerde systemen, en geleidelijk veranderen in significante verschillen in resultaten.

De oorsprong van vooroordelen

In menselijk denken

De menselijke geest gebruikt van nature 'shortcuts' in het denken die systematische fouten in onze oordelen kunnen introduceren. De theorie van "dubbel denken" maakt onderscheid tussen:

  • Snel en intuïtief denken (gevoelig voor stereotypen)
  • Langzaam en reflectief denken (in staat om vooroordelen te corrigeren)

Op medisch gebied hebben artsen bijvoorbeeld de neiging om te veel gewicht te geven aan aanvankelijke hypotheses en het tegengestelde bewijs te negeren. Dit fenomeen, dat 'confirmation bias' wordt genoemd, wordt herhaald en versterkt door AI-systemen die zijn getraind op historische diagnostische gegevens.

In AI-modellen

Modellen voor machinaal leren bestendigen vooroordelen voornamelijk via drie kanalen:

  1. Onevenwichtige trainingsgegevens die historische ongelijkheden weerspiegelen
  2. Selectie van kenmerken die beschermde eigenschappen bevatten (zoals geslacht of etniciteit)
  3. Terugkoppellussen als gevolg van interacties met reeds verstoorde menselijke beslissingen

Een 2024 UCL onderzoek toonde aan dat gezichtsherkenningssystemen die getraind waren op emotionele oordelen van mensen, een neiging van 4,7 procent erfden om gezichten als 'verdrietig' te bestempelen en deze neiging vervolgens versterkten tot 11,3 procent in daaropvolgende interacties met gebruikers.

Hoe ze elkaar versterken

Uit gegevensanalyse van wervingsplatforms blijkt dat elke samenwerkingscyclus tussen mens en algoritme de gendervooroordelen met 8-14% verhoogt via wederzijds versterkende feedbackmechanismen.

Als HR-professionals van AI lijsten met kandidaten ontvangen die al beïnvloed zijn door historische vooroordelen, versterken hun latere interacties (zoals de keuze van interviewvragen of prestatiebeoordelingen) vertekende voorstellingen van het model.

Uit een meta-analyse van 47 onderzoeken in 2025 bleek dat drie cycli van samenwerking tussen mens en IA de demografische ongelijkheid 1,7-2,3 keer vergrootten op gebieden als gezondheid, leningen en onderwijs.

Strategieën voor het meten en beperken van vooroordelen

Kwantificering door machinaal leren

Het raamwerk voor het meten van vertekeningen dat Dong et al. (2024) hebben voorgesteld, maakt het mogelijk om vertekeningen op te sporen zonder dat er labels met een 'absolute waarheid' nodig zijn, door discrepanties in besluitvormingspatronen tussen beschermde groepen te analyseren.

Cognitieve interventies

De 'algoritmische spiegel'-techniek, ontwikkeld door UCL-onderzoekers, verminderde gendervooroordelen in promotiebeslissingen met 41% door managers te laten zien hoe hun historische keuzes eruit zouden zien als ze waren gemaakt door een AI-systeem.

Trainingsprotocollen die afwisselen tussen IA-assistentie en autonome besluitvorming blijken bijzonder veelbelovend, en verminderen de effecten van biasoverdracht van 17% naar 6% in klinische diagnostische onderzoeken.

Implicaties voor de samenleving

Organisaties die AI-systemen implementeren zonder rekening te houden met interacties met menselijke vooroordelen, lopen grotere juridische en operationele risico's.

Een analyse van gevallen van arbeidsdiscriminatie toont aan dat AI-ondersteunde wervingsprocessen de slagingskansen van eisers met 28 procent verhogen in vergelijking met traditionele, door mensen geleide zaken, omdat sporen van algoritmische beslissingen duidelijker bewijs leveren van ongelijke gevolgen.

Naar een kunstmatige intelligentie die vrijheid en efficiëntie respecteert

De correlatie tussen algoritmische verstoringen en beperkingen van de keuzevrijheid vereist dat we de technologische ontwikkeling opnieuw bekijken vanuit het perspectief van individuele verantwoordelijkheid en het waarborgen van de marktefficiëntie. Het is cruciaal om ervoor te zorgen dat AI een hulpmiddel wordt om kansen te vergroten en niet om ze te beperken.

Veelbelovende richtingen zijn onder andere:

  • Marktoplossingen die de ontwikkeling van onbevooroordeelde algoritmen stimuleren
  • Grotere transparantie in geautomatiseerde besluitvormingsprocessen
  • Deregulering die concurrentie tussen verschillende technologische oplossingen bevordert

Alleen door verantwoordelijke zelfregulering door de industrie, gecombineerd met keuzevrijheid voor gebruikers, kunnen we ervoor zorgen dat technologische innovatie een motor van welvaart en kansen blijft voor iedereen die bereid is zijn vaardigheden op de proef te stellen.

Fabio Lauria

CEO & Oprichter Electe

Als CEO van Electe help ik KMO's om datagestuurde beslissingen te nemen. Ik schrijf over kunstmatige intelligentie in de bedrijfswereld.

Meest populair
Meld je aan voor het laatste nieuws

Ontvang wekelijks nieuws en inzichten in je inbox
. Mis het niet!

Hartelijk dank! Je inzending is ontvangen!
Oeps! Er ging iets mis bij het verzenden van het formulier.