Newsletter

Machines die (ook) leren van onze fouten Het boemerangeffect: we leren de AI onze fouten en hij geeft ze aan ons terug... vermenigvuldigd!

AI erft onze vooroordelen - en versterkt ze vervolgens. We zien de bevooroordeelde resultaten en versterken ze. Een zichzelf voedende cyclus. Een onderzoek van de UCL: een vooroordeel van 4,7% in gezichtsherkenning nam toe tot 11,3% na interacties tussen mens en AI. In HR verhoogt elke cyclus de gendervooroordelen met 8-14%. Het goede nieuws? De 'algoritmische spiegel'-techniek, die managers laat zien hoe hun keuzes eruit zouden zien als ze door een AI zouden worden gemaakt, vermindert de vooringenomenheid met 41%.

Enkele recent onderzoek hebben een interessant fenomeen aan het licht gebracht: er is een 'tweerichtingsrelatie' tussen de vooroordelen die aanwezig zijn in modellen voor kunstmatige intelligentie en die van het menselijk denken.

Deze interactie creëert een mechanisme dat cognitieve vervormingen in beide richtingen versterkt.

Dit onderzoek toont aan dat AI-systemen niet alleen menselijke vooroordelen overerven van trainingsgegevens, maar deze bij implementatie kunnen versterken, waardoor ze op hun beurt het besluitvormingsproces van mensen beïnvloeden. Hierdoor ontstaat een cyclus die, als deze niet goed wordt beheerd, het risico inhoudt dat de oorspronkelijke vooroordelen steeds verder toenemen.

Dit fenomeen is vooral duidelijk in belangrijke sectoren zoals:

Op deze gebieden kunnen kleine initiële vertekeningen zich versterken door herhaalde interacties tussen menselijke operators en geautomatiseerde systemen, en geleidelijk veranderen in significante verschillen in resultaten.

De oorsprong van vooroordelen

In menselijk denken

De menselijke geest gebruikt van nature 'shortcuts' in het denken die systematische fouten in onze oordelen kunnen introduceren. De theorie van "dubbel denken" maakt onderscheid tussen:

  • Snel en intuïtief denken (gevoelig voor stereotypen)
  • Langzaam en reflectief denken (in staat om vooroordelen te corrigeren)

Op medisch gebied hebben artsen bijvoorbeeld de neiging om te veel gewicht te geven aan aanvankelijke hypotheses en het tegengestelde bewijs te negeren. Dit fenomeen, dat 'confirmation bias' wordt genoemd, wordt herhaald en versterkt door AI-systemen die zijn getraind op historische diagnostische gegevens.

In AI-modellen

Modellen voor machinaal leren bestendigen vooroordelen voornamelijk via drie kanalen:

  1. Onevenwichtige trainingsgegevens die historische ongelijkheden weerspiegelen
  2. Selectie van kenmerken die beschermde eigenschappen bevatten (zoals geslacht of etniciteit)
  3. Terugkoppellussen als gevolg van interacties met reeds verstoorde menselijke beslissingen

Een 2024 UCL onderzoek toonde aan dat gezichtsherkenningssystemen die getraind waren op emotionele oordelen van mensen, een neiging van 4,7 procent erfden om gezichten als 'verdrietig' te bestempelen en deze neiging vervolgens versterkten tot 11,3 procent in daaropvolgende interacties met gebruikers.

Hoe ze elkaar versterken

Uit gegevensanalyse van wervingsplatforms blijkt dat elke samenwerkingscyclus tussen mens en algoritme de gendervooroordelen met 8-14% verhoogt via wederzijds versterkende feedbackmechanismen.

Wanneer HR-professionals van de AI lijsten met kandidaten ontvangen die al beïnvloed zijn door historische vooroordelen, versterken hun latere interacties (zoals de keuze van interviewvragen of prestatiebeoordelingen) de vooringenomen voorstellingen van het model.

Uit een meta-analyse van 47 onderzoeken in 2025 bleek dat drie cycli van samenwerking tussen mens en IA de demografische ongelijkheid 1,7-2,3 keer vergrootten op gebieden als gezondheid, leningen en onderwijs.

Strategieën voor het meten en beperken van vooroordelen

Kwantificering door machinaal leren

Het raamwerk voor het meten van vertekeningen dat Dong et al. (2024) hebben voorgesteld, maakt het mogelijk om vertekeningen op te sporen zonder dat er labels met een 'absolute waarheid' nodig zijn, door discrepanties in besluitvormingspatronen tussen beschermde groepen te analyseren.

Cognitieve interventies

De 'algoritmische spiegel'-techniek, ontwikkeld door UCL-onderzoekers, verminderde gendervooroordelen in promotiebeslissingen met 41% door managers te laten zien hoe hun historische keuzes eruit zouden zien als ze waren gemaakt door een AI-systeem.

Trainingsprotocollen die afwisselen tussen IA-assistentie en autonome besluitvorming blijken bijzonder veelbelovend, en verminderen de effecten van biasoverdracht van 17% naar 6% in klinische diagnostische onderzoeken.

Implicaties voor de samenleving

Organisaties die AI-systemen implementeren zonder rekening te houden met interacties met menselijke vooroordelen, lopen grotere juridische en operationele risico's.

Een analyse van gevallen van arbeidsdiscriminatie toont aan dat AI-ondersteunde wervingsprocessen de slagingskansen van eisers met 28 procent verhogen in vergelijking met traditionele, door mensen geleide zaken, omdat sporen van algoritmische beslissingen duidelijker bewijs leveren van ongelijke gevolgen.

Naar een kunstmatige intelligentie die vrijheid en efficiëntie respecteert

De correlatie tussen algoritmische verstoringen en beperkingen van de keuzevrijheid vereist dat we de technologische ontwikkeling opnieuw bekijken vanuit het perspectief van individuele verantwoordelijkheid en het waarborgen van de marktefficiëntie. Het is cruciaal om ervoor te zorgen dat AI een hulpmiddel wordt om kansen te vergroten en niet om ze te beperken.

Veelbelovende richtingen zijn onder andere:

  • Marktoplossingen die de ontwikkeling van onbevooroordeelde algoritmen stimuleren
  • Grotere transparantie in geautomatiseerde besluitvormingsprocessen
  • Deregulering die concurrentie tussen verschillende technologische oplossingen bevordert

Alleen door verantwoorde zelfregulering door de industrie, gecombineerd met keuzevrijheid voor gebruikers, kunnen we ervoor zorgen dat technologische innovatie een motor van welvaart en kansen blijft voor iedereen die bereid is zijn vaardigheden op de proef te stellen.

Hulpmiddelen voor bedrijfsgroei

9 november 2025

AI-regelgeving voor consumententoepassingen: hoe u zich kunt voorbereiden op de nieuwe regelgeving voor 2025

2025 markeert het einde van het 'Wilde Westen'-tijdperk van AI: AI Act EU operationeel vanaf augustus 2024 met AI-geletterdheidsverplichtingen vanaf 2 februari 2025, governance en GPAI vanaf 2 augustus. Californië loopt voorop met SB 243 (ontstaan na zelfmoord van Sewell Setzer, 14-jarige ontwikkelde emotionele relatie met chatbot) met een verbod op dwangmatige beloningssystemen, detectie van zelfmoordgedachten, elke 3 uur een herinnering 'ik ben geen mens', onafhankelijke openbare audits, boetes van 1000 dollar per overtreding. SB 420 vereist effectbeoordelingen voor 'geautomatiseerde beslissingen met een hoog risico' met het recht om in beroep te gaan tegen menselijke beoordeling. Echte handhaving: Noom haalde 2022 aan voor bots die zich voordeden als menselijke coaches, schikking $ 56 miljoen. Nationale trend: Alabama, Hawaii, Illinois, Maine, Massachusetts classificeren het niet aanmelden van AI-chatbots als schending van de UDAP. Drietrapsbenadering van risicokritieke systemen (gezondheidszorg/transport/energie): certificering vóór ingebruikname, transparante informatieverstrekking aan de consument, registratie voor algemene doeleinden en veiligheidstests. Lappendeken van regelgeving zonder federale pre-emption: bedrijven in meerdere staten moeten navigeren door verschillende vereisten. EU vanaf augustus 2026: gebruikers informeren over AI-interactie tenzij duidelijk, AI-gegenereerde inhoud gelabeld als machineleesbaar.
9 november 2025

Reguleren wat niet gemaakt wordt: riskeert Europa technologische irrelevantie?

Europa trekt slechts een tiende van de wereldwijde investeringen in kunstmatige intelligentie aan, maar beweert wel de wereldwijde regels te dicteren. Dit is het 'Brussels Effect' - regels opleggen op wereldschaal door middel van marktmacht zonder innovatie aan te jagen. De AI-wet wordt van kracht op een gespreid tijdschema tot 2027, maar multinationale technologiebedrijven reageren met creatieve ontwijkingsstrategieën: bedrijfsgeheimen inroepen om trainingsgegevens niet te hoeven onthullen, technisch conforme maar onbegrijpelijke samenvattingen produceren, zelfbeoordeling gebruiken om systemen te degraderen van 'hoog risico' naar 'minimaal risico', forumshoppen door te kiezen voor lidstaten met minder strenge controles. De paradox van extraterritoriaal auteursrecht: de EU eist dat OpenAI de Europese wetten naleeft, zelfs voor trainingen buiten Europa - een principe dat nog nooit eerder is voorgekomen in het internationaal recht. Het 'duale model' ontstaat: beperkte Europese versies versus geavanceerde wereldwijde versies van dezelfde AI-producten. Reëel risico: Europa wordt een 'digitaal fort', geïsoleerd van wereldwijde innovatie, met Europese burgers die toegang hebben tot inferieure technologieën. Het Hof van Justitie heeft in de kredietscoringszaak de verdediging tegen 'bedrijfsgeheimen' al verworpen, maar de interpretatieve onzekerheid blijft enorm - wat betekent 'voldoende gedetailleerde samenvatting' precies? Niemand weet het. Laatste onbeantwoorde vraag: creëert de EU een ethische derde weg tussen het Amerikaanse kapitalisme en de Chinese staatscontrole, of exporteert ze gewoon bureaucratie naar een gebied waar ze niet concurreert? Voor nu: wereldleider in AI-regulering, marginaal in de ontwikkeling ervan. Uitgebreid programma.
9 november 2025

Outliers: waar gegevenswetenschap en succesverhalen elkaar ontmoeten

Datawetenschap heeft het paradigma op zijn kop gezet: uitbijters zijn niet langer 'fouten die geëlimineerd moeten worden', maar waardevolle informatie die begrepen moet worden. Een enkele uitschieter kan een lineair regressiemodel volledig verstoren - de helling veranderen van 2 naar 10 - maar als je die uitschieter elimineert, kan dat betekenen dat je het belangrijkste signaal in de dataset kwijtraakt. Machine learning introduceert geavanceerde hulpmiddelen: Isolation Forest isoleert uitschieters door willekeurige beslisbomen te bouwen, Local Outlier Factor analyseert de lokale dichtheid, Autoencoders reconstrueren normale gegevens en rapporteren wat ze niet kunnen reproduceren. Er zijn globale uitschieters (temperatuur -10°C in de tropen), contextuele uitschieters (€1.000 uitgeven in een arme buurt), collectieve uitschieters (gesynchroniseerde pieken in het netwerkverkeer die wijzen op een aanval). Parallel met Gladwell: de '10.000 uur-regel' wordt betwist-Paul McCartney dixit 'veel bands hebben 10.000 uur in Hamburg gedaan zonder succes, theorie niet onfeilbaar'. Aziatisch wiskundig succes is niet genetisch maar cultureel: Chinees numeriek systeem intuïtiever, rijstteelt vereist constante verbetering vs. Westerse landbouw territoriale expansie. Echte toepassingen: Britse banken kunnen 18% potentiële verliezen terugwinnen via real-time detectie van anomalieën, productieprocessen detecteren microscopische defecten die menselijke inspecties zouden missen, gezondheidszorg valideert klinische onderzoeksgegevens met meer dan 85% gevoeligheid voor detectie van anomalieën. Laatste les: naarmate datawetenschap verschuift van het elimineren van uitschieters naar het begrijpen ervan, moeten we onconventionele carrières niet zien als anomalieën die moeten worden gecorrigeerd, maar als waardevolle trajecten die moeten worden bestudeerd.