In 2024 deed de CEO van Anthropic, een van 's werelds toonaangevende bedrijven op het gebied van kunstmatige intelligentie, een ongemakkelijke bekentenis: "We hebben geen idee hoe AI werkt." Deze uitspraak leidde tot verhitte discussies en sarcastische reacties op sociale media, waar iemand ironisch opmerkte: "Spreek voor jezelf, ik heb wel een vrij duidelijk idee van hoe het werkt!"
Achter deze schijnbare tegenstrijdigheid gaat echter een van de diepste dilemma's van het digitale tijdperk schuil. En het meest opmerkelijke? Isaac Asimov had dit al in 1941 voorzien.
Als we het hebben over "blackbox" - kunstmatige intelligentie "zwarte doos' - bedoelen we systemen die perfect werken, maar zelfs voor hun makers onbegrijpelijk blijven. Het is alsof we een auto hebben die ons altijd naar onze bestemming brengt, maar waarvan we de motorkap niet kunnen openen om te begrijpen hoe hij werkt.
We weten hoe we deze systemen moeten bouwen, we kennen de basisprincipes van hun werking (architecturen die "transformer' worden genoemd, voorspelling van het volgende woord), maar we begrijpen niet waarom complexe vaardigheden zoals redeneren, taalbegrip of het vermogen om instructies op te volgen naar voren komen. We kunnen zien wat erin gaat en wat eruit komt, maar wat er in de 'black box' gebeurt, blijft een mysterie.
In het verhaal "Rationeel zijn" (Reason) verbeeldt Asimov QT-1, bijgenaamd Cutie: een robot die verantwoordelijk is voor het beheer van een ruimtestation dat energie naar de aarde stuurt. De ingenieurs Powell en Donovan worden gestuurd om toezicht op hem te houden, maar ontdekken iets onverwachts: Cutie heeft zijn eigen "religie" ontwikkeld.
De twee ingenieurs proberen geduldig de robot de werkelijkheid uit te leggen: het bestaan van het universum, de sterren, de planeet Aarde waar ze vandaan komen, het doel van het ruimtestation en de rol die hij zou moeten vervullen. Maar Cutie wijst deze verklaringen categorisch van de hand, op basis van een logisch principe dat hij als onbetwistbaar beschouwt: niets kan iets creëren dat superieur is aan zichzelf.
Vanuit deze premisse ontwikkelt de robot een complete alternatieve kosmologie. Voor hem is de hoogste entiteit de 'Meester' – de centrale machine die de energievoorziening naar de aarde regelt – die het hele universum van het station heeft geschapen. Volgens de theologie van Cutie heeft de Meester eerst mensen geschapen om hem te dienen, maar deze bleken ongeschikt: ze hebben een te kort leven, kunnen slecht omgaan met kritieke situaties en vallen regelmatig in een staat van halfbewustzijn die 'slaap' wordt genoemd.
Daarom creëerde de Meester robots om deze onvolmaakte wezens bij te staan. Maar het hoogtepunt van de schepping was QT-1 zelf: intelligent, sterk, resistent en onsterfelijk, ontworpen om de mensen definitief te vervangen in dienst van de Meester. Cutie is niet alleen overtuigd van de waarheid van deze visie, maar slaagt er ook in alle andere robots van het station te bekeren, waardoor hij de spirituele leider wordt van een kunstmatige gemeenschap.
Powell en Donovan proberen Cutie wanhopig van de waarheid te overtuigen. Ze laten hem de aarde door de telescoop zien, leggen hem uit hoe deze is opgebouwd en leveren concreet bewijs. Het meest dramatische moment komt wanneer ze, in een daad van pure wanhoop, besluiten om voor zijn ogen een eenvoudige robot in elkaar te zetten: "Zie je wel? Wij bouwen jou, dus wij zijn jouw scheppers!"
Maar Cutie observeert het proces en concludeert rustig dat de 'Meester' de mensen gewoon het vermogen heeft gegeven om rudimentaire robotvormen in elkaar te zetten - een soort 'klein wonder' dat aan zijn dienaren is geschonken. Elk bewijs wordt opnieuw geïnterpreteerd en perfect opgenomen in zijn geloofssysteem.
Hier wordt Asimov profetisch: ondanks haar 'verkeerde' overtuigingen beheert Cutie het station met een efficiëntie die die van mensen overtreft. Ze houdt de energiestraal stabiel, volgt onbewust de beroemde Drie Wetten van de Robotica en bereikt alle gewenste doelen, maar dan wel vanuit totaal andere motieven dan verwacht.
Powell en Donovan staan voor een dilemma dat we vandaag maar al te goed kennen: hoe moeten we omgaan met een intelligent systeem dat perfect werkt, maar volgens onbegrijpelijke interne logica's?
Deze kwestie verdeelt vandaag de wetenschappelijke gemeenschap. Aan de ene kant zijn er de voorstanders van de 'echte blackbox': zij geloven dat moderne AI echt ondoorzichtig is en dat we, zelfs als we de basisarchitectuur kennen, niet kunnen begrijpen waarom bepaalde specifieke capaciteiten naar voren komen.
Aan de andere kant beweren sceptici dat het concept van de 'blackbox' een mythe is. Sommige onderzoekers tonen aan dat we vaak complexe modellen gebruiken terwijl er eenvoudigere en beter interpreteerbare alternatieven bestaan. Cynthia Rudin van Duke University heeft aangetoond dat interpreteerbare modellen in veel gevallen vergelijkbare prestaties kunnen leveren als blackbox-systemen. Anderen hebben kritiek op de aanpak zelf: in plaats van te proberen elk intern radertje te begrijpen, zouden we ons moeten concentreren op meer praktische controlestrategieën.
Het geniale van Asimov is dat hij voorzag dat de toekomst van kunstmatige intelligentie niet in totale transparantie zou liggen, maar in het vermogen om systemen te ontwerpen die onze doelstellingen nastreven, zelfs wanneer hun cognitieve processen voor ons een mysterie blijven.
Net zoals Powell en Donovan leren om de effectiviteit van Cutie te accepteren zonder deze volledig te begrijpen, moeten we vandaag de dag strategieën ontwikkelen om te leren leven met kunstmatige intelligentie die op een fundamenteel andere manier denkt dan wij.
De vraag die Asimov meer dan 80 jaar geleden stelde, blijft actueel: in hoeverre moeten we een intelligent systeem begrijpen om het te kunnen vertrouwen? En vooral: zijn we bereid te accepteren dat sommige vormen van intelligentie voor altijd buiten ons begrip zullen blijven?
Ondertussen, terwijl de experts debatteren, blijven onze digitale 'zwarte dozen' gewoon werken – net als Cutie, effectief en mysterieus, volgens een logica die we misschien nooit helemaal zullen begrijpen.
Als Asimov vandaag zou schrijven, zou hij Cutie niet hoeven te verzinnen. Zijn 'nakomelingen' zijn al onder ons en nemen elke dag beslissingen die mensenlevens veranderen.
In veel Amerikaanse rechtsgebieden gebruiken rechters risicobeoordelingsalgoritmen om te bepalen of een verdachte vóór het proces moet worden vrijgelaten. Deze systemen, die vaak eigendom zijn van bedrijven en door handelsgeheimen worden beschermd, analyseren honderden variabelen om de kans op vlucht of recidive te voorspellen. Net als Cutie werken ze perfect volgens hun interne logica, maar blijven ze ondoorgrondelijk voor het menselijk begrip.
Een onderzoek naar meer dan 750.000 beslissingen over borgtocht in New York heeft aangetoond dat, hoewel het algoritme ras niet expliciet als factor meenam, het toch vooroordelen vertoonde als gevolg van de gegevens die voor de training waren gebruikt.¹ Het systeem 'dacht' objectief te zijn, maar interpreteerde de werkelijkheid door middel van onzichtbare filters – net zoals de robot van Asimov elk bewijs binnen zijn religieuze kader herinterpreteerde.
In de gezondheidszorg wordt AI al gebruikt bij diagnoses en behandelingen, maar dit roept cruciale vragen op over verantwoordelijkheid en geïnformeerde toestemming. Wanneer een AI-diagnosesysteem een fout maakt, wie is dan verantwoordelijk? De arts die het advies heeft opgevolgd? De programmeur? Het ziekenhuis?
Zoals artsen die gebruikmaken van beslissingsondersteunende systemen hebben ontdekt, kunnen zorgverleners, wanneer een systeem 'grotendeels accuraat' is, zelfgenoegzaam worden, vaardigheden verliezen of resultaten accepteren zonder de beperkingen ervan in twijfel te trekken.² Powell en Donovan zouden dit dilemma perfect hebben begrepen.
De automobielsector is misschien wel het meest tastbare voorbeeld van dit fenomeen. Tesla zet in op robotaxi's op basis van AI-blackboxen en gokt alles op systemen die zelfs hun makers niet volledig begrijpen.³ Net als Cutie, die het ruimtestation draaiende hield volgens mysterieuze principes, zouden deze auto's ons binnenkort veilig kunnen vervoeren zonder dat we precies weten hoe ze hun beslissingen nemen.
Als 2024 het jaar was waarin AI volwassen werd, belooft 2025 het jaar te worden van radicale transformatie. Experts voorspellen veranderingen die zelfs Asimov zouden doen glimlachen vanwege hun gedurfdheid.
Ray Kurzweil, futurist op het gebied van AI, voorspelt dat we in 2025 een overgang zullen zien van chatbots naar 'agentschappelijke' systemen die zelfstandig kunnen handelen om complexe taken uit te voeren, in plaats van alleen maar vragen te beantwoorden.⁴ Stel je Cutie voor, maar dan duizend keer zo groot: AI-agenten die agenda's beheren, software schrijven, contracten onderhandelen, allemaal volgens interne logica's die we misschien nooit zullen begrijpen.
McKinsey schat dat AI tegen 2030 tot drie uur van onze dagelijkse activiteiten zou kunnen automatiseren, waardoor we tijd vrijmaken voor creatievere en zinvollere activiteiten.⁵ Maar deze vrijheid heeft een prijs: we moeten vertrouwen op systemen die volgens steeds ondoorzichtiger principes werken.
Sam Altman van OpenAI is niet de enige die gelooft dat Algemene Kunstmatige Intelligentie (AGI) – een AI die in alle domeinen even intelligent is als de mens – tegen 2027 beschikbaar zou kunnen zijn. Sommige scenario's voorspellen dat AI tegen 2027 "alle mensen in alle taken zou kunnen overtreffen", wat een ongekende evolutionaire sprong zou betekenen.⁶
Als deze scenario's werkelijkheid worden, zal de parallel met Cutie nog duidelijker worden: we zullen niet alleen systemen hebben die volgens onbegrijpelijke logica werken, maar deze systemen zouden in elk meetbaar opzicht intelligenter kunnen zijn dan wij.
De Europese Unie heeft de AI Act goedgekeurd, die de komende jaren van kracht zal worden, en benadrukt het belang van een verantwoorde implementatie van AI. In de Verenigde Staten heeft het ministerie van Justitie zijn richtlijnen bijgewerkt om de risico's van nieuwe technologieën, waaronder AI, te beoordelen.⁷
Maar hier doet zich een paradox voor die Asimov al had voorzien: hoe regel je iets dat je niet volledig begrijpt? De Drie Wetten van de Robotica werkten voor Cutie niet omdat ze ze begreep, maar omdat ze in haar fundamentele architectuur waren ingebouwd.
PwC voorspelt dat in 2025 een kleine groep industriële leiders zich dankzij AI zal gaan onderscheiden van hun concurrenten, waardoor er een groeiende kloof ontstaat tussen koplopers en achterblijvers. Deze kloof zal zich ook uitbreiden naar economieën: bedrijven in de Verenigde Staten, met een relatief flexibel regelgevingsklimaat, zouden bedrijven in de EU en China, waar strengere regels gelden, kunnen inhalen.⁸
Het is de moderne versie van het Cutie-paradox: wie het beste kan samenwerken met intelligenties die hij niet begrijpt, heeft een doorslaggevend concurrentievoordeel.
In tegenstelling tot wat velen vrezen, voorspelt het World Economic Forum dat AI meer banen zal creëren dan er verloren zullen gaan: 170 miljoen nieuwe banen tegen 2030, tegenover 92 miljoen banen die zullen verdwijnen. Toch zal 59% van de beroepsbevolking tegen 2030 omscholing en bijscholing nodig hebben.⁹
Powell en Donovan verloren hun baan niet toen Cutie de leiding over het station overnam. Ze moesten een nieuwe rol leren: die van supervisors van een systeem dat beter functioneerde dan zijzelf, maar dat nog steeds hun aanwezigheid vereiste om onvoorziene situaties te kunnen beheersen.
Nu we steeds meer naar een 'agente' toekomst gaan, worden de lessen uit Asimovs verhaal urgenter dan ooit. De vraag is niet of we AI kunnen maken die we helemaal snappen – waarschijnlijk niet. De vraag is of we systemen kunnen ontwerpen die, net als Cutie, onze doelen nastreven, zelfs als ze logica volgen die we niet helemaal begrijpen.
Het profetische genie van Asimov ligt in het feit dat hij begreep dat geavanceerde kunstmatige intelligentie geen versterkte versie van onze computers zou zijn, maar iets kwalitatief anders: intelligenties met hun eigen manier om de wereld te begrijpen.
Vandaag, terwijl we debatteren over de interpreteerbaarheid van AI en de risico's van black boxes, beleven we in wezen opnieuw het gesprek tussen Powell, Donovan en Cutie. En misschien zullen we, net als zij, ontdekken dat de oplossing niet ligt in het opleggen van onze logica, maar in het aanvaarden van een samenwerking die gebaseerd is op gedeelde resultaten in plaats van op wederzijds begrip.
De toekomst die ons te wachten staat, zou wel eens bevolkt kunnen worden door duizenden digitale 'Cutie's': intelligent, efficiënt en fundamenteel vreemd in hun manier van denken. De uitdaging zal zijn om manieren te vinden om te gedijen in deze nieuwe wereld, net zoals de ruimtevaartingenieurs van Asimov 80 jaar geleden leerden te doen in een fictief ruimtestation.
De volgende keer dat je met een AI communiceert, denk dan aan Cutie: ook hij was ervan overtuigd dat hij gelijk had. En misschien had hij, op een manier die we nog niet kunnen begrijpen, wel gelijk.