

De Europese Unie heeft een historische stap gezet met de inwerkingtreding van de AI Act, 's werelds eerste alomvattende wetgeving op het gebied van kunstmatige intelligentie. Deze revolutionaire wet, die Europa een voortrekkersrol geeft op het gebied van AI-governance, stelt een op risico's gebaseerd regelgevingskader vast dat een balans moet vinden tussen innovatie en de bescherming van fundamentele rechten. De verordening is echter ook de zoveelste manifestatie van het zogenaamde "Brusselseffect" - de neiging van de EU om haar regels op wereldwijde schaal op te leggen door middel van haar marktmacht, zonder dat dit noodzakelijkerwijs technologische innovatie stimuleert.
Terwijl de VS en China de ontwikkeling van AI leiden met massale publieke en private investeringen (respectievelijk 45% en 30% van de wereldwijde investeringen in 2024), heeft Europa slechts 10% van de wereldwijde investeringen in AI aangetrokken. In reactie hierop probeert de EU haar technologische achterstand te compenseren met regelgeving, door normen op te leggen die uiteindelijk het hele wereldwijde ecosysteem beïnvloeden.
De centrale vraag is: creëert Europa een omgeving die verantwoorde innovatie bevordert of exporteert het alleen maar bureaucratie naar een industrie waar het niet kan concurreren?
De AI-wet is niet alleen van toepassing op Europese bedrijven, maar ook op bedrijven die actief zijn op de Europese markt of waarvan de AI-systemen gevolgen hebben voor EU-burgers. Deze extraterritoriale jurisdictie is vooral duidelijk in de bepalingen over GPAI-modellen, waar overweging 106 van de wet stelt dat leveranciers het auteursrecht van de EU moeten respecteren "ongeacht de jurisdictie waarin de opleiding van de modellen plaatsvindt".
Deze aanpak is sterk bekritiseerd door sommige waarnemers, die het zien als een poging van de EU om haar regels op te leggen aan bedrijven die niet op haar grondgebied gevestigd zijn. Volgens critici zou dit een kloof kunnen veroorzaken in het wereldwijde technologie-ecosysteem, waarbij bedrijven gedwongen zouden worden om aparte versies van hun producten te ontwikkelen voor de Europese markt of om Europese normen te hanteren voor alle markten om extra nalevingskosten te vermijden.
Multinationale technologiebedrijven bevinden zich daarom in een lastig parket: de Europese markt negeren is geen haalbare optie, maar voldoen aan de AI-wet vergt aanzienlijke investeringen en kan de ruimte voor innovatie beperken. Dit effect wordt nog versterkt door het ambitieuze tijdschema voor de implementatie en de onzekerheid over de interpretatie van veel bepalingen.
De AI-wet is op 1 augustus 2024 in werking getreden, maar de uitvoering zal worden gespreid:
De verordening gaat uit van een risicogebaseerde benadering, waarbij AI-systemen in vier categorieën worden ingedeeld: onaanvaardbaar risico (verboden), hoog risico (onderworpen aan strenge eisen), beperkt risico (met transparantieverplichtingen) en minimaal of geen risico (vrij gebruik). Deze categorisering bepaalt de specifieke verplichtingen voor ontwikkelaars, leveranciers en gebruikers.
Een van de belangrijkste vernieuwingen van de AI Act betreft de transparantieverplichtingen, die het 'zwarte doos'-karakter moeten aanpakken.zwarte doos"van AI-systemen aan te pakken. Deze verplichtingen omvatten:
Hoewel deze eisen bedoeld zijn om de rechten van burgers te beschermen, kunnen ze een aanzienlijke last leggen op bedrijven, vooral op innovatieve startende bedrijven en KMO's. De noodzaak om ontwikkelingsprocessen, trainingsgegevens en besluitvormingslogica in detail te documenteren kan innovatiecycli vertragen en ontwikkelingskosten verhogen, waardoor Europese bedrijven in het nadeel zijn ten opzichte van concurrenten in andere regio's met minder strenge regelgeving.

De uitspraak in zaak C-203/22 laat zien hoe bedrijven zich aanvankelijk verzetten tegen transparantieverplichtingen. De verweerder, een aanbieder van telecommunicatiediensten, voerde aan dat het onthullen van de logica van zijn kredietscore-algoritme bedrijfsgeheimen zou onthullen, waardoor zijn concurrentievoordeel in gevaar zou komen.6 . Het HvJEU verwierp dit argument en stelde dat artikel 22 van de GDPR individuen het recht geeft op uitleg over de "criteria en logica" achter geautomatiseerde besluiten, zelfs als deze vereenvoudigd zijn.6 .
Volgens het tweeledige systeem van de AI-wet vallen de meeste generatieve AI-modellen onder niveau 1, waarbij naleving van het EU-auteursrecht en samenvattingen van trainingsgegevens vereist zijn.2 . Om claims van schending van het auteursrecht te voorkomen, zijn bedrijven zoals OpenAI overgestapt op samengevatte gegevens of gelicentieerde inhoud, maar er blijven hiaten in de documentatie bestaan.
De AI-wet bevat specifieke auteursrechtelijke bepalingen die de regelgevende invloed van de EU tot ver buiten haar grenzen uitbreiden. Leveranciers van GPAI-modellen moeten:
Overweging 106 van de AI-wet stelt dat leveranciers het auteursrecht van de EU moeten respecteren, "ongeacht het rechtsgebied waarin de modelopleiding plaatsvindt". Deze extraterritoriale benadering roept vragen op over de verenigbaarheid met de territorialiteitsbeginselen van het auteursrecht en kan leiden tot regelgevingsconflicten met andere rechtsgebieden.
Voor wereldwijde technologiebedrijven stelt de AI-wet hen voor een fundamentele strategische keuze: zich aanpassen aan het 'Brussels Effect' en wereldwijd voldoen aan de Europese normen, of een gedifferentieerde aanpak ontwikkelen voor verschillende markten? Er zijn verschillende strategieën naar voren gekomen:
Sommige grote technologiebedrijven ontwikkelen een 'duaal bedrijfsmodel':
Deze aanpak is weliswaar duur, maar maakt het mogelijk om op de Europese markt aanwezig te blijven zonder de wereldwijde innovatie in gevaar te brengen. Deze versnippering kan echter leiden tot een steeds grotere technologiekloof, waarbij Europese gebruikers toegang hebben tot minder geavanceerde technologieën dan gebruikers in andere regio's.
De Europese AI-wet vormt een keerpunt in de AI-regelgeving, maar de complexiteit en onduidelijke interpretatie ervan zorgen voor een klimaat van onzekerheid dat een negatieve invloed kan hebben op innovatie en investeringen in de sector. Bedrijven staan voor verschillende uitdagingen:
Het veranderende regelgevingslandschap vormt een aanzienlijk risico voor bedrijven. De interpretatie van sleutelbegrippen zoals 'voldoende gedetailleerd overzicht' of de classificatie van systemen met een 'hoog risico' blijft ambigu. Deze onzekerheid kan leiden tot:

Het "Brussels Effect"-debat maakt deel uit van de bredere context van Europese technologische soevereiniteit. De EU bevindt zich in de moeilijke positie dat ze een evenwicht moet vinden tussen de noodzaak om interne innovatie te bevorderen en de noodzaak om technologieën te reguleren die voornamelijk door niet-Europese actoren zijn ontwikkeld.
In 2024 trokken Europese bedrijven slechts 10 procent van de wereldwijde investeringen in AI aan, terwijl de VS en China de sector domineerden dankzij een combinatie van massale publieke en private investeringen, innovatievriendelijk beleid en toegang tot grote gegevens. Europa, met zijn fragmentatie op het gebied van taal, cultuur en regelgeving, heeft moeite om 'technologiekampioenen' te genereren die wereldwijd kunnen concurreren.
Critici beweren dat de op Europese regelgeving gerichte aanpak innovatie verder dreigt te verstikken en investeringen afschrikt, terwijl voorstanders geloven dat het creëren van een betrouwbaar regelgevend kader de ontwikkeling van ethische en veilige 'by design' AI juist kan stimuleren, waardoor een concurrentievoordeel op de lange termijn wordt gecreëerd.
Het 'Brusselse effect' van de AI-wet benadrukt een fundamenteel spanningsveld in de Europese benadering van technologie: het vermogen om wereldwijde normen vast te stellen door middel van regelgeving gaat niet gepaard met een overeenkomstig leiderschap op het gebied van technologische innovatie. Deze asymmetrie roept vragen op over de duurzaamheid van deze benadering op de lange termijn.
Als Europa doorgaat met het reguleren van technologieën die het niet ontwikkelt, loopt het het risico in een positie van toenemende technologische afhankelijkheid terecht te komen, waarbij zijn regels steeds minder relevant kunnen worden in een snel evoluerend mondiaal ecosysteem. Bovendien zouden niet-Europese bedrijven zich geleidelijk van de Europese markt kunnen terugtrekken of er beperkte versies van hun producten kunnen aanbieden, waardoor een 'digitaal fort Europa' ontstaat dat steeds meer geïsoleerd raakt van de mondiale vooruitgang.
Aan de andere kant, als de EU haar regelgevende aanpak in evenwicht kan brengen met een effectieve strategie om innovatie te bevorderen, zou ze effectief een 'derde weg' kunnen definiëren tussen Amerikaans kapitalisme en Chinese staatscontrole, waarbij mensenrechten en democratische waarden centraal staan in de technologische ontwikkeling. Vaste programma's zouden in Frankrijk zeggen.
De toekomst van AI in Europa zal niet alleen afhangen van de effectiviteit van de AI-wet bij het beschermen van de grondrechten, maar ook van het vermogen van Europa om regelgeving gepaard te laten gaan met adequate investeringen in innovatie en om het regelgevingskader te vereenvoudigen zodat het minder beklemmend wordt. Anders dreigt Europa in een paradoxale situatie terecht te komen: wereldleider op het gebied van AI-regelgeving, maar marginaal in de ontwikkeling en implementatie ervan.