Newsletter

Reguleren wat niet gemaakt wordt: riskeert Europa technologische irrelevantie?

**TITEL: European AI Act - The Paradox of Who Regulates What Doesn't Develop** **Samenvatting:** Europa trekt slechts een tiende van de wereldwijde investeringen in kunstmatige intelligentie aan, maar beweert de wereldwijde regels te dicteren. Dit is het "Brussels Effect" - het opleggen van regels op wereldschaal door middel van marktmacht zonder innovatie te stimuleren. De AI-wet wordt van kracht op een gespreid tijdschema tot 2027, maar multinationale technologiebedrijven reageren met creatieve ontwijkingsstrategieën: bedrijfsgeheimen inroepen om trainingsgegevens niet te hoeven onthullen, technisch conforme maar onbegrijpelijke samenvattingen produceren, zelfbeoordeling gebruiken om systemen te degraderen van 'hoog risico' naar 'minimaal risico', forumshoppen door te kiezen voor lidstaten met minder strenge controles. De paradox van extraterritoriaal auteursrecht: de EU eist dat OpenAI de Europese wetten naleeft, zelfs voor trainingen buiten Europa - een principe dat nog nooit eerder is voorgekomen in het internationaal recht. Het 'duale model' ontstaat: beperkte Europese versies versus geavanceerde wereldwijde versies van dezelfde AI-producten. Reëel risico: Europa wordt een 'digitaal fort', geïsoleerd van wereldwijde innovatie, met Europese burgers die toegang hebben tot inferieure technologieën. Het Hof van Justitie heeft in de kredietscoringszaak de verdediging tegen 'bedrijfsgeheimen' al verworpen, maar de interpretatieve onzekerheid blijft enorm - wat betekent 'voldoende gedetailleerde samenvatting' precies? Niemand weet het. Laatste onbeantwoorde vraag: creëert de EU een ethische derde weg tussen het Amerikaanse kapitalisme en de Chinese staatscontrole, of exporteert ze gewoon bureaucratie naar een gebied waar ze niet concurreert? Voor nu: wereldleider in AI-regulering, marginaal in de ontwikkeling ervan. Uitgebreid programma.
Fabio Lauria
Ceo & Oprichter van Electe‍

De Europese AI-wet: tussen transparantie en bedrijfsontwijkingsstrategieën

De Europese Unie heeft een historische stap gezet met de inwerkingtreding van de AI Act, 's werelds eerste alomvattende wetgeving op het gebied van kunstmatige intelligentie. Deze revolutionaire wet, die Europa een voortrekkersrol geeft op het gebied van AI-governance, stelt een op risico's gebaseerd regelgevingskader vast dat een balans moet vinden tussen innovatie en de bescherming van fundamentele rechten. De verordening is echter ook de zoveelste manifestatie van het zogenaamde "Brusselseffect" - de neiging van de EU om haar regels op wereldwijde schaal op te leggen door middel van haar marktmacht, zonder dat dit noodzakelijkerwijs technologische innovatie stimuleert.

Terwijl de VS en China de ontwikkeling van AI leiden met massale publieke en private investeringen (respectievelijk 45% en 30% van de wereldwijde investeringen in 2024), heeft Europa slechts 10% van de wereldwijde investeringen in AI aangetrokken. In reactie hierop probeert de EU haar technologische achterstand te compenseren met regelgeving, door normen op te leggen die uiteindelijk het hele wereldwijde ecosysteem beïnvloeden.

De centrale vraag is: creëert Europa een omgeving die verantwoorde innovatie bevordert of exporteert het alleen maar bureaucratie naar een industrie waar het niet kan concurreren?

De extraterritoriale dimensie van Europese regelgeving

De AI-wet is niet alleen van toepassing op Europese bedrijven, maar ook op bedrijven die actief zijn op de Europese markt of waarvan de AI-systemen gevolgen hebben voor EU-burgers. Deze extraterritoriale jurisdictie is vooral duidelijk in de bepalingen over GPAI-modellen, waar overweging 106 van de wet stelt dat leveranciers het auteursrecht van de EU moeten respecteren "ongeacht de jurisdictie waarin de opleiding van de modellen plaatsvindt".

Deze aanpak is sterk bekritiseerd door sommige waarnemers, die het zien als een poging van de EU om haar regels op te leggen aan bedrijven die niet op haar grondgebied gevestigd zijn. Volgens critici zou dit een kloof kunnen veroorzaken in het wereldwijde technologie-ecosysteem, waarbij bedrijven gedwongen zouden worden om aparte versies van hun producten te ontwikkelen voor de Europese markt of om Europese normen te hanteren voor alle markten om extra nalevingskosten te vermijden.

Multinationale technologiebedrijven bevinden zich daarom in een lastig parket: de Europese markt negeren is geen haalbare optie, maar voldoen aan de AI-wet vergt aanzienlijke investeringen en kan de ruimte voor innovatie beperken. Dit effect wordt nog versterkt door het ambitieuze tijdschema voor de implementatie en de onzekerheid over de interpretatie van veel bepalingen.

Het tijdschema voor de implementatie en het regelgevingskader

De AI-wet is op 1 augustus 2024 in werking getreden, maar de uitvoering zal worden gespreid:

  • 2 februari 2025: inwerkingtreding van het verbod op AI-systemen met onaanvaardbare risico's (zoals sociale overheidsscores) en AI-alfabetiseringsverplichtingen
  • 2 mei 2025: Uiterste datum voor het afronden van de gedragscode voor AI-modellen voor algemene doeleinden (GPAI)
  • 2 augustus 2025: Toepassing van de regels inzake AI-modellen voor algemene doeleinden, governance en rapporteringsautoriteiten
  • 2 augustus 2026: volledige toepassing van de bepalingen inzake risicovolle systemen en transparantieverplichtingen
  • 2 augustus 2027: Toepassing van normen voor systemen met een hoog risico die onder de wetgeving inzake productveiligheid vallen

De verordening gaat uit van een risicogebaseerde benadering, waarbij AI-systemen in vier categorieën worden ingedeeld: onaanvaardbaar risico (verboden), hoog risico (onderworpen aan strenge eisen), beperkt risico (met transparantieverplichtingen) en minimaal of geen risico (vrij gebruik). Deze categorisering bepaalt de specifieke verplichtingen voor ontwikkelaars, leveranciers en gebruikers.

De nieuwe transparantiebepalingen: belemmering voor innovatie?

Een van de belangrijkste vernieuwingen van de AI Act betreft de transparantieverplichtingen, die het 'zwarte doos'-karakter moeten aanpakken.zwarte doos"van AI-systemen aan te pakken. Deze verplichtingen omvatten:

  • Een vereiste voor leveranciers van GPAI-modellen om een 'voldoende gedetailleerde samenvatting' van de trainingsgegevens te publiceren, zodat houders van auteursrechten en andere belanghebbende partijen gemakkelijker toezicht kunnen houden.
  • De noodzaak voor systemen die communiceren met mensen om gebruikers te informeren dat ze communiceren met een AI-systeem
  • De verplichting om inhoud die is gegenereerd of aangepast door AI (zoals deepfakes) duidelijk te labelen
  • De implementatie van uitgebreide technische documentatie voor systemen met een hoog risico

Hoewel deze eisen bedoeld zijn om de rechten van burgers te beschermen, kunnen ze een aanzienlijke last leggen op bedrijven, vooral op innovatieve startende bedrijven en KMO's. De noodzaak om ontwikkelingsprocessen, trainingsgegevens en besluitvormingslogica in detail te documenteren kan innovatiecycli vertragen en ontwikkelingskosten verhogen, waardoor Europese bedrijven in het nadeel zijn ten opzichte van concurrenten in andere regio's met minder strenge regelgeving.

Casestudies: ontwijking in de praktijk

Kredietscores en geautomatiseerde besluitvormingsprocessen

De uitspraak in zaak C-203/22 laat zien hoe bedrijven zich aanvankelijk verzetten tegen transparantieverplichtingen. De verweerder, een aanbieder van telecommunicatiediensten, voerde aan dat het onthullen van de logica van zijn kredietscore-algoritme bedrijfsgeheimen zou onthullen, waardoor zijn concurrentievoordeel in gevaar zou komen.6 . Het HvJEU verwierp dit argument en stelde dat artikel 22 van de GDPR individuen het recht geeft op uitleg over de "criteria en logica" achter geautomatiseerde besluiten, zelfs als deze vereenvoudigd zijn.6 .

Generatieve AI en auteursrechtontduiking

Volgens het tweeledige systeem van de AI-wet vallen de meeste generatieve AI-modellen onder niveau 1, waarbij naleving van het EU-auteursrecht en samenvattingen van trainingsgegevens vereist zijn.2 . Om claims van schending van het auteursrecht te voorkomen, zijn bedrijven zoals OpenAI overgestapt op samengevatte gegevens of gelicentieerde inhoud, maar er blijven hiaten in de documentatie bestaan.

De gevolgen voor het auteursrecht: Europa legt de wet wereldwijd vast

De AI-wet bevat specifieke auteursrechtelijke bepalingen die de regelgevende invloed van de EU tot ver buiten haar grenzen uitbreiden. Leveranciers van GPAI-modellen moeten:

  • Het voorbehoud van rechten respecteren dat is vastgelegd in de richtlijn betreffende de digitale eengemaakte markt (2019/790)
  • Zorg voor een gedetailleerde samenvatting van de inhoud die gebruikt wordt voor de training, waarbij de noodzaak om handelsgeheimen te beschermen wordt afgewogen tegen de noodzaak om houders van auteursrechten in staat te stellen hun rechten af te dwingen.

Overweging 106 van de AI-wet stelt dat leveranciers het auteursrecht van de EU moeten respecteren, "ongeacht het rechtsgebied waarin de modelopleiding plaatsvindt". Deze extraterritoriale benadering roept vragen op over de verenigbaarheid met de territorialiteitsbeginselen van het auteursrecht en kan leiden tot regelgevingsconflicten met andere rechtsgebieden.

Bedrijfsstrategieën: ontduiking of naleving van het "Brussels Effect"?

Voor wereldwijde technologiebedrijven stelt de AI-wet hen voor een fundamentele strategische keuze: zich aanpassen aan het 'Brussels Effect' en wereldwijd voldoen aan de Europese normen, of een gedifferentieerde aanpak ontwikkelen voor verschillende markten? Er zijn verschillende strategieën naar voren gekomen:

Ontwijkings- en risicobeperkingsstrategieën

  1. Het handelsgeheimen schild: Veel bedrijven proberen openbaarmaking te beperken door zich te beroepen op de bescherming van handelsgeheimen van de EU Richtlijn Handelsgeheimen. Bedrijven beweren dat gedetailleerde openbaarmaking van trainingsgegevens of modelarchitecturen eigendomsinformatie zou onthullen, wat hun concurrentievermogen zou ondermijnen. Deze benadering verwart de eis van de wet voor een samenvatting van gegevens met volledige openbaarmaking.
  2. Technische complexiteit als verdediging: De inherent complexe aard van moderne AI-systemen biedt nog een andere manier om de schade te beperken. Bedrijven produceren technisch conforme maar overdreven uitgebreide of met jargon gevulde samenvattingen die formeel voldoen aan de wettelijke eisen zonder dat ze zinvol kunnen worden onderzocht. Een samenvatting van trainingsgegevens kan bijvoorbeeld brede categorieën gegevens opsommen (bijv. 'openbaar beschikbare teksten') zonder specifieke bronnen, verhoudingen of methoden te specificeren.
  3. De maas in de zelfevaluatie: De amendementen op sectie 6 van de IA Act introduceren een zelfevaluatiemechanisme dat ontwikkelaars in staat stelt hun systemen vrij te stellen van categorisering als hoog risico als ze de risico's 'verwaarloosbaar' achten. Deze maas in de wet geeft bedrijven een eenzijdige bevoegdheid om strenge nalevingsverplichtingen te omzeilen.
  4. Regulatory Forum Shopping: De AI-wet delegeert de handhaving aan nationale markttoezichtautoriteiten, wat kan leiden tot verschillen in strengheid en competentie. Sommige bedrijven vestigen hun Europese activiteiten strategisch in lidstaten met een soepelere handhavingsaanpak of minder handhavingsmiddelen.

Het "duale model" als antwoord op het Brussel-effect

Sommige grote technologiebedrijven ontwikkelen een 'duaal bedrijfsmodel':

  1. EU-compliant' versies van hun AI-producten met beperkte functionaliteit maar volledig in overeenstemming met de AI-wet
  2. Meer geavanceerde 'wereldwijde' versies beschikbaar in minder gereguleerde markten

Deze aanpak is weliswaar duur, maar maakt het mogelijk om op de Europese markt aanwezig te blijven zonder de wereldwijde innovatie in gevaar te brengen. Deze versnippering kan echter leiden tot een steeds grotere technologiekloof, waarbij Europese gebruikers toegang hebben tot minder geavanceerde technologieën dan gebruikers in andere regio's.

Onzekerheid over regelgeving als obstakel voor Europese innovatie

De Europese AI-wet vormt een keerpunt in de AI-regelgeving, maar de complexiteit en onduidelijke interpretatie ervan zorgen voor een klimaat van onzekerheid dat een negatieve invloed kan hebben op innovatie en investeringen in de sector. Bedrijven staan voor verschillende uitdagingen:

Onzekerheid over regelgeving als bedrijfsrisico

Het veranderende regelgevingslandschap vormt een aanzienlijk risico voor bedrijven. De interpretatie van sleutelbegrippen zoals 'voldoende gedetailleerd overzicht' of de classificatie van systemen met een 'hoog risico' blijft ambigu. Deze onzekerheid kan leiden tot:

  1. Onvoorspelbare nalevingskosten: bedrijven moeten aanzienlijke middelen inzetten voor naleving zonder volledige zekerheid te hebben over de uiteindelijke vereisten.
  2. Voorzichtige marktstrategieën: Onzekerheid over regelgeving kan leiden tot conservatievere investeringsbeslissingen en vertragingen in de ontwikkeling van nieuwe technologieën, vooral in Europa.
  3. Versnippering van de Europese digitale markt: de ongelijke interpretatie van de regels in de verschillende lidstaten dreigt te leiden tot een lappendeken van regels waar bedrijven moeilijk doorheen kunnen navigeren.
  4. Asymmetrische wereldwijde concurrentie: Europese bedrijven kunnen te maken krijgen met strengere beperkingen dan concurrenten uit andere regio's, wat van invloed is op hun wereldwijde concurrentievermogen.

De innovatiekloof en technologische soevereiniteit

Het "Brussels Effect"-debat maakt deel uit van de bredere context van Europese technologische soevereiniteit. De EU bevindt zich in de moeilijke positie dat ze een evenwicht moet vinden tussen de noodzaak om interne innovatie te bevorderen en de noodzaak om technologieën te reguleren die voornamelijk door niet-Europese actoren zijn ontwikkeld.

In 2024 trokken Europese bedrijven slechts 10 procent van de wereldwijde investeringen in AI aan, terwijl de VS en China de sector domineerden dankzij een combinatie van massale publieke en private investeringen, innovatievriendelijk beleid en toegang tot grote gegevens. Europa, met zijn fragmentatie op het gebied van taal, cultuur en regelgeving, heeft moeite om 'technologiekampioenen' te genereren die wereldwijd kunnen concurreren.

Critici beweren dat de op Europese regelgeving gerichte aanpak innovatie verder dreigt te verstikken en investeringen afschrikt, terwijl voorstanders geloven dat het creëren van een betrouwbaar regelgevend kader de ontwikkeling van ethische en veilige 'by design' AI juist kan stimuleren, waardoor een concurrentievoordeel op de lange termijn wordt gecreëerd.

Conclusie: regelgeving zonder innovatie?

Het 'Brusselse effect' van de AI-wet benadrukt een fundamenteel spanningsveld in de Europese benadering van technologie: het vermogen om wereldwijde normen vast te stellen door middel van regelgeving gaat niet gepaard met een overeenkomstig leiderschap op het gebied van technologische innovatie. Deze asymmetrie roept vragen op over de duurzaamheid van deze benadering op de lange termijn.

Als Europa doorgaat met het reguleren van technologieën die het niet ontwikkelt, loopt het het risico in een positie van toenemende technologische afhankelijkheid terecht te komen, waarbij zijn regels steeds minder relevant kunnen worden in een snel evoluerend mondiaal ecosysteem. Bovendien zouden niet-Europese bedrijven zich geleidelijk van de Europese markt kunnen terugtrekken of er beperkte versies van hun producten kunnen aanbieden, waardoor een 'digitaal fort Europa' ontstaat dat steeds meer geïsoleerd raakt van de mondiale vooruitgang.

Aan de andere kant, als de EU haar regelgevende aanpak in evenwicht kan brengen met een effectieve strategie om innovatie te bevorderen, zou ze effectief een 'derde weg' kunnen definiëren tussen Amerikaans kapitalisme en Chinese staatscontrole, waarbij mensenrechten en democratische waarden centraal staan in de technologische ontwikkeling. Vaste programma's zouden in Frankrijk zeggen.

De toekomst van AI in Europa zal niet alleen afhangen van de effectiviteit van de AI-wet bij het beschermen van de grondrechten, maar ook van het vermogen van Europa om regelgeving gepaard te laten gaan met adequate investeringen in innovatie en om het regelgevingskader te vereenvoudigen zodat het minder beklemmend wordt. Anders dreigt Europa in een paradoxale situatie terecht te komen: wereldleider op het gebied van AI-regelgeving, maar marginaal in de ontwikkeling en implementatie ervan.

Referenties en bronnen

  1. Europese Commissie. (2024). Verordening (EU) 2024/1689 tot vaststelling van geharmoniseerde normen inzake kunstmatige intelligentie. Publicatieblad van de Europese Unie.
  2. Europees AI-bureau. (2025, april). Voorlopige richtsnoeren inzake verplichtingen voor aanbieders van GPAI-modellen'. Europese Commissie.
  3. Hof van Justitie van de Europese Unie. (2025, februari). Arrest in zaak C-203/22, Dun & Bradstreet Oostenrijk. HVJEU.
  4. Warso, Z., & Gahntz, M. (2024, december). How the EU AI Act Can Increase Transparency Around AI Training Data'. TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). Limitations and Loopholes in the EU AI Act and AI Liability Directives'. Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Europese digitale rechten (EDRi). (2023, september). 'EU-wetgevers moeten gevaarlijke maas in AI-wet dichten'. https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Instituut voor de toekomst van het leven. (2025). Naleving van de AI-wet checker'. https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, februari). Inzicht in de AI-wet en de uitdagingen op het gebied van compliance'. Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). De EU-wet inzake kunstmatige intelligentie en auteursrecht'. Tijdschrift voor Wereldintellectueel Eigendom. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, juli). Langverwachte EU-AI Act wordt wet na publicatie in het Publicatieblad van de EU'. https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Hulpmiddelen voor bedrijfsgroei