Newsletter

De creativiteitsparadox: kunstmatige intelligentie, auteursrecht en de toekomst van de mensheid

"Ik voel me niet gevleid. Ik heb het gevoel dat iets wat ik jarenlang heb opgebouwd van me is gestolen" - Greg Rutkowski, wiens naam voorkomt in 1,2 miljoen Stable Diffusion prompts. De 'Ghibli-stijl' onthult het echte verschil: Van Gogh begreep Japanse esthetische principes, de AI haalt statistische correlaties tussen pixels eruit. Stanford toont aan dat modellen 3 procent van de tijd bijna identieke afbeeldingen regenereren. Het is geen inspiratie - het is memorisatie. Meer dan 250.000 kunstenaars hebben Glaze en Nightshade gebruikt om zichzelf te verdedigen.

Menselijke versus kunstmatige creativiteit: waar ligt het verschil echt (en waarom de Ghibli-stijl ons iets leert)

Het debat over kunstmatige intelligentie en auteursrecht is in 2024-2025 enorm toegenomen. Dit zijn niet langer theoretische discussies: The New York Times klaagde OpenAI aan voor schending van het auteursrecht (december 2023), Getty Images klaagde Stability AI aan en duizenden kunstenaars spanden class actions aan. AI-bedrijven zeggen dat hun systemen net als mensen 'leren', maar is dat echt zo?

Menselijke creativiteit heeft zich altijd ontwikkeld door connecties: Shakespeare werd geïnspireerd door historische kronieken en volksverhalen, Van Gogh bestudeerde Japanse prenten, de Beatles begonnen met het spelen van Amerikaanse rock. Kunstenaars herinterpreteren altijd eerdere werken. Kunstmatige intelligentie, zeggen techbedrijven, doet hetzelfde. Maar het geval van de 'Ghibli-stijl' laat zien hoe simplistisch dit verhaal is.

De Ghibli-zaak: wanneer stijl controverse wordt

Typ 'Ghibli-stijl' in Midjourney of DALL-E en je krijgt beelden die opvallend veel lijken op de meesterwerken van Hayao Miyazaki: pastelkleuren, pluizige wolken, dromerige landschappen, personages met grote ogen. Het is technisch indrukwekkend. Het is ook diep problematisch.

Studio Ghibli heeft er tientallen jaren over gedaan om die kenmerkende esthetiek te ontwikkelen: precieze kleurenpaletkeuzes, traditionele animatietechnieken en een artistieke filosofie die geworteld is in de Japanse cultuur en Miyazaki's persoonlijke visie. Als een AI-model die 'stijl' in enkele seconden repliceert, is het dan echt 'leren' zoals Miyazaki leerde van Disney-animatie en Japanse manga? Of is het gewoon het hercombineren van visuele patronen die zonder toestemming uit duizenden Ghibli-frames zijn gehaald?

Het verschil is niet filosofisch - het is juridisch en economisch. Volgens een analyse van Stanford, gepubliceerd in arXiv (Carlini et al., 2023), kunnen diffusiemodellen zoals Stable Diffusion in ongeveer 3 procent van de gevallen bijna identieke afbeeldingen regenereren uit de trainingsset als er specifieke aanwijzingen worden gegeven. Dit is geen 'inspiratie', maar opslag en reproductie.

De Poolse digitale kunstenaar Greg Rutkowski ontdekte dat zijn naam verscheen in 1,2 miljoen prompts op Stable Diffusion - onbedoeld een van de meest gevraagde 'stijlen' geworden zonder ooit toestemming te hebben gegeven of compensatie te hebben ontvangen. Tegen MIT Technology Review zei hij: "Ik voel me niet gevleid. Ik voel me alsof iets wat ik jarenlang heb opgebouwd van me is gestolen.

De onderwijscontroverse: de cijfers van 2024-2025

De schaal van AI-training heeft een ongekende omvang bereikt. LAION-5B, een van de meest gebruikte datasets voor beeldmodellen, bevat 5,85 miljard beeld-tekstparen die zijn verzameld van internet, inclusief auteursrechtelijk beschermde werken. GPT-4 is getraind op enorme delen van het internet, waaronder betaalde artikelen, boeken en private softwarecode.

Lopende belangrijke rechtszaken:

  • New York Times tegen OpenAI/Microsoft (december 2023): Miljardenschadeclaim, beschuldiging van het trainen van GPT op tientallen jaren beschermde artikelen
  • Getty Images vs Stability AI (februari 2023): Beschuldigd van het gebruik van 12+ miljoen Getty-afbeeldingen zonder licentie
  • Class action kunstenaars vs Stability AI/Midjourney/DeviantArt (januari 2023): Duizenden kunstenaars klagen aan voor systematische schending auteursrecht
  • Universal Music tegen Suno en Udio (juni 2024): Platformen voor het genereren van muziek beschuldigd van het trainen op beschermde catalogi

AI-bedrijven verdedigen deze praktijk met een beroep op 'fair use' onder de Amerikaanse wetgeving: ze stellen dat de training 'transformatief' is en de oorspronkelijke markt niet vervangt. Maar verschillende rechtbanken betwisten deze interpretatie.

Rechter Katherine Forrest, in Getty v. Stability AI, verwierp de motie tot verwerping in januari 2024 en liet de zaak doorgaan: "De vraag of het trainen van AI-modellen fair use is, is complex en vereist een grondig onderzoek van de feiten. Vertaling: AI-bedrijven kunnen zich niet simpelweg beroepen op fair use en daarmee klaar zijn.

Handelsovereenkomsten: de marktoplossing komt op

Geconfronteerd met juridische druk begonnen AI-bedrijven te onderhandelen over licenties. OpenAI heeft overeenkomsten gesloten met:

  • Associated Press (juli 2023): Toegang tot nieuwsarchief in ruil voor licentie
  • Axel Springer (december 2023): Overeenkomst voor het gebruik van inhoud van Politico, Business Insider
  • Financial Times (april 2024): Inhoud licentie voor opleiding
  • News Corp (mei 2024): $250 miljoen deal voor 5 jaar, toegang tot Wall Street Journal, Barron's, New York Post

Google heeft soortgelijke overeenkomsten gesloten met Reddit, Stack Overflow en verschillende uitgevers. Anthropic heeft onderhandeld met uitgevers voor het gebruik van boeken.

Maar deze overeenkomsten gelden alleen voor grote uitgevers met onderhandelingsmacht. Miljoenen individuele ontwerpers-kunstenaars, fotografen, freelance schrijvers-blijven onbetaald voor werken die gebruikt worden in reeds voltooide opleidingen.

Menselijk versus machinaal leren: het echte verschil (Beyond Statistics)

Het verhaal 'AI leert zoals mensen' is technisch gezien misleidend. Laten we eens kijken naar de fundamentele verschillen:

Schaal en snelheid: Een menselijke kunstenaar bestudeert misschien honderden of duizenden werken in zijn leven. GPT-4 is getraind op triljoenen woorden. Stable Diffusion op miljarden beelden. De schaal is onvergelijkbaar en overtreft elke redelijke definitie van 'inspiratie'.

Semantisch begrip: Toen Van Gogh Japanse prenten bestudeerde, kopieerde hij de visuele patronen niet mechanisch - hij begreep de onderliggende esthetische principes (gebruik van negatieve ruimte, asymmetrische compositie, nadruk op de natuur) en herinterpreteerde ze met zijn Europese post-impressionistische visie. Zijn werken zijn bewuste culturele syntheses.

AI-modellen 'begrijpen' niet in de menselijke betekenis. Zoals Melanie Mitchell, professor aan het Santa Fe Institute, uitlegt in haar "Artificial Intelligence: A Guide for Thinking Humans": "Diep lerende systemen blinken uit in patroonherkenning, maar missen causaal begrip, abstract redeneren of mentale modellen van de wereld. Stable Diffusion 'begrijpt' niet wat Ghibli onderscheidend maakt - het ontleent statistische correlaties tussen miljoenen pixels met het label 'Ghibli-stijl'.

Creatieve intentionaliteit: menselijke kunstenaars maken bewuste creatieve keuzes op basis van hun persoonlijke visie, de boodschap die ze willen overbrengen, de emoties die ze willen oproepen. Miyazaki verwerkt milieuthema's, pacifisme en feminisme in zijn films - bewuste morele en artistieke keuzes.

AI genereert op basis van statistische waarschijnlijkheden: "gegeven prompt X en trainingsset Y, welke pixelconfiguratie is het meest waarschijnlijk?". Er is geen intentionaliteit, geen boodschap, geen visie. Zoals Ted Chiang schreef in The New Yorker: "ChatGPT is een wazige jpeg van het web" - een verliesgevende compressie die precies die kwaliteiten verliest die de originele inhoud waardevol maken.

Transformatie vs. recombinatie: Pablo Picasso bestudeerde Afrikaanse maskers maar creëerde het kubisme - een volledig nieuwe artistieke beweging die de ruimtelijke voorstelling in de schilderkunst opnieuw uitvond. De transformatie was radicaal en origineel.

Generatieve AI-modellen werken door interpolatie in de latente ruimte: ze combineren elementen van de trainingsset tot nieuwe configuraties, maar blijven gebonden aan de statistische verdeling van de gegevens waarop ze getraind zijn. Ze kunnen geen echt nieuwe esthetiek uitvinden die in strijd is met aangeleerde statistische regelmatigheden. Zoals is aangetoond door MIT-onderzoek (Shumailov et al., 2023), degenereren modellen die herhaaldelijk zijn getraind op eerdere AI-outputs geleidelijk - een verschijnsel dat 'model collapse' wordt genoemd.

De paradox van AI 'originaliteit

Hier is de centrale paradox: AI kan output genereren die er origineel uitziet (geen mens heeft dat specifieke Ghibli-beeld ooit eerder gezien), maar statistisch gezien afgeleid is (het zijn interpolaties van bestaande patronen). Het is een oppervlakkige vorm van originaliteit zonder fundamentele innovatie.

Dit heeft diepgaande implicaties. Zoals de filosoof John Searle betoogde in zijn beroemde 'Chinese Room argument': een cognitief proces simuleren is niet hetzelfde als het bezitten. AI kan creativiteit simuleren zonder creatief te zijn in de menselijke betekenis van het woord.

Opkomende technische en regelgevende oplossingen

Gezien de controverse worden er verschillende oplossingen ontwikkeld:

Beschermingsmiddelen voor kunstenaars:

  • Glaze (Universiteit van Chicago): software die onmerkbare verstoringen aanbrengt in afbeeldingen, waardoor AI-modellen die de stijl proberen te leren, worden 'misleid'.
  • Nightshade (zelfde team): offensieve versie die trainingsgegevens 'vergiftigt' en modellen corrumpeert die deze zonder toestemming gebruiken
  • Meer dan 250.000 kunstenaars gebruikten deze tools in het eerste jaar

Opt-out registers:

  • Have I Been Trained (Spawning AI): Database waarin kunstenaars kunnen controleren of hun werken in LAION en andere datasets staan, met opt-out-mechanisme
  • Sommige nieuwere modellen respecteren deze opt-outs (Stability AI heeft een gedeeltelijke naleving aangekondigd)

Compensatiekader:

  • Spawning AI-licentie: Micro-licentiesysteem om kunstenaars te compenseren wanneer werken worden gebruikt in training
  • Nog in experimentele fase, niet op grote schaal toegepast

Overheidsvoorschriften:

DeEU AI Act (in werking getreden in augustus 2024) verplicht aanbieders van generatieve AI-modellen om gedetailleerde samenvattingen van de gebruikte auteursrechtelijk beschermde trainingsgegevens te publiceren. Het is de eerste regelgevende poging om transparantie op te leggen.

De Tennessee ELVIS Act (maart 2024) beschermt uitvoerders van stemmen en gelijkenissen specifiek tegen ongeoorloofd gebruik in AI-eerste Amerikaanse staten met specifieke wetgeving voor diepe stem- en visuele vervalsingen.

Voorstellen aan het Amerikaanse Congres omvatten verzoeken om expliciete opt-in voor auteursrechtelijk beschermde werken (in plaats van opt-out) en het opzetten van openbare registers van trainingsdatasets.

De toekomst van creativiteit: Hybriditeit of vervanging?

Twee visies op de toekomst confronteren elkaar:

Optimistische kijk (AI-bedrijven): AI is een hulpmiddel dat de menselijke creativiteit versterkt, zoals Photoshop of muzieksynthesizers. Kunstenaars zullen AI gebruiken om workflows te versnellen, variaties te verkennen en creatieve blokkades te overwinnen. Er zullen hybride kunstvormen ontstaan waarbij mensen de visie bepalen en AI technische onderdelen uitvoert.

Er bestaan al concrete voorbeelden: de film 'The Frost' (2023) gebruikte AI om achtergronden en texturen te genereren, waarbij menselijke kunstenaars de art direction bepaalden. Muzikanten gebruiken Suno en Udio om achtergrondtracks te genereren waarop ze kunnen improviseren. Schrijvers gebruiken GPT als een 'badeend' om verhaalideeën te bespreken.

Pessimistische visie (veel makers): AI zal creativiteit commoditiseren, de economische waarde van creatief werk uithollen totdat alleen elites met uitzonderlijke vaardigheden overleven. Gemiddelde creativiteit' zal worden vervangen door goedkope generatoren, waardoor de creatieve middenklasse zal verdwijnen - net zoals industriële automatisering ambachtslieden in de 19e eeuw uitroeide.

Voorlopig bewijs ondersteunt deze zorg: op freelanceplatforms zoals Fiverr daalden de aanvragen voor illustratoren en tekstschrijvers in 2023 met 21% (gegevens Fiverr Q4 2023), terwijl de aanbiedingen voor 'AI-kunstgeneratie' explodeerden. Greg Rutkowski heeft directe opdrachten met 40% zien dalen sinds zijn stijl populair werd op Stable Diffusion.

De waarheid ligt er waarschijnlijk ergens tussenin: sommige vormen van creatief werk zullen worden geautomatiseerd (generieke stockillustraties, basale copy marketing), terwijl zeer originele, conceptuele, cultureel gewortelde creativiteit het menselijke domein zal blijven.

Slotbeschouwingen: Authenticiteit in het tijdperk van perfecte imitatie

Het onderscheid tussen menselijke en AI-inhoud zal steeds moeilijker worden. Nu al, zonder watermerken of openbaarmaking, is het vaak onmogelijk om GPT-4 tekst te onderscheiden van menselijke tekst, of Midjourney afbeeldingen van foto's. Wanneer Sora (OpenAI video generator) openbaar wordt, zal het onderscheid zich uitbreiden naar video.

Dit roept diepgaande vragen op over authenticiteit. Als een door AI gegenereerd beeld in Ghibli-stijl dezelfde emoties oproept als het origineel, heeft het dan dezelfde waarde? De filosoof Walter Benjamin stelde in zijn 'The Work of Art in the Age of its Technical Reproducibility' (1935) dat mechanische reproduceerbaarheid de 'aura' van het originele werk - de spatio-temporele uniciteit en authenticiteit - aantast.

Generatieve AI voert dit argument tot het uiterste door: het reproduceert geen bestaande werken, maar genereert eindeloze variaties die het origineel simuleren zonder het te zijn. Het is het Baudrillardiaanse simulacrum - de kopie zonder het origineel.

Toch heeft de bewuste creatieve daad iets onherleidbaar menselijks: de kunstenaar die elke penseelstreek kiest wetende wat hij wil overbrengen, de schrijver die elke zin maakt om specifieke emoties op te roepen, de componist die met intentie spanning en resolutie opbouwt. AI kan het resultaat simuleren, maar niet het proces - en misschien ligt de echte waarde van creativiteit wel in het proces.

Zoals Studio Ghibli schreef in een verklaring (november 2023): 'De ziel van onze films ligt niet in de visuele stijl die gekopieerd kan worden, maar in de creatieve beslissingen die we frame voor frame nemen om het verhaal dat we willen vertellen te dienen. Dat kan niet worden geautomatiseerd'.

De waarde van kunst komt uiteindelijk voort uit haar vermogen om een diep contact te leggen met de menselijke ervaring - om ons begrepen, uitgedaagd en getransformeerd te laten voelen. Of AI dit kan bereiken blijft een open vraag. Maar zolang kunst gemaakt wordt door mensen voor mensen, sprekend over de menselijke conditie, zal het iets behouden dat geen enkel algoritme kan repliceren: de authenticiteit van doorleefde ervaring vertaald in esthetische vorm.

Bronnen:

  • Carlini, Nicholas et al. - "Het extraheren van trainingsgegevens uit diffusiemodellen", arXiv:2301.13188 (2023)
  • Mitchell, Melanie - 'Kunstmatige intelligentie: een gids voor denkende mensen' (2019)
  • Chiang, Ted - 'ChatGPT is een wazige JPEG van het web', The New Yorker (februari 2023)
  • Shumailov, Ilia et al. - 'De vloek van recursie: trainen op gegenereerde data doet modellen vergeten', arXiv:2305.17493 (2023).
  • MIT Technology Review - "Deze kunstenaar domineert AI-gegenereerde kunst. En hij is er niet blij mee" (september 2022)
  • EU AI-wet - Verordening (EU) 2024/1689
  • Benjamin, Walter - 'Het kunstwerk in het tijdperk van zijn technische reproduceerbaarheid' (1935)
  • Rechtszaken over openbare bestanden: NYT vs OpenAI, Getty vs Stability AI
  • Fiverr Winstbericht Q4 2023

Hulpmiddelen voor bedrijfsgroei

9 november 2025

AI-regelgeving voor consumententoepassingen: hoe u zich kunt voorbereiden op de nieuwe regelgeving voor 2025

2025 markeert het einde van het 'Wilde Westen'-tijdperk van AI: AI Act EU operationeel vanaf augustus 2024 met AI-geletterdheidsverplichtingen vanaf 2 februari 2025, governance en GPAI vanaf 2 augustus. Californië loopt voorop met SB 243 (ontstaan na zelfmoord van Sewell Setzer, 14-jarige ontwikkelde emotionele relatie met chatbot) met een verbod op dwangmatige beloningssystemen, detectie van zelfmoordgedachten, elke 3 uur een herinnering 'ik ben geen mens', onafhankelijke openbare audits, boetes van 1000 dollar per overtreding. SB 420 vereist effectbeoordelingen voor 'geautomatiseerde beslissingen met een hoog risico' met het recht om in beroep te gaan tegen menselijke beoordeling. Echte handhaving: Noom haalde 2022 aan voor bots die zich voordeden als menselijke coaches, schikking $ 56 miljoen. Nationale trend: Alabama, Hawaii, Illinois, Maine, Massachusetts classificeren het niet aanmelden van AI-chatbots als schending van de UDAP. Drietrapsbenadering van risicokritieke systemen (gezondheidszorg/transport/energie): certificering vóór ingebruikname, transparante informatieverstrekking aan de consument, registratie voor algemene doeleinden en veiligheidstests. Lappendeken van regelgeving zonder federale pre-emption: bedrijven in meerdere staten moeten navigeren door verschillende vereisten. EU vanaf augustus 2026: gebruikers informeren over AI-interactie tenzij duidelijk, AI-gegenereerde inhoud gelabeld als machineleesbaar.
9 november 2025

Reguleren wat niet gemaakt wordt: riskeert Europa technologische irrelevantie?

Europa trekt slechts een tiende van de wereldwijde investeringen in kunstmatige intelligentie aan, maar beweert wel de wereldwijde regels te dicteren. Dit is het 'Brussels Effect' - regels opleggen op wereldschaal door middel van marktmacht zonder innovatie aan te jagen. De AI-wet wordt van kracht op een gespreid tijdschema tot 2027, maar multinationale technologiebedrijven reageren met creatieve ontwijkingsstrategieën: bedrijfsgeheimen inroepen om trainingsgegevens niet te hoeven onthullen, technisch conforme maar onbegrijpelijke samenvattingen produceren, zelfbeoordeling gebruiken om systemen te degraderen van 'hoog risico' naar 'minimaal risico', forumshoppen door te kiezen voor lidstaten met minder strenge controles. De paradox van extraterritoriaal auteursrecht: de EU eist dat OpenAI de Europese wetten naleeft, zelfs voor trainingen buiten Europa - een principe dat nog nooit eerder is voorgekomen in het internationaal recht. Het 'duale model' ontstaat: beperkte Europese versies versus geavanceerde wereldwijde versies van dezelfde AI-producten. Reëel risico: Europa wordt een 'digitaal fort', geïsoleerd van wereldwijde innovatie, met Europese burgers die toegang hebben tot inferieure technologieën. Het Hof van Justitie heeft in de kredietscoringszaak de verdediging tegen 'bedrijfsgeheimen' al verworpen, maar de interpretatieve onzekerheid blijft enorm - wat betekent 'voldoende gedetailleerde samenvatting' precies? Niemand weet het. Laatste onbeantwoorde vraag: creëert de EU een ethische derde weg tussen het Amerikaanse kapitalisme en de Chinese staatscontrole, of exporteert ze gewoon bureaucratie naar een gebied waar ze niet concurreert? Voor nu: wereldleider in AI-regulering, marginaal in de ontwikkeling ervan. Uitgebreid programma.
9 november 2025

Outliers: waar gegevenswetenschap en succesverhalen elkaar ontmoeten

Datawetenschap heeft het paradigma op zijn kop gezet: uitbijters zijn niet langer 'fouten die geëlimineerd moeten worden', maar waardevolle informatie die begrepen moet worden. Een enkele uitschieter kan een lineair regressiemodel volledig verstoren - de helling veranderen van 2 naar 10 - maar als je die uitschieter elimineert, kan dat betekenen dat je het belangrijkste signaal in de dataset kwijtraakt. Machine learning introduceert geavanceerde hulpmiddelen: Isolation Forest isoleert uitschieters door willekeurige beslisbomen te bouwen, Local Outlier Factor analyseert de lokale dichtheid, Autoencoders reconstrueren normale gegevens en rapporteren wat ze niet kunnen reproduceren. Er zijn globale uitschieters (temperatuur -10°C in de tropen), contextuele uitschieters (€1.000 uitgeven in een arme buurt), collectieve uitschieters (gesynchroniseerde pieken in het netwerkverkeer die wijzen op een aanval). Parallel met Gladwell: de '10.000 uur-regel' wordt betwist-Paul McCartney dixit 'veel bands hebben 10.000 uur in Hamburg gedaan zonder succes, theorie niet onfeilbaar'. Aziatisch wiskundig succes is niet genetisch maar cultureel: Chinees numeriek systeem intuïtiever, rijstteelt vereist constante verbetering vs. Westerse landbouw territoriale expansie. Echte toepassingen: Britse banken kunnen 18% potentiële verliezen terugwinnen via real-time detectie van anomalieën, productieprocessen detecteren microscopische defecten die menselijke inspecties zouden missen, gezondheidszorg valideert klinische onderzoeksgegevens met meer dan 85% gevoeligheid voor detectie van anomalieën. Laatste les: naarmate datawetenschap verschuift van het elimineren van uitschieters naar het begrijpen ervan, moeten we onconventionele carrières niet zien als anomalieën die moeten worden gecorrigeerd, maar als waardevolle trajecten die moeten worden bestudeerd.