Menselijke versus kunstmatige creativiteit: waar ligt het verschil echt (en waarom de Ghibli-stijl ons iets leert)
Het debat over kunstmatige intelligentie en auteursrecht is in 2024-2025 enorm toegenomen. Dit zijn niet langer theoretische discussies: The New York Times klaagde OpenAI aan voor schending van het auteursrecht (december 2023), Getty Images klaagde Stability AI aan en duizenden kunstenaars spanden class actions aan. AI-bedrijven zeggen dat hun systemen net als mensen 'leren', maar is dat echt zo?
Menselijke creativiteit heeft zich altijd ontwikkeld door connecties: Shakespeare werd geïnspireerd door historische kronieken en volksverhalen, Van Gogh bestudeerde Japanse prenten, de Beatles begonnen met het spelen van Amerikaanse rock. Kunstenaars herinterpreteren altijd eerdere werken. Kunstmatige intelligentie, zeggen techbedrijven, doet hetzelfde. Maar het geval van de 'Ghibli-stijl' laat zien hoe simplistisch dit verhaal is.
Typ 'Ghibli-stijl' in Midjourney of DALL-E en je krijgt beelden die opvallend veel lijken op de meesterwerken van Hayao Miyazaki: pastelkleuren, pluizige wolken, dromerige landschappen, personages met grote ogen. Het is technisch indrukwekkend. Het is ook diep problematisch.
Studio Ghibli heeft er tientallen jaren over gedaan om die kenmerkende esthetiek te ontwikkelen: precieze kleurenpaletkeuzes, traditionele animatietechnieken en een artistieke filosofie die geworteld is in de Japanse cultuur en Miyazaki's persoonlijke visie. Als een AI-model die 'stijl' in enkele seconden repliceert, is het dan echt 'leren' zoals Miyazaki leerde van Disney-animatie en Japanse manga? Of is het gewoon het hercombineren van visuele patronen die zonder toestemming uit duizenden Ghibli-frames zijn gehaald?
Het verschil is niet filosofisch - het is juridisch en economisch. Volgens een analyse van Stanford, gepubliceerd in arXiv (Carlini et al., 2023), kunnen diffusiemodellen zoals Stable Diffusion in ongeveer 3 procent van de gevallen bijna identieke afbeeldingen regenereren uit de trainingsset als er specifieke aanwijzingen worden gegeven. Dit is geen 'inspiratie', maar opslag en reproductie.
De Poolse digitale kunstenaar Greg Rutkowski ontdekte dat zijn naam verscheen in 1,2 miljoen prompts op Stable Diffusion - onbedoeld een van de meest gevraagde 'stijlen' geworden zonder ooit toestemming te hebben gegeven of compensatie te hebben ontvangen. Tegen MIT Technology Review zei hij: "Ik voel me niet gevleid. Ik voel me alsof iets wat ik jarenlang heb opgebouwd van me is gestolen.
De schaal van AI-training heeft een ongekende omvang bereikt. LAION-5B, een van de meest gebruikte datasets voor beeldmodellen, bevat 5,85 miljard beeld-tekstparen die zijn verzameld van internet, inclusief auteursrechtelijk beschermde werken. GPT-4 is getraind op enorme delen van het internet, waaronder betaalde artikelen, boeken en private softwarecode.
Lopende belangrijke rechtszaken:
AI-bedrijven verdedigen deze praktijk met een beroep op 'fair use' onder de Amerikaanse wetgeving: ze stellen dat de training 'transformatief' is en de oorspronkelijke markt niet vervangt. Maar verschillende rechtbanken betwisten deze interpretatie.
Rechter Katherine Forrest, in Getty v. Stability AI, verwierp de motie tot verwerping in januari 2024 en liet de zaak doorgaan: "De vraag of het trainen van AI-modellen fair use is, is complex en vereist een grondig onderzoek van de feiten. Vertaling: AI-bedrijven kunnen zich niet simpelweg beroepen op fair use en daarmee klaar zijn.
Geconfronteerd met juridische druk begonnen AI-bedrijven te onderhandelen over licenties. OpenAI heeft overeenkomsten gesloten met:
Google heeft soortgelijke overeenkomsten gesloten met Reddit, Stack Overflow en verschillende uitgevers. Anthropic heeft onderhandeld met uitgevers voor het gebruik van boeken.
Maar deze overeenkomsten gelden alleen voor grote uitgevers met onderhandelingsmacht. Miljoenen individuele ontwerpers-kunstenaars, fotografen, freelance schrijvers-blijven onbetaald voor werken die gebruikt worden in reeds voltooide opleidingen.
Het verhaal 'AI leert zoals mensen' is technisch gezien misleidend. Laten we eens kijken naar de fundamentele verschillen:
Schaal en snelheid: Een menselijke kunstenaar bestudeert misschien honderden of duizenden werken in zijn leven. GPT-4 is getraind op triljoenen woorden. Stable Diffusion op miljarden beelden. De schaal is onvergelijkbaar en overtreft elke redelijke definitie van 'inspiratie'.
Semantisch begrip: Toen Van Gogh Japanse prenten bestudeerde, kopieerde hij de visuele patronen niet mechanisch - hij begreep de onderliggende esthetische principes (gebruik van negatieve ruimte, asymmetrische compositie, nadruk op de natuur) en herinterpreteerde ze met zijn Europese post-impressionistische visie. Zijn werken zijn bewuste culturele syntheses.
AI-modellen 'begrijpen' niet in de menselijke betekenis. Zoals Melanie Mitchell, professor aan het Santa Fe Institute, uitlegt in haar "Artificial Intelligence: A Guide for Thinking Humans": "Diep lerende systemen blinken uit in patroonherkenning, maar missen causaal begrip, abstract redeneren of mentale modellen van de wereld. Stable Diffusion 'begrijpt' niet wat Ghibli onderscheidend maakt - het ontleent statistische correlaties tussen miljoenen pixels met het label 'Ghibli-stijl'.
Creatieve intentionaliteit: menselijke kunstenaars maken bewuste creatieve keuzes op basis van hun persoonlijke visie, de boodschap die ze willen overbrengen, de emoties die ze willen oproepen. Miyazaki verwerkt milieuthema's, pacifisme en feminisme in zijn films - bewuste morele en artistieke keuzes.
AI genereert op basis van statistische waarschijnlijkheden: "gegeven prompt X en trainingsset Y, welke pixelconfiguratie is het meest waarschijnlijk?". Er is geen intentionaliteit, geen boodschap, geen visie. Zoals Ted Chiang schreef in The New Yorker: "ChatGPT is een wazige jpeg van het web" - een verliesgevende compressie die precies die kwaliteiten verliest die de originele inhoud waardevol maken.
Transformatie vs. recombinatie: Pablo Picasso bestudeerde Afrikaanse maskers maar creëerde het kubisme - een volledig nieuwe artistieke beweging die de ruimtelijke voorstelling in de schilderkunst opnieuw uitvond. De transformatie was radicaal en origineel.
Generatieve AI-modellen werken door interpolatie in de latente ruimte: ze combineren elementen van de trainingsset tot nieuwe configuraties, maar blijven gebonden aan de statistische verdeling van de gegevens waarop ze getraind zijn. Ze kunnen geen echt nieuwe esthetiek uitvinden die in strijd is met aangeleerde statistische regelmatigheden. Zoals is aangetoond door MIT-onderzoek (Shumailov et al., 2023), degenereren modellen die herhaaldelijk zijn getraind op eerdere AI-outputs geleidelijk - een verschijnsel dat 'model collapse' wordt genoemd.
Hier is de centrale paradox: AI kan output genereren die er origineel uitziet (geen mens heeft dat specifieke Ghibli-beeld ooit eerder gezien), maar statistisch gezien afgeleid is (het zijn interpolaties van bestaande patronen). Het is een oppervlakkige vorm van originaliteit zonder fundamentele innovatie.
Dit heeft diepgaande implicaties. Zoals de filosoof John Searle betoogde in zijn beroemde 'Chinese Room argument': een cognitief proces simuleren is niet hetzelfde als het bezitten. AI kan creativiteit simuleren zonder creatief te zijn in de menselijke betekenis van het woord.
Gezien de controverse worden er verschillende oplossingen ontwikkeld:
Beschermingsmiddelen voor kunstenaars:
Opt-out registers:
Compensatiekader:
Overheidsvoorschriften:
DeEU AI Act (in werking getreden in augustus 2024) verplicht aanbieders van generatieve AI-modellen om gedetailleerde samenvattingen van de gebruikte auteursrechtelijk beschermde trainingsgegevens te publiceren. Het is de eerste regelgevende poging om transparantie op te leggen.
De Tennessee ELVIS Act (maart 2024) beschermt uitvoerders van stemmen en gelijkenissen specifiek tegen ongeoorloofd gebruik in AI-eerste Amerikaanse staten met specifieke wetgeving voor diepe stem- en visuele vervalsingen.
Voorstellen aan het Amerikaanse Congres omvatten verzoeken om expliciete opt-in voor auteursrechtelijk beschermde werken (in plaats van opt-out) en het opzetten van openbare registers van trainingsdatasets.
Twee visies op de toekomst confronteren elkaar:
Optimistische kijk (AI-bedrijven): AI is een hulpmiddel dat de menselijke creativiteit versterkt, zoals Photoshop of muzieksynthesizers. Kunstenaars zullen AI gebruiken om workflows te versnellen, variaties te verkennen en creatieve blokkades te overwinnen. Er zullen hybride kunstvormen ontstaan waarbij mensen de visie bepalen en AI technische onderdelen uitvoert.
Er bestaan al concrete voorbeelden: de film 'The Frost' (2023) gebruikte AI om achtergronden en texturen te genereren, waarbij menselijke kunstenaars de art direction bepaalden. Muzikanten gebruiken Suno en Udio om achtergrondtracks te genereren waarop ze kunnen improviseren. Schrijvers gebruiken GPT als een 'badeend' om verhaalideeën te bespreken.
Pessimistische visie (veel makers): AI zal creativiteit commoditiseren, de economische waarde van creatief werk uithollen totdat alleen elites met uitzonderlijke vaardigheden overleven. Gemiddelde creativiteit' zal worden vervangen door goedkope generatoren, waardoor de creatieve middenklasse zal verdwijnen - net zoals industriële automatisering ambachtslieden in de 19e eeuw uitroeide.
Voorlopig bewijs ondersteunt deze zorg: op freelanceplatforms zoals Fiverr daalden de aanvragen voor illustratoren en tekstschrijvers in 2023 met 21% (gegevens Fiverr Q4 2023), terwijl de aanbiedingen voor 'AI-kunstgeneratie' explodeerden. Greg Rutkowski heeft directe opdrachten met 40% zien dalen sinds zijn stijl populair werd op Stable Diffusion.
De waarheid ligt er waarschijnlijk ergens tussenin: sommige vormen van creatief werk zullen worden geautomatiseerd (generieke stockillustraties, basale copy marketing), terwijl zeer originele, conceptuele, cultureel gewortelde creativiteit het menselijke domein zal blijven.
Het onderscheid tussen menselijke en AI-inhoud zal steeds moeilijker worden. Nu al, zonder watermerken of openbaarmaking, is het vaak onmogelijk om GPT-4 tekst te onderscheiden van menselijke tekst, of Midjourney afbeeldingen van foto's. Wanneer Sora (OpenAI video generator) openbaar wordt, zal het onderscheid zich uitbreiden naar video.
Dit roept diepgaande vragen op over authenticiteit. Als een door AI gegenereerd beeld in Ghibli-stijl dezelfde emoties oproept als het origineel, heeft het dan dezelfde waarde? De filosoof Walter Benjamin stelde in zijn 'The Work of Art in the Age of its Technical Reproducibility' (1935) dat mechanische reproduceerbaarheid de 'aura' van het originele werk - de spatio-temporele uniciteit en authenticiteit - aantast.
Generatieve AI voert dit argument tot het uiterste door: het reproduceert geen bestaande werken, maar genereert eindeloze variaties die het origineel simuleren zonder het te zijn. Het is het Baudrillardiaanse simulacrum - de kopie zonder het origineel.
Toch heeft de bewuste creatieve daad iets onherleidbaar menselijks: de kunstenaar die elke penseelstreek kiest wetende wat hij wil overbrengen, de schrijver die elke zin maakt om specifieke emoties op te roepen, de componist die met intentie spanning en resolutie opbouwt. AI kan het resultaat simuleren, maar niet het proces - en misschien ligt de echte waarde van creativiteit wel in het proces.
Zoals Studio Ghibli schreef in een verklaring (november 2023): 'De ziel van onze films ligt niet in de visuele stijl die gekopieerd kan worden, maar in de creatieve beslissingen die we frame voor frame nemen om het verhaal dat we willen vertellen te dienen. Dat kan niet worden geautomatiseerd'.
De waarde van kunst komt uiteindelijk voort uit haar vermogen om een diep contact te leggen met de menselijke ervaring - om ons begrepen, uitgedaagd en getransformeerd te laten voelen. Of AI dit kan bereiken blijft een open vraag. Maar zolang kunst gemaakt wordt door mensen voor mensen, sprekend over de menselijke conditie, zal het iets behouden dat geen enkel algoritme kan repliceren: de authenticiteit van doorleefde ervaring vertaald in esthetische vorm.
Bronnen: