ChatGPT luistert naar je (en kan je aangeven)

De OpenAI-zaak herdefinieert de grens tussen openbare veiligheid en digitale privacy: de uitdaging om de samenleving te beschermen zonder het vertrouwen van de gebruikers te schenden. Tussen technologische beloften en grijze zones in de regelgeving blijft het vertrouwen in AI een gok. Digitale fluisteringen in een wereld die altijd luistert.

De grote verandering: OpenAI geeft toe dat het meldingen doet bij de autoriteiten

In september 2025 deed OpenAI een onthulling die de wereldwijde techgemeenschap opschudde: ChatGPT houdt actief toezicht op de gesprekken van gebruikers en meldt mogelijk criminele inhoud aan de politie.

Het nieuws, dat bijna toevallig naar voren kwam in een blogpost van het bedrijf, onthulde dat wanneer automatische systemen gebruikers detecteren die "van plan zijn anderen schade te berokkenen", de gesprekken worden doorgestuurd naar gespecialiseerde pijplijnen waar een klein team dat is getraind in het gebruiksbeleid ze onderzoekt. Als de menselijke beoordelaars vaststellen dat er een "onmiddellijke dreiging van ernstig lichamelijk letsel aan anderen" bestaat, kan de zaak worden doorverwezen naar de wetshandhavingsinstanties¹.

ChatGPT nodigt je van harte uit om je diepste gedachten te delen. Maak je geen zorgen, alles blijft vertrouwelijk... min of meer.

Bronnen:

Het contrast met de "beschermde" beroepen

Het beroepsgeheim

Wanneer we met een psycholoog, advocaat, arts of priester praten, worden onze woorden beschermd door een gevestigde wettelijke regeling: het beroepsgeheim. Dit principe, dat geworteld is in eeuwenoude juridische tradities, bepaalt dat bepaalde gesprekken onschendbaar zijn, zelfs in het kader van strafrechtelijke onderzoeken.

Kenmerken van het traditionele beroepsgeheim:

  • Zeer uitgebreide bescherming: communicatie blijft vertrouwelijk, zelfs bij bekende misdrijven
  • Beperkte en specifieke uitzonderingen: Alleen in extreme gevallen die bij wet zijn vastgelegd, mogen/moeten sommige beroepsbeoefenaars hun zwijgplicht doorbreken.
  • Gekwalificeerde menselijke controle: De beslissing om de vertrouwelijkheid te schenden blijft altijd in handen van een opgeleide professional.
  • Ethische verantwoordelijkheid: Professionals zijn gebonden aan gedragscodes die een evenwicht zoeken tussen hun plichten jegens de klant en de samenleving.

De werkelijke grenzen van het beroepsgeheim

In tegenstelling tot wat vaak wordt gedacht, is het beroepsgeheim niet absoluut. Er zijn duidelijk omschreven uitzonderingen die per beroepsgroep verschillen:

Voor advocaten (art. 28 Gedragscode voor advocaten): Openbaarmaking is toegestaan wanneer dit noodzakelijk is voor:

  • De uitvoering van de verdedigingsactiviteit
  • Het voorkomen van het plegen van een bijzonder ernstig misdrijf
  • Zich verdedigen in een geschil tegen uw eigen klant
  • Tuchtprocedures

Kritisch voorbeeld: Als een cliënt aan zijn advocaat verklaart dat hij van plan is een moord te plegen, moet het belang van het leven prevaleren boven het recht op verdediging en is de advocaat niet langer gebonden aan het beroepsgeheim².

Voor psychologen (art. 13 Gedragscode): Het beroepsgeheim kan worden geschonden wanneer:

  • Er bestaat een verplichting tot aangifte of melding voor strafbare feiten die ambtshalve vervolgbaar zijn.
  • Er dreigen ernstige gevaren voor het leven of de psychische en fysieke gezondheid van de betrokkene en/of derden.
  • Er is sprake van een geldige en aantoonbare toestemming van de patiënt.

Belangrijk onderscheid: De particuliere psycholoog heeft meer discretionaire bevoegdheid dan de openbare psycholoog, die als ambtenaar strengere meldingsplichten heeft³.

Bronnen:

AI als 'niet-professional'

ChatGPT opereert in een heel andere grijze zone:

Gebrek aan juridisch privilege: Gesprekken met AI genieten geen enkele juridische bescherming. Zoals Sam Altman, CEO van OpenAI, toegaf: "Als je met een therapeut, advocaat of arts over die problemen praat, geldt daarvoor juridisch privilege. Er is vertrouwelijkheid tussen arts en patiënt, er is juridische vertrouwelijkheid, wat dan ook. En we hebben dit nog niet opgelost voor wanneer je met ChatGPT praat"².

Geautomatiseerd proces: In tegenstelling tot een menselijke professional die elk geval afzonderlijk beoordeelt, maakt ChatGPT gebruik van algoritmen om 'problematische' inhoud te identificeren, waardoor gekwalificeerd menselijk oordeel uit de eerste screeningfase wordt verwijderd.

Bronnen:

De praktische implicaties: een nieuw paradigma voor bewaking

Het paradox van technologisch vertrouwen

Deze situatie leidt tot een zorgwekkend paradox. Miljoenen mensen gebruiken ChatGPT als digitale vertrouweling en delen intieme gedachten, twijfels, angsten en zelfs criminele fantasieën die ze nooit met een mens zouden delen. Zoals Sam Altman zegt: "Mensen praten met ChatGPT over de meest persoonlijke dingen in hun leven. Mensen gebruiken het – vooral jongeren – als therapeut, levenscoach"⁴.

Het risico van criminele zelfcensuur: Het besef dat gesprekken kunnen worden afgeluisterd, kan paradoxaal genoeg leiden tot:

  • Criminelen naar meer verborgen kanalen duwen
  • Voorkomen dat mensen met gewelddadige gedachten hulp zoeken
  • Een 'afkoelend' effect creëren voor digitale communicatie

Competentie versus algoritmen: wie bepaalt wat crimineel is?

Een cruciaal aspect dat door critici wordt benadrukt, betreft de competentie van degenen die de uiteindelijke beslissingen nemen.

Professionele mensen hebben:

  • Jarenlange training om onderscheid te maken tussen fantasieën en echte intenties
  • Ethische codes die bepalen wanneer het beroepsgeheim mag worden doorbroken
  • Persoonlijke wettelijke aansprakelijkheid voor hun beslissingen
  • Vermogen om de context en geloofwaardigheid te beoordelen

Het ChatGPT-systeem werkt met:

  • Geautomatiseerde algoritmen voor initiële detectie
  • OpenAI-personeel dat niet noodzakelijkerwijs een klinische of criminologische opleiding heeft genoten
  • Niet-openbare en mogelijk willekeurige beoordelingscriteria
  • Afwezigheid van externe controlemechanismen

Probleemvoorbeeld: Hoe onderscheidt een algoritme tussen:

  • Iemand die een thriller schrijft en inspiratie zoekt voor gewelddadige scènes
  • Iemand die fantaseert zonder van plan te zijn om te handelen
  • Een persoon die daadwerkelijk een misdaad plant

Bronnen:

Bronnen:

De tegenstrijdigheid van OpenAI: privacy versus veiligheid

De dubbele standaard

De bekentenis van OpenAI staat in schril contrast met zijn eerdere standpunten. Het bedrijf heeft zich in rechtszaken krachtig verzet tegen verzoeken om gebruikersgegevens, daarbij verwijzend naar de bescherming van de privacy. In de zaak tegen de New York Times heeft OpenAI zich krachtig verzet tegen de openbaarmaking van chatlogs om de privacy van gebruikers te beschermen⁴.

De ironie van de situatie: OpenAI verdedigt de privacy van gebruikers in de rechtbank, terwijl het tegelijkertijd toegeeft gegevens te monitoren en te delen met externe autoriteiten.

De impact van de New York Times-zaak

De situatie werd nog ingewikkelder door het gerechtelijk bevel dat OpenAI verplicht om alle ChatGPT-logs voor onbepaalde tijd te bewaren, inclusief privé-chats en API-gegevens. Dit betekent dat gesprekken die gebruikers als tijdelijk beschouwden, nu permanent worden opgeslagen⁵.

Bronnen:

Mogelijke oplossingen en alternatieven

Op weg naar een 'AI-voorrecht'?

Zoals Sam Altman suggereert, zou het nodig kunnen zijn om een concept van "AI-voorrecht" te ontwikkelen – een wettelijke bescherming die vergelijkbaar is met die voor traditionele beroepsbeoefenaars. Dit roept echter complexe vragen op:

Mogelijke regelgevingsopties:

  1. Licentiemodel: Alleen gecertificeerde IA's kunnen "conversatievoorrecht" bieden
  2. Verplichte opleiding: Wie gevoelige inhoud beheert, moet over specifieke kwalificaties beschikken.
  3. Professionele supervisie: Betrokkenheid van gekwalificeerde psychologen/advocaten bij beslissingen over meldingen
  4. Algoritmische transparantie: publicatie van de criteria die worden gebruikt om "gevaarlijke" inhoud te identificeren

Technische tussenoplossingen

IA "Gecompartimenteerd":

  • Afzonderlijke systemen voor therapeutisch gebruik versus algemeen gebruik
  • End-to-end-versleuteling voor gevoelige gesprekken
  • Uitdrukkelijke toestemming voor elke vorm van monitoring

"Drievoudige" aanpak:

  • Automatische detectie alleen voor directe en verifieerbare bedreigingen
  • Verplichte beoordeling door gekwalificeerd personeel
  • Beroepsprocedure voor betwiste beslissingen

Het precedent van digitale professionals

Lessen uit andere sectoren:

  • Telegeneeskunde: Heeft protocollen voor digitale privacy ontwikkeld
  • Online juridisch advies: gebruik encryptie en identiteitscontroles
  • Digitale therapie: gespecialiseerde apps met specifieke beveiligingen

Bronnen:

Wat betekent dit voor bedrijven AI

Lessen voor de sector

De OpenAI-zaak schept belangrijke precedenten voor de hele sector van kunstmatige intelligentie:

  1. Verplichte transparantie: AI-bedrijven moeten duidelijker zijn over hun monitoringpraktijken
  2. Noodzaak van ethische kaders: Er is duidelijke regelgeving nodig over wanneer en hoe AI zich mag mengen in privécommunicatie.
  3. Gespecialiseerde opleiding: Wie beslissingen neemt over gevoelige inhoud, moet over de juiste vaardigheden beschikken.
  4. Wettelijke aansprakelijkheid: bepalen wie verantwoordelijk is wanneer een AI-systeem een verkeerde beoordeling maakt

Operationele aanbevelingen

Voor bedrijven die conversationele AI ontwikkelen:

  • Multidisciplinaire teams samenstellen (juristen, psychologen, criminologen)
  • Ontwikkeling van openbare en controleerbare criteria voor meldingen
  • Appelprocedures voor gebruikers creëren
  • Investeren in gespecialiseerde opleidingen voor revisiepersoneel

Voor bedrijven die AI gebruiken:

  • Beoordeel de privacyrisico's vóór de implementatie
  • Gebruikers duidelijk informeren over de grenzen van de vertrouwelijkheid
  • Overweeg gespecialiseerde alternatieven voor gevoelige toepassingen

De toekomst van digitale vertrouwelijkheid

Het centrale dilemma: hoe kan een evenwicht worden gevonden tussen het voorkomen van echte misdrijven en het recht op privacy en digitale vertrouwelijkheid?

Het gaat hier niet alleen om een technische kwestie, maar ook om fundamentele principes:

  • Vermoeden van onschuld: het monitoren van privégesprekken impliceert algemene verdenking
  • Recht op privacy: omvat het recht om privé-gedachten te hebben, ook als die verontrustend zijn.
  • Preventieve effectiviteit: Het is niet bewezen dat digitale bewaking daadwerkelijk misdrijven voorkomt.

Conclusies: het juiste evenwicht vinden

De onthulling van OpenAI markeert een keerpunt in de ontwikkeling van kunstmatige intelligentie, maar het gaat er niet om of de melding absoluut juist of onjuist is: het gaat erom hoe we deze effectief, eerlijk en met respect voor rechten kunnen maken.

De noodzaak is reëel: concrete dreigingen van geweld, plannen voor aanslagen of andere ernstige misdrijven vereisen ingrijpen. De vraag is niet of er melding moet worden gemaakt, maar hoe dit op verantwoorde wijze kan gebeuren.

De belangrijkste verschillen die moeten worden opgelost:

Opleiding en competentie:

  • Menselijke professionals hebben vaste protocollen om onderscheid te maken tussen reële bedreigingen en fantasieën.
  • AI-systemen hebben gelijkwaardige normen en gekwalificeerd toezicht nodig
  • Er is gespecialiseerde opleiding nodig voor degenen die de uiteindelijke beslissingen nemen.

Transparantie en controle:

  • De professionals werken onder toezicht van de beroepsorganisaties.
  • OpenAI heeft behoefte aan openbare criteria en externe controlemechanismen
  • Gebruikers moeten precies weten wanneer en waarom ze kunnen worden gemeld.

Evenredigheid:

  • Professionals wegen per geval de geheimhoudingsplicht af tegen de veiligheid.
  • AI-systemen moeten soortgelijke mechanismen ontwikkelen, geen binaire algoritmen.

Voor bedrijven in deze sector is het een uitdaging om systemen te ontwikkelen die de samenleving effectief beschermen zonder dat ze instrumenten voor willekeurige surveillance worden. Het vertrouwen van gebruikers is essentieel, maar moet samengaan met maatschappelijke verantwoordelijkheid.

Voor gebruikers is de les tweeledig:

  1. Gesprekken met AI hebben niet dezelfde bescherming als traditionele professionals
  2. Dit hoeft niet per se negatief te zijn als het op een transparante en evenredige manier gebeurt, maar het is belangrijk om je hiervan bewust te zijn.

De toekomst van conversationele AI vereist een nieuw raamwerk dat:

  • Erken de legitimiteit van misdaadpreventie
  • Stel professionele normen vast voor wie gevoelige inhoud beheert.
  • Zorg voor transparantie in de besluitvormingsprocessen
  • Bescherm individuele rechten zonder de veiligheid te negeren

De juiste vraag is niet of machines misdaden moeten melden, maar hoe we ervoor kunnen zorgen dat ze dat (minstens) met dezelfde wijsheid, opleiding en verantwoordelijkheid doen als menselijke professionals.

Het doel is niet om terug te keren naar een AI die "blind" is voor de werkelijke gevaren, maar om systemen te bouwen die technologische efficiëntie combineren met ethiek en menselijke competentie. Alleen zo kunnen we het beste van twee werelden hebben: veiligheid en beschermde individuele rechten.

Referenties en bronnen

  1. Futurisme - "OpenAI zegt dat het de ChatGPT-gesprekken van gebruikers scant en inhoud aan de politie rapporteert"
  2. Advocatenkantoor Puce - "Beroepsgeheim van de advocaat"
  3. De wet voor iedereen - "Moet een psycholoog die op de hoogte is van een misdrijf zijn patiënt aangeven?"
  4. TechCrunch - "Sam Altman waarschuwt dat er geen wettelijke vertrouwelijkheid bestaat bij het gebruik van ChatGPT als therapeut"
  5. Shinkai Blog - "OpenAI's ChatGPT-gesprekken gescand, gemeld bij de politie, wat leidt tot verontwaardiging bij gebruikers en bezorgdheid over privacy"
  6. Simon Willison - "OpenAI verwerpt gerechtelijk bevel om alle ChatGPT-logs te bewaren, inclusief verwijderde chats"
  7. Success Knocks - "OpenAI-rechtszaak 2025: beroep tegen NYT over ChatGPT-gegevens"