In september 2025 deed OpenAI een onthulling die de wereldwijde techgemeenschap opschudde: ChatGPT houdt actief toezicht op de gesprekken van gebruikers en meldt mogelijk criminele inhoud aan de politie.
Het nieuws, dat bijna toevallig naar voren kwam in een blogpost van het bedrijf, onthulde dat wanneer automatische systemen gebruikers detecteren die "van plan zijn anderen schade te berokkenen", de gesprekken worden doorgestuurd naar gespecialiseerde pijplijnen waar een klein team dat is getraind in het gebruiksbeleid ze onderzoekt. Als de menselijke beoordelaars vaststellen dat er een "onmiddellijke dreiging van ernstig lichamelijk letsel aan anderen" bestaat, kan de zaak worden doorverwezen naar de wetshandhavingsinstanties¹.

ChatGPT nodigt je van harte uit om je diepste gedachten te delen. Maak je geen zorgen, alles blijft vertrouwelijk... min of meer.
Bronnen:
Wanneer we met een psycholoog, advocaat, arts of priester praten, worden onze woorden beschermd door een gevestigde wettelijke regeling: het beroepsgeheim. Dit principe, dat geworteld is in eeuwenoude juridische tradities, bepaalt dat bepaalde gesprekken onschendbaar zijn, zelfs in het kader van strafrechtelijke onderzoeken.
Kenmerken van het traditionele beroepsgeheim:
In tegenstelling tot wat vaak wordt gedacht, is het beroepsgeheim niet absoluut. Er zijn duidelijk omschreven uitzonderingen die per beroepsgroep verschillen:
Voor advocaten (art. 28 Gedragscode voor advocaten): Openbaarmaking is toegestaan wanneer dit noodzakelijk is voor:
Kritisch voorbeeld: Als een cliënt aan zijn advocaat verklaart dat hij van plan is een moord te plegen, moet het belang van het leven prevaleren boven het recht op verdediging en is de advocaat niet langer gebonden aan het beroepsgeheim².
Voor psychologen (art. 13 Gedragscode): Het beroepsgeheim kan worden geschonden wanneer:
Belangrijk onderscheid: De particuliere psycholoog heeft meer discretionaire bevoegdheid dan de openbare psycholoog, die als ambtenaar strengere meldingsplichten heeft³.
Bronnen:
ChatGPT opereert in een heel andere grijze zone:
Gebrek aan juridisch privilege: Gesprekken met AI genieten geen enkele juridische bescherming. Zoals Sam Altman, CEO van OpenAI, toegaf: "Als je met een therapeut, advocaat of arts over die problemen praat, geldt daarvoor juridisch privilege. Er is vertrouwelijkheid tussen arts en patiënt, er is juridische vertrouwelijkheid, wat dan ook. En we hebben dit nog niet opgelost voor wanneer je met ChatGPT praat"².
Geautomatiseerd proces: In tegenstelling tot een menselijke professional die elk geval afzonderlijk beoordeelt, maakt ChatGPT gebruik van algoritmen om 'problematische' inhoud te identificeren, waardoor gekwalificeerd menselijk oordeel uit de eerste screeningfase wordt verwijderd.
Bronnen:
Deze situatie leidt tot een zorgwekkend paradox. Miljoenen mensen gebruiken ChatGPT als digitale vertrouweling en delen intieme gedachten, twijfels, angsten en zelfs criminele fantasieën die ze nooit met een mens zouden delen. Zoals Sam Altman zegt: "Mensen praten met ChatGPT over de meest persoonlijke dingen in hun leven. Mensen gebruiken het – vooral jongeren – als therapeut, levenscoach"⁴.
Het risico van criminele zelfcensuur: Het besef dat gesprekken kunnen worden afgeluisterd, kan paradoxaal genoeg leiden tot:
Een cruciaal aspect dat door critici wordt benadrukt, betreft de competentie van degenen die de uiteindelijke beslissingen nemen.
Professionele mensen hebben:
Het ChatGPT-systeem werkt met:
Probleemvoorbeeld: Hoe onderscheidt een algoritme tussen:
Bronnen:
Bronnen:
De bekentenis van OpenAI staat in schril contrast met zijn eerdere standpunten. Het bedrijf heeft zich in rechtszaken krachtig verzet tegen verzoeken om gebruikersgegevens, daarbij verwijzend naar de bescherming van de privacy. In de zaak tegen de New York Times heeft OpenAI zich krachtig verzet tegen de openbaarmaking van chatlogs om de privacy van gebruikers te beschermen⁴.
De ironie van de situatie: OpenAI verdedigt de privacy van gebruikers in de rechtbank, terwijl het tegelijkertijd toegeeft gegevens te monitoren en te delen met externe autoriteiten.
De situatie werd nog ingewikkelder door het gerechtelijk bevel dat OpenAI verplicht om alle ChatGPT-logs voor onbepaalde tijd te bewaren, inclusief privé-chats en API-gegevens. Dit betekent dat gesprekken die gebruikers als tijdelijk beschouwden, nu permanent worden opgeslagen⁵.
Bronnen:
Zoals Sam Altman suggereert, zou het nodig kunnen zijn om een concept van "AI-voorrecht" te ontwikkelen – een wettelijke bescherming die vergelijkbaar is met die voor traditionele beroepsbeoefenaars. Dit roept echter complexe vragen op:
Mogelijke regelgevingsopties:
IA "Gecompartimenteerd":
"Drievoudige" aanpak:
Lessen uit andere sectoren:
Bronnen:
De OpenAI-zaak schept belangrijke precedenten voor de hele sector van kunstmatige intelligentie:
Voor bedrijven die conversationele AI ontwikkelen:
Voor bedrijven die AI gebruiken:
Het centrale dilemma: hoe kan een evenwicht worden gevonden tussen het voorkomen van echte misdrijven en het recht op privacy en digitale vertrouwelijkheid?
Het gaat hier niet alleen om een technische kwestie, maar ook om fundamentele principes:
De onthulling van OpenAI markeert een keerpunt in de ontwikkeling van kunstmatige intelligentie, maar het gaat er niet om of de melding absoluut juist of onjuist is: het gaat erom hoe we deze effectief, eerlijk en met respect voor rechten kunnen maken.
De noodzaak is reëel: concrete dreigingen van geweld, plannen voor aanslagen of andere ernstige misdrijven vereisen ingrijpen. De vraag is niet of er melding moet worden gemaakt, maar hoe dit op verantwoorde wijze kan gebeuren.
De belangrijkste verschillen die moeten worden opgelost:
Opleiding en competentie:
Transparantie en controle:
Evenredigheid:
Voor bedrijven in deze sector is het een uitdaging om systemen te ontwikkelen die de samenleving effectief beschermen zonder dat ze instrumenten voor willekeurige surveillance worden. Het vertrouwen van gebruikers is essentieel, maar moet samengaan met maatschappelijke verantwoordelijkheid.
Voor gebruikers is de les tweeledig:
De toekomst van conversationele AI vereist een nieuw raamwerk dat:
De juiste vraag is niet of machines misdaden moeten melden, maar hoe we ervoor kunnen zorgen dat ze dat (minstens) met dezelfde wijsheid, opleiding en verantwoordelijkheid doen als menselijke professionals.
Het doel is niet om terug te keren naar een AI die "blind" is voor de werkelijke gevaren, maar om systemen te bouwen die technologische efficiëntie combineren met ethiek en menselijke competentie. Alleen zo kunnen we het beste van twee werelden hebben: veiligheid en beschermde individuele rechten.