ChatGPT 5.2: slimmer werken vraagt ook slimmer omgaan met data
ChatGPT 5.2 is merkbaar beter dan zijn voorganger. Antwoorden zijn consistenter, instructies worden nauwkeuriger gevolgd en gesprekken voelen stabieler en professioneler aan. Precies daarom zien we dat steeds meer medewerkers ChatGPT inzetten voor hun dagelijkse werk.
Maar juist die laagdrempeligheid brengt ook een risico met zich mee.
Een actueel voorbeeld is de Gemeente Eindhoven, die ChatGPT heeft geblokkeerd nadat bleek dat medewerkers bestanden met persoonsgegevens hadden geüpload naar openbare AI-tools. Het incident werd gemeld bij de Autoriteit Persoonsgegevens en laat zien dat AI-gebruik zonder duidelijke afspraken snel kan leiden tot een datalek.
In deze nieuwsbrief leggen we uit:
-
waarom dit soort incidenten steeds vaker voorkomen
-
welke instelling in ChatGPT cruciaal is
-
en hoe je dit eenvoudig voorkomt, zonder AI te verbieden
Waarom het risico juist nú groter wordt
ChatGPT 5.2 werkt prettiger dan ooit. Dat betekent ook dat medewerkers sneller denken:
-
“Ik plak dit er even in.”
-
“Laat ChatGPT dit document herschrijven.”
-
“Kun je dit overzichtelijk maken?”
In de praktijk gaat het dan vaak om teksten waarin meer staat dan men denkt, zoals:
-
namen van klanten of medewerkers
-
e-mailadressen of telefoonnummers
-
personeelsdossiers of verzuimgegevens
-
klantklachten, meldingen of contractinformatie
Het invoeren van dit soort gegevens in een openbare AI-tool kan al voldoende zijn om te spreken van een datalek onder de AVG — ook als dat niet de bedoeling was.
De belangrijkste instelling in ChatGPT (die vaak vergeten wordt)
Er is één instelling die voor veel organisaties essentieel is, maar die zelden expliciet wordt benoemd.
Zet altijd dit schuifje uit
Ga in ChatGPT naar:
-
Instellingen
-
Gegevensbeheer / Data controls
-
Zet “Trainen voor iedereen” (of “Improve the model for everyone”) UIT
Hiermee voorkom je dat gesprekken worden gebruikt om het AI-model verder te trainen.
Belangrijk om te weten
-
Werk je met ChatGPT Business, Enterprise of Edu?
Dan wordt data standaard niet gebruikt voor training. -
Werken medewerkers met openbare accounts (free of Plus)?
Dan moet deze instelling per gebruiker goed worden gezet.
Zonder duidelijke instructie gaat dit in de praktijk vaak mis.
Waarom blokkeren niet de oplossing is
Het voorbeeld van Eindhoven laat zien dat organisaties soms kiezen voor blokkeren. Begrijpelijk, maar niet altijd wenselijk.
In de praktijk geldt:
-
medewerkers blijven AI gebruiken (privé of via omwegen)
-
kennis en efficiëntie gaan verloren
-
risico’s verdwijnen niet, maar worden onzichtbaar
Slimmer is het om heldere spelregels af te spreken.
Zo voorkom je datalekken, zonder AI te verbieden
1. Maak “geen persoonsgegevens plakken” een harde regel
Simpel uitgangspunt:
-
Staat er iets in waarmee een persoon te herleiden is?
→ Niet invoeren in ChatGPT
2. Leer medewerkers anonimiseren
Voorbeelden:
-
“Jan de Vries” → “Medewerker A”
-
“klant@bedrijf.nl” → “[e-mailadres]”
-
dossiertekst → samenvatting zonder namen of nummers
ChatGPT heeft die details niet nodig om goed te helpen.
3. Werk met vaste voorbeelden en prompts
Geef medewerkers:
-
een paar veilige voorbeeldprompts
-
een korte checklist (“mag dit erin, ja of nee?”)
-
één pagina uitleg in gewone taal
Dat werkt beter dan lange beleidsdocumenten.
4. Zet instellingen centraal op de agenda
Neem ChatGPT-instellingen standaard mee bij:
-
onboarding
-
IT- en privacy-instructies
-
AI-workshops of trainingen
Voorbeeld uit de praktijk
Een medewerker wil een e-mail opstellen over een verzuimsituatie.
Risicovol:
-
het volledige verslag plakken met naam, datum en medische details
Veilig en effectief:
-
“Schrijf een korte, empathische e-mail aan een medewerker die zich heeft ziekgemeld, met uitnodiging voor contact en verwijzing naar het verzuimprotocol.”
Resultaat:
-
juiste toon
-
tijdwinst
-
geen privacyrisico
Tot slot
ChatGPT 5.2 maakt slimmer werken makkelijker dan ooit.
Juist daarom is het belangrijk om dataveiligheid standaard mee te nemen.
Met drie simpele uitgangspunten kom je al ver:
-
zet “Trainen voor iedereen” uit
-
plak nooit persoonsgegevens
-
geef medewerkers duidelijke, praktische richtlijnen
Zo benut je de kracht van AI — zonder onnodige risico’s.
📅 Wil je hulp bij:
-
een korte interne AI-instructie voor medewerkers
-
het AVG-proof inzetten van ChatGPT binnen je organisatie
-
of een praktische workshop “AI in de praktijk”?
Neem contact op via www.berkland.nl
Samen zorgen we dat AI je helpt — en geen problemen oplevert.
0 reacties