Inzichten

Het veiligheidsrisico van Gen-AI zit in ons gedrag

Aernout Markus
Aernout Markus
10 DEC 2025

Copywriter. SEO / GEO expert. Leert mensen werken met AI. Bovenal liefhebber van Taal en Tech.

Connect

Eerlijk is eerlijk. We hebben allemaal wel eens iets in ChatGPT geplakt. Een mailtje dat je net wat lekkerder wilde laten klinken, een stuk uit een offerte dat duidelijker moest of een Teams-bericht waarvan je snel de kern wilde pakken. Erg handig. Toch?

AI, content en veiligheid
Veiligheid in het tijdperk van Gen-AI.

Te lang om te lezen?

Dit is de korte samenvatting:

  • 77% van medewerkers deelt bedrijfsinformatie met AI, vaak via privéaccounts.
  • Angst en verbieden werkt niet; nieuwsgierigheid en gedragsverandering wel.
  • Implementeer "Think First, Verify Always" en maak mensen de "Firewall Zero".

Data kan lekken

Wel handig, maar niet al te veilig….uit onderzoek(1) blijkt namelijk dat 77% van de medewerkers bedrijfsinformatie deelt met AI-tools. En 82% doet dat via privéaccounts, buiten het zicht van IT. Niet per se uit onwil, maar vooral uit onwetendheid.

Zo komt er gevoelige informatie op het wereldwijde web, zonder dat iemand het merkt. En dat is serieus gevaarlijk. AI is nog jong. Dat betekent volop mogelijkheden maar óók nieuwe risico’s. Knippen en plakken om wat tijd te winnen lijkt misschien onschuldig, dat is het vaak niet.

Angst is de foute strategie

Veel organisaties reageren paniekerig. Ze geven de overheid de schuld. Ze blokkeren tools, verbieden gebruik of schrijven dikke beleidsdocumenten. Allemaal bedoeld om controle te houden. Uit angst voor datalekken, maar óók uit angst voor het onbekende. Maar mensen gebruiken AI nu eenmaal om een heel simpele reden: het werkt.

Nieuwsgierig naar nieuwe technologie

Het maakt hun werk makkelijker én leuker. Zie het zo: medewerkers zijn niet roekeloos, ze omarmen een nieuwe technologie. En dat is een gigantische kans waar bedrijven vol voor moeten gaan. Een flink deel van het verandermanagement is al gedaan, mensen zijn al nieuwsgierig - AI zit midden in haar hypecycle. Die nieuwsgierigheid zorgt er ook voor dat AI te vaak onveilig wordt gebruikt. Maar dit kan je voorkomen. Maak de gebruiker bewust van de gevaren en leer ze hoe ze veilig met AI-tools werken.

Verander gedrag

De grote AI-techreuzen weten inmiddels ook dat veiligheid topprioriteit is. Zo gebruikt ChatGPT Enterprise data niet meer voor training. Microsoft zorgt ervoor dat alle data binnen de muren van de IT-omgeving van het bedrijf blijven en gebruik je Google Workspace , dan heb je de garantie dat data niet buiten je domein belandt.

Dat is een geruststelling. Maar het is niet genoeg. De zwakke plek zit namelijk niet in de techniek, maar in het gedrag van de gebruiker. Onderzoek laat zien dat een training van nog geen drie minuten al bijna 8 procent winst oplevert in hoe goed mensen AI-risico’s herkennen(2).

Vijf kernprincipes

Kern van de training: Think First, Verify Always. Verder moet je vijf simpele principes in acht nemen. Dan ben jij als gebruiker de Firewall Zero.

  • 1. Bewustzijn Je weet dat AI kan hallucineren, vertekenen of verkeerde aannames maken. In de praktijk betekent dit dat je nooit direct kopieert wat AI je geeft, maar eerst checkt: klopt de data, klopt de context, past dit bij mijn doel?
  • 2. Integriteit Je gaat zorgvuldig om met input en output. Dat betekent: geen misleidende prompts, geen gevoelige data delen, en geen informatie opvoeren alsof deze door AI “bewezen” is.
  • 3. Beoordelingsvermogen Je gebruikt je eigen professionaliteit bij het interpreteren van AI-output. Je vergelijkt wat AI zegt met andere bronnen en je vraagt je steeds af: is dit logisch, klopt dit, past dit?
  • 4. Ethische Verantwoordelijkheid Jij bent verantwoordelijk voor wat je mét AI publiceert of besluit. In de praktijk betekent dit dat je nadenkt over impact: wie kan hierdoor worden benadeeld of misleid?
  • 5. Transparantie Je bent duidelijk over hoe AI is gebruikt en welke beperkingen gelden. Je schermt risico’s niet af maar benoemt ze.

Maak mensen verantwoordelijk

Hoe jouw mensen met Gen AI omgaan, zegt veel over je organisatie. Het toont volwassenheid in hoe je omgaat met data, transparantie en verantwoordelijkheid. Medewerkers die begrijpen wat AI doet en ruimte krijgen om ermee te werken, nemen bewustere beslissingen en leveren beter werk. Het is aangetoond(3): meer autonomie en verantwoordelijkheid zorgt voor hogere motivatie, minder mentale druk en betere prestaties. Vertrouwen brengt je dus een heel eind.

People First

Investeer dus in mensen en niet in het bouwen van muren. People First. Niet AI-First. Scherpe regels beperken risico, kennis over gevaren elimineren ze. Als je de voordelen van AI, zoals hogere productiviteit en meer creativiteit, wil pakken, zorg er dan voor dat je begrijpt wat je doet. Dit betekent in de praktijk: leren, trainen en de ruimte om te oefenen.

"Scherpe regels beperken risico, kennis over gevaren elimineren ze."

Wat kan je doen als organisatie?

  • Investeer in bewustzijnstrainingen: Bied korte, effectieve trainingen aan die medewerkers bewust maken van AI-risico's en veilige werkwijzen.
  • Stimuleer autonomie: Geef medewerkers de ruimte om met AI te experimenteren binnen veilige kaders, en maak ze verantwoordelijk voor hun output.
  • Ontwikkel gedragsrichtlijnen: Stel geen verboden op, maar creëer praktische richtlijnen voor ethisch en veilig AI-gebruik.
  • Faciliteer leren en oefenen: Bied platforms en middelen aan waar medewerkers hun vaardigheden met AI kunnen ontwikkelen en in de praktijk kunnen brengen.
  • Focus op een 'People First' Cultuur:

Wil jij AI op een veilige manier gebruiken?

Maak jouw team de sterkste schakel.

Veelgestelde vragen (FAQ)

Wat maakt Gen-AI riskanter dan traditionele software?
Traditionele software werkt op basis van vaste regels. Gen-AI creëert nieuwe content en leert (soms) van input. Hierdoor kan gevoelige data die je invoert, onbedoeld onderdeel worden van het model of opduiken in antwoorden aan anderen, als de settings niet juist staan (Shadow IT).
Wat is Firewall Zero?
Firewall Zero is het concept dat de mens de laatste en belangrijkste verdedigingslinie is. Geen software kan 100% voorkomen dat een medewerker gevoelige data deelt; dat vereist bewustzijn en gedragsverandering van de medewerker zelf.
Wat bedoel je met “Think First, Verify Always”?
Dit is het kernprincipe voor veilig AI-gebruik. Denk na vòòr je iets invoert (is dit gevoelig?) en controleer altijd de output (klopt dit wel?). Blind vertrouwen op AI is het grootste risico.
Wat is het grootste misverstand over AI-veiligheid?
Dat je het dicht kunt timmeren met IT-regels. Mensen vinden altijd een 'workaround' als tools hun werk makkelijker maken. Daarom is investeren in cultuur en gedrag effectiever dan alleen verbieden.
Wat bedoel je met AI-First?
Een strategie waarbij technologie leidend is. Wij pleiten voor People First: zet de mens centraal, en gebruik AI als ondersteuning. Technologie moet in dienst staan van de gebruiker, niet andersom.

Lees verder

Meer Context

Bekijk alles
Teksten schrijven met AI
LEER AI
30 DEC 2025

Teksten schrijven met AI: Waarom de lezer snakt naar jouw stem

Teksten schrijven met AI zonder dat je lezer afhaakt? Ontdek hoe je AI slim gebruikt.

Lees artikel
GEO Optimalisatie
GEO
20 DEC 2025

GEO-optimalisatie: Gevonden worden door AI

Zoeken verandert. Hoe zorg je dat jouw merk voorkomt in de antwoorden van ChatGPT?

Lees artikel
SEO vs GEO
GEO
03 NOV 2025

Is SEO dood? Lang leve GEO.

Google verliest zijn monopolie. Waar SEO draait om kliks, draait GEO om antwoorden.

Lees artikel
AI teksten menselijk maken
COPYWRITING
14 JAN 2026

AI teksten menselijk maken: sloop die robot eruit

Laten we eerlijk zijn: we hebben er massaal een nieuw zintuig bijgekregen. Je opent een artikel en denkt: “Hé, dit is AI.” Sloop die robot eruit.

Lees artikel