Eerlijk is eerlijk. We hebben allemaal wel eens iets in ChatGPT geplakt. Een mailtje dat je net wat lekkerder wilde laten klinken, een stuk uit een offerte dat duidelijker moest of een Teams-bericht waarvan je snel de kern wilde pakken. Erg handig. Toch?
Te lang om te lezen?
Dit is de korte samenvatting:
- → 77% van medewerkers deelt bedrijfsinformatie met AI, vaak via privéaccounts.
- → Angst en verbieden werkt niet; nieuwsgierigheid en gedragsverandering wel.
- → Implementeer "Think First, Verify Always" en maak mensen de "Firewall Zero".
Data kan lekken
Wel handig, maar niet al te veilig….uit onderzoek(1) blijkt namelijk dat 77% van de medewerkers bedrijfsinformatie deelt met AI-tools. En 82% doet dat via privéaccounts, buiten het zicht van IT. Niet per se uit onwil, maar vooral uit onwetendheid.
Zo komt er gevoelige informatie op het wereldwijde web, zonder dat iemand het merkt. En dat is serieus gevaarlijk. AI is nog jong. Dat betekent volop mogelijkheden maar óók nieuwe risico’s. Knippen en plakken om wat tijd te winnen lijkt misschien onschuldig, dat is het vaak niet.
Angst is de foute strategie
Veel organisaties reageren paniekerig. Ze geven de overheid de schuld. Ze blokkeren tools, verbieden gebruik of schrijven dikke beleidsdocumenten. Allemaal bedoeld om controle te houden. Uit angst voor datalekken, maar óók uit angst voor het onbekende. Maar mensen gebruiken AI nu eenmaal om een heel simpele reden: het werkt.
Nieuwsgierig naar nieuwe technologie
Het maakt hun werk makkelijker én leuker. Zie het zo: medewerkers zijn niet roekeloos, ze omarmen een nieuwe technologie. En dat is een gigantische kans waar bedrijven vol voor moeten gaan. Een flink deel van het verandermanagement is al gedaan, mensen zijn al nieuwsgierig - AI zit midden in haar hypecycle. Die nieuwsgierigheid zorgt er ook voor dat AI te vaak onveilig wordt gebruikt. Maar dit kan je voorkomen. Maak de gebruiker bewust van de gevaren en leer ze hoe ze veilig met AI-tools werken.
Verander gedrag
De grote AI-techreuzen weten inmiddels ook dat veiligheid topprioriteit is. Zo gebruikt ChatGPT Enterprise data niet meer voor training. Microsoft zorgt ervoor dat alle data binnen de muren van de IT-omgeving van het bedrijf blijven en gebruik je Google Workspace , dan heb je de garantie dat data niet buiten je domein belandt.
Dat is een geruststelling. Maar het is niet genoeg. De zwakke plek zit namelijk niet in de techniek, maar in het gedrag van de gebruiker. Onderzoek laat zien dat een training van nog geen drie minuten al bijna 8 procent winst oplevert in hoe goed mensen AI-risico’s herkennen(2).
Vijf kernprincipes
Kern van de training: Think First, Verify Always. Verder moet je vijf simpele principes in acht nemen. Dan ben jij als gebruiker de Firewall Zero.
- 1. Bewustzijn Je weet dat AI kan hallucineren, vertekenen of verkeerde aannames maken. In de praktijk betekent dit dat je nooit direct kopieert wat AI je geeft, maar eerst checkt: klopt de data, klopt de context, past dit bij mijn doel?
- 2. Integriteit Je gaat zorgvuldig om met input en output. Dat betekent: geen misleidende prompts, geen gevoelige data delen, en geen informatie opvoeren alsof deze door AI “bewezen” is.
- 3. Beoordelingsvermogen Je gebruikt je eigen professionaliteit bij het interpreteren van AI-output. Je vergelijkt wat AI zegt met andere bronnen en je vraagt je steeds af: is dit logisch, klopt dit, past dit?
- 4. Ethische Verantwoordelijkheid Jij bent verantwoordelijk voor wat je mét AI publiceert of besluit. In de praktijk betekent dit dat je nadenkt over impact: wie kan hierdoor worden benadeeld of misleid?
- 5. Transparantie Je bent duidelijk over hoe AI is gebruikt en welke beperkingen gelden. Je schermt risico’s niet af maar benoemt ze.
Maak mensen verantwoordelijk
Hoe jouw mensen met Gen AI omgaan, zegt veel over je organisatie. Het toont volwassenheid in hoe je omgaat met data, transparantie en verantwoordelijkheid. Medewerkers die begrijpen wat AI doet en ruimte krijgen om ermee te werken, nemen bewustere beslissingen en leveren beter werk. Het is aangetoond(3): meer autonomie en verantwoordelijkheid zorgt voor hogere motivatie, minder mentale druk en betere prestaties. Vertrouwen brengt je dus een heel eind.
People First
Investeer dus in mensen en niet in het bouwen van muren. People First. Niet AI-First. Scherpe regels beperken risico, kennis over gevaren elimineren ze. Als je de voordelen van AI, zoals hogere productiviteit en meer creativiteit, wil pakken, zorg er dan voor dat je begrijpt wat je doet. Dit betekent in de praktijk: leren, trainen en de ruimte om te oefenen.
"Scherpe regels beperken risico, kennis over gevaren elimineren ze."
Wat kan je doen als organisatie?
-
Investeer in bewustzijnstrainingen: Bied korte, effectieve trainingen aan die medewerkers bewust maken van AI-risico's en veilige werkwijzen.
-
Stimuleer autonomie: Geef medewerkers de ruimte om met AI te experimenteren binnen veilige kaders, en maak ze verantwoordelijk voor hun output.
-
Ontwikkel gedragsrichtlijnen: Stel geen verboden op, maar creëer praktische richtlijnen voor ethisch en veilig AI-gebruik.
-
Faciliteer leren en oefenen: Bied platforms en middelen aan waar medewerkers hun vaardigheden met AI kunnen ontwikkelen en in de praktijk kunnen brengen.
-
Focus op een 'People First' Cultuur: