@media (max-width: 767.98px) { .notion-callout__content { padding-left: 0 !important; padding-right: 0 !important; }

Het veiligheidsrisico van Gen-AI zit in ons gedrag

Eerlijk is eerlijk. We hebben allemaal wel eens iets in ChatGPT geplakt. Een mailtje dat je net wat lekkerder wilde laten klinken, een stuk uit een offerte dat duidelijker moest of een interne memo om even snel samen te vatten. Erg handig. Toch?
image

Nou….uit onderzoek blijkt dat 77% van de medewerkers bedrijfsinformatie deelt met AI-tools. En 82% doet dat via privéaccounts, buiten het zicht van IT. Niet per se uit onwil, maar vooral uit onwetendheid. Zo komt er gevoelige informatie op het wereldwijde web, zonder dat iemand het merkt. En dat is serieus gevaarlijk. AI is nog jong. Dat betekent nieuwe mogelijkheden maar ook nieuwe risico’s. Knippen en plakken om wat tijd te winnen lijkt misschien onschuldig, dat is het vaak niet.

Angst is de foute strategie

Veel organisaties reageren pakiekerig. Ze geven de overheid de schuld. Ze blokkeren tools, verbieden gebruik of schrijven dikke beleidsdocumenten. Allemaal bedoeld om controle te houden. Uit angst voor datalekken, maar óók uit angst voor het onbekende. Maar mensen gebruiken AI nu eenmaal om een heel simpele reden: het werkt. Het maakt hun werk makkelijker én leuker. Je kan het zo zien: medewerkes zijn niet roekeloos, ze omarmen een nieuwe technologie vol kansen. Dat is een gigantische kans waar bedrijven vol voor moeten gaan. Het deel verandermanagement is al gedaan doordat mensen nieuwsgierig zijn, en het midden in de hypecycle zit Dat neemt niet weg dat AI te vaak onveilig wordt gebruikt. Hoe tackel je dit? Maak de gebruiker bewust van de gevaren en leer ze hoe ze veilig met AI-tools werken.

Verander gedrag

De grote AI-techreuzen weten inmiddels ook dat veiligheid topprioriteit is. Zo gebruikt ChatGPT Enterprise data niet meer voor training. Microsoft’s Azure OpenAI zorgt ervoor dat alle data binnen de muren van de IT-omgeving van het bedrijf blijven en Google Gemini in Workspace garandeert dat data niet buiten je domein belandt. Dat is een geruststelling. Maar het is niet genoeg. De zwakke plek zit namelijk niet in de techniek, maar in het gedrag van de gebruiker. De weg naar veilig gebruik van AI begint toch echt bij de gebruiker. Onderzoek laat zien dat een training van nog geen drie minuten al bijna 8 procent winst oplevert in hoe goed mensen AI-risico’s herkennen. Volgens mij start omgaan met AI start altijd met Think First, Verify Always en bestaat verder uit vijf simpele princpes bewustzijn, integriteit, beoordelingsvermogen, ethische verantwoordelijkheid en transparantie. Blijf alert. Zo zorg je dat de mens de Firewall Zero is.

Maak mensen verantwoordelijk

Hoe jouw mensen met Gen AI omgaan, zegt veel over je organisatie. Het toont volwassenheid in hoe je omgaat met data, transparantie en verantwoordelijkheid. Medewerkers die begrijpen wat AI doet en ruimte krijgen om ermee te werken, nemen bewustere beslissingen en leveren beter werk. Het is aangetoond: meer autonomie en verantwoordelijkheid zorgt voor hogere motivatie, minder mentale druk en betere prestaties. Vertrouwen brengt je dus een heel eind.

Het draait om de mens

Investeer dus in mensen en niet in het bouwen van muren. Scherpe regels beperken risico misschien, kennis over gevaren elimineren ze. Wil jij profiteren van de voordelen wat betreft productiviteit en creativiteit die AI met zich meebrengen? Help dan je teams met begrijpen wat ze precies doen. Dit betekent: leren, trainen en de ruimte om te oefenen.

📖
LEARN