AI-tools zoals ChatGPT zijn niet meer weg te denken uit onze werkdag. Ze helpen met schrijven, brainstormen en het beantwoorden van vragen. Maar wat gebeurt er eigenlijk met je gegevens als je AI-tools gebruikt? En is het veilig om als bedrijf zomaar vertrouwelijke informatie te delen met deze slimme systemen? Laten we eens kijken hoe het zit met de privacy van Large Language Models (LLM's).
Nee, niet zomaar doen. Het is niet slim om vertrouwelijke gegevens in een openbare AI-tool te zetten. Doe dat alleen als je precies weet wat er met die gegevens wordt gedaan.
Als je informatie invoert in een LLM, verstuur je die data naar de servers van het bedrijf achter de tool. Dit betekent dat je contracten, klantgegevens, strategische plannen of andere gevoelige informatie buiten je eigen bedrijf terechtkomen. Sommige AI-bedrijven gebruiken deze gegevens om hun modellen te verbeteren. En dat wil je natuurlijk niet.
Daarom is het belangrijk om altijd de voorwaarden en het privacy statement van een AI-tool te lezen voordat je die gebruikt. En nog belangrijker: zorg voor duidelijke richtlijnen voor je medewerkers over wat ze wel en niet mogen delen.
Niet alle AI-modellen zijn gelijk als het gaat om privacy en beveiliging. Sommige bieden betere bescherming dan andere. Meestal geldt: betaalde zakelijke versies bieden meer privacy dan gratis versies. Laten we de populairste modellen eens bekijken.
Claude heeft een sterke focus op veiligheid en privacy. Het model gebruikt gesprekken niet standaard voor training, ook niet in de gratis versie. De Pro versie biedt extra functies en betere prestaties, maar de privacy is sowieso goed geregeld.
Google’s aanpak kan je vergelijken met die van ChatGPT. De privacy is in de gratis versie niet goed beschermd. Want die gebruikt data voor verbetering. Gemini for Business biedt betere privacybescherming.
Google heeft, net als ChatGPT, een gemengde reputatie als het gaat om gegevensverzameling en privacy. Zo is er vaak kritiek op het feit dat gebruikers niet precies weten wat er verzameld wordt en hoelang die data bewaard blijft. Daarom is het slim om de voorwaarden goed te lezen voor je Gemini gebruikt.
Microsoft Copilot is er in verschillende versies. De gratis versie gebruikt data voor verbetering. Maar Copilot voor Business, onderdeel van Microsoft 365, houdt je data binnen je bedrijf. Microsoft heeft sterke privacy-afspraken voor zakelijke klanten.
Het hergebruik van gesprekken voor het trainen van taalmodellen is een belangrijk onderdeel om de privacy te kunnen beoordelen. Maar privacy gaat om meer belangrijke onderdelen. Zo kan je je afvragen of je klantgegevens mag gebruiken om bijvoorbeeld bepaalde analyses op te doen. Per ongeluk ingevoerde persoonsgegevens kunnen worden gezien als datalek. Ook kunnen LLM’s onjuiste output geven, bijvoorbeeld over klanten. En als je persoonsgegevens deelt met een 3e partij, dan moet je daarover goede afspraken maken met de 3e partij over de beveiliging en het gebruik van die gegevens. ChatGPT Plus heeft dat niet, Enterprise mogelijk wel.
Er zijn AI-tools die je beter niet kan gebruiken. De Autoriteit Persoonsgegevens (AP) waarschuwt gebruikers van de app DeepSeek om heel voorzichtig met deze chatbot om te gaan. Want persoonlijke gegevens worden in China opgeslagen op een server. Denk bijvoorbeeld aan een cv en alle vragen die je invoert in de chatbot. Maar het doorgeven van persoonsgegevens van Europese burgers naar landen buiten de EU mag alleen onder strenge (privacy)voorwaarden. Er moet genoeg bescherming zijn zodat mensen grip houden op hun persoonsgegevens en weten wat er met hun gegevens gebeurt. De vraag is of DeepSeek en andere Chinese bedrijven zich hieraan houden.
Goed om te weten: je kan, expres of per ongeluk, informatie over andere medewerkers uploaden in DeepSeek. Die gegevens belanden op dezelfde plek in China. Soms zonder dat die andere persoon daarvan afweet of ermee akkoord is. Jij bent dan verantwoordelijk voor de gevolgen.
Wil je echt zeker zijn van je privacy? Dan is een intern gehost LLM de beste keuze. Hierbij draait het AI-model op je eigen servers of in je eigen cloudomgeving. Ook dan moet je zelf zorgen voor goede maatregelen voor bijvoorbeeld toegang, beveiliging en dataretentie.
Met een intern gehost model heb je volledige controle. Je data gaat nooit weg uit je eigen infrastructuur. Het is wel belangrijk dat je de gegevens verwijdert als ze niet meer nodig zijn. En je bepaalt zelf hoe het model wordt gebruikt en bijgewerkt. Dit is vooral interessant voor bedrijven in gevoelige sectoren zoals de zorg, financiële sector of juridische dienstverlening.
Deze oplossing is wel duurder en technisch complexer. Je hebt specialistische kennis nodig om het model te onderhouden en bij te werken. Maar voor veel bedrijven zijn de privacyvoordelen deze investering waard.
Er bestaan verschillende open-source modellen die je kan hosten, zoals LLaMA van Meta of modellen van Hugging Face. Deze zijn vaak iets minder krachtig dan de nieuwste commerciële versies, maar bieden maximale controle over je gegevens.
ChatGPT privacy en die van andere LLM’s is niet goed of slecht. Door vooraf goede maatregelen te nemen, kan je deze tools gewoon veilig gebruiken. Het belangrijkste is dat je bewuste keuzes maakt en weet waar je gegevens terechtkomen. Zo kan je profiteren van AI zonder je bedrijf in gevaar te brengen.
Beeld: Odido