Livia Guldie
Livia Guldie Tech 14 apr 2025
Leestijd: 4 minuten

Een Barbieversie of animatie van jezelf via AI: wat gebeurt er met je gezicht als je ‘m aan ChatGPT voert?

Misschien heb je op social media al eens zo’n grappige AI-versie van iemand voorbij zien komen: een ‘starterpack’ van jezelf als pop, een filmposter met jouw gezicht erop, of andere varianten. Het ziet er leuk uit, maar wat gebeurt er eigenlijk met jouw foto’s wanneer je ze aan AI toevertrouwt?

Chatbots of andere AI-programma’s lijken vaak veilig, maar wat doen ze met de selfies die je erop importeert?

Persoonlijke gegevens of foto’s

Dat je gesprek met een AI-bot privé is, is een misvatting. AI kan van alles gebruiken om zichzelf te ‘trainen’. Hoewel het voor AI-modellen eerder nog niet mogelijk was om informatie op te slaan, kan dat nu wel. Daarom is het een risico om persoonlijke gegevens te delen. Er zit namelijk een kanttekening aan: dat de dienst gratis is, is vanwege het gebruik van gebruikersdata. Dat betekent dat de informatie die je invoert, kan worden opgeslagen en worden gebruikt om het model verder te trainen.

Dus wil je je selfie via ChatGPT omtoveren in een anime-personage? Dan krijg je wellicht een goed resultaat, maar ChatGPT kan jouw foto bewaren, om nog realistischere foto’s te genereren. AI-programma’s zoals ChatGPT leren van gigantische hoeveelheden informatie, en worden daardoor steeds beter in dit soort technieken. Ook wat jij erin stopt, zoals een foto van jezelf, kan gewoon gebruikt worden, zonder dat je er specifiek toestemming voor hebt gegeven.

Wat als je niet wilt dat AI-bots je gegevens opslaan? Daar zijn een paar mogelijkheden voor. Als je een plus-abonnement hebt op ChatGPT, de betaalde versie, kun je in de instellingen aangeven dat je niet wil dat je gegevens worden opgeslagen. Ook is het verstandig om de privacyvoorwaarden goed te lezen en kritisch te zijn op wat je deelt.

Waarom heeft AI deze gegevens nodig?

Niet alleen AI-programma’s gebruiken je gegevens om slimmer te worden, ook Meta doet dit sinds een jaar. Meta is namelijk druk met de ontwikkeling van eigen AI-programma’s. „We plannen nieuwe AI-functies voor je. Lees meer informatie over hoe we je gegevens gebruiken”, was de melding die miljoenen Nederlandse gebruikers van Instagram en Facebook ontvingen. Foto’s, video’s, berichten, onderschriften, reacties en zelfs chatberichten die je uitwisselt met ‘professionele accounts’ kunnen worden gebruikt om de AI-toepassingen van het bedrijf verder te ontwikkelen. Volgens Meta worden privéberichten tussen jou en je vrienden of familie niet gebruikt.

De reden voor het gebruik van persoonlijke gegevens hetzelfde als waarom onder meer ChatGPT persoonlijke gegevens gebruikt. Om deze computermodellen zo goed mogelijk te laten werken, is simpelweg veel data nodig. De programma’s leren namelijk zichzelf op basis daarvan patronen te herkennen en voorspellingen te doen. Hoe meer gegevens, hoe beter AI zich kan ontwikkelen.

Privacy en auteursrechtelijke zorgen

Naast dat AI vaak geen rekening houdt met privacy, schaden ze ook vaak het auteursrecht. Volgens Kennisnet hebben deze programma’s vaak geen toestemming voor de afbeeldingen die ze genereren. „Generatieve AI-toepassingen zijn getraind op grote hoeveelheden data. Denk aan krantenartikelen, schilderijen en foto’s. De bedrijven achter de AI-toepassingen reproduceren de werken niet, maar gebruiken ze om tot nieuw materiaal te komen.” Het is juridisch onduidelijk wat de status van het auteursrecht is bij dit soort ‘afgeleide werken’. Deze AI-systemen kunnen dus wel concurrerende producten maken, zonder toestemming van de oorspronkelijke makers.

Wat er precies met je foto gebeurt als je ‘m importeert in ChatGPT, is niet helemaal duidelijk. Wel waarschuwt de Autoriteit Persoonsgegevens (AP) voor de privacyrisico’s die aan het gebruik van AI-chatbots vastzitten. De AP benadrukt ook dat de AI-systemen achter sociale media en zoekmachines veel macht hebben over welke informatie mensen te zien krijgen en hoe hun beeld van de werkelijkheid eruitziet.

Zorgen over AI

Hoewel het uploaden van foto’s op zichzelf geen direct gevaar oplevert, zijn er wel zorgen over de bredere gevolgen van steeds krachtigere AI-systemen. Zo waarschuwt Mediawijsheid dat het onderscheid tussen echt en nep steeds lastiger te maken is. Met behulp van AI kunnen namelijk levensechte beelden en audio worden gecreëerd die nauwelijks van echt te onderscheiden zijn. Deze technologie ligt aan de basis van zogeheten deepfakes: gemanipuleerd beeldmateriaal die levensecht oogt. Experts vrezen dat AI zal bijdragen aan een toename van desinformatie.

Onderzoekers ontdekken waardoor kankerpatiënten levenslust en motivatie kunnen verliezen (en hoe dat te behandelen valt)

Een dure les: hoogte van boetes blijft stijgen, zoveel betaal je nu

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste van Metro in je inbox 🌐

Meld je aan voor onze nieuwsbrief en ontvang tot drie keer per week een selectie van onze mooiste verhalen.

Reacties