Michelle (20) werd gechanteerd met AI-naaktfoto's
- Artikel
- 15 nov 2023
- 8 minuten leestijd
AI-foto’s zijn populair, denk aan de Yearbooktrend. Maar wat als er AI-gegenereerde naaktfoto’s van jouw onschuldige selfies worden gemaakt? Het overkwam student Michelle Michels.
Een vermoeide Michelle ontvangt op de eerste oktoberavond van dit jaar via Instagram een dm van een onbekend meisje. In het berichtje krijgt ze de vraag of zij toevallig ook berichten heeft ontvangen van een account dat alleen hen twee volgt. Michelle dacht van niet. Ze had immers geen openstaande meldingen – tot ze bij ‘hidden requests’ keek.
Waar Michelle het ene moment nog op het punt stond haar telefoon weg te leggen om lekker te gaan slapen, schoot ze het volgende moment overeind: naaktfoto’s met haar hoofd, maar zij was het niet op de foto’s. Ze dacht ‘kuuut, dit méén je niet'. “Ik lag te shaken in mijn bed en mijn hart bonkte nog net niet uit mijn borstkas.” Haar slaap was in één klap verdwenen: “Hoe kan het dat deze foto’s zo echt lijken, in wat voor een wereld leven we in hemelsnaam en waarom ik?”
Tipje van de sluier
Bij AI-gegenereerde naaktfoto’s gaat het om foto’s op niet-afgeschermde socialmedia-accounts die vervolgens gemanipuleerd worden door AI tot een naaktfoto. Michelle dook online in dit fenomeen en zocht naar andere slachtoffers. Ze werd nauwelijks wijzer.
Op het nieuws van een gechoqueerd Spaans dorp na, dan: daar gingen AI-gegenereerde naaktfoto’s van meer dan twintig meisjes uit het dorp rond. De politie stelde een onderzoek in, waaruit elf verdachten van tussen de twaalf en veertien jaar naar voren kwamen.
Een soortgelijk Nederlands voorbeeld is dat van NPO-presentatrice Welmoed Sijtsma. Zij werd geattendeerd op het bestaan van een pornovideo waarin haar gezicht via deepfaketechnologie op dat van een pornoactrice werd 'geplakt’. De maker van de video is inmiddels veroordeeld tot een voorwaardelijke taakstraf van 180 uur.
Zo’n vieze gedachte
Na een paar keer diep in- en uitgeademd te hebben, lukte het Michelle de berichtjes goed te lezen en de foto’s stuk voor stuk te bekijken. Ze herkende wel degelijk haar eigen gezicht op de foto’s. Het lichaam eronder was alleen wel héél perfect. Op de handen na; die zagen er wat vreemd uit.
Michelle: “Het was echt heel naar. Ik voelde mij misbruikt, vooral door de berichten die erbij stonden. Degene die me DM’de zei dat de foto’s mét kleding al aantrekkelijk genoeg waren om op af te trekken, maar dat ze op echte naaktfoto’s nog beter zouden kunnen klaarkomen. Het account chanteerde mij daarop door te dreigen deze nepnaaktfoto’s door te sturen als ik geen echte naaktfoto’s zou delen.”
"Dat vond ik zo’n vieze gedachte, gadverdamme"
Volgens data-ethicus David Steenmeijer is het heel lastig te zeggen wie er achter zo’n account zit. “Waar bedrijven aan allerlei wetten en regels moeten voldoen bij de inzet van AI, gaat het hier waarschijnlijk om individuen met simpelweg hele slechte intenties. Daardoor is het lastig om te controleren of zij zich aan die regels houden, of er iets tegen te doen als dat niet zo is.”
Michelle vroeg haar moeder wat te doen. Het account blokkeren was stap één. “Mijn moeder wees mij er verder op dat mijn eigen account openstond en dat dit niet slim was. Gelijk had ze. Ik kon mezelf wel voor mijn kop slaan. Wie deed dat dan ook? Zo was het natuurlijk ook veel te makkelijk om mijn foto’s te gebruiken.”
Dus zette Michelle haar account op slot en haalde ze alle foto’s die ook maar een beetje naakt waren van haar profiel: “Ik verwijderde een bikinifoto, en foto’s met inkijk belandden in mijn afgeschermde archief.”
Ook plaatste ze een bericht op haar Instagram-stories waarin ze haar volgers opriep hun accounts dicht te zetten en drie keer na te denken wie je wel of niet accepteert. “Het maakt niet uit of je veel of weinig volgers hebt. Zolang je account openstaat, kunnen ze je pakken.” Michelle vindt het vooral jammer dat een open account tegenwoordig blijkbaar niet meer kan.
Niet goed of slecht
“Het is niet Michelles schuld dat haar openbare selfies zo worden misbruikt”, zegt Rudy van Belkom. Hij is directeur van Stichting Toekomstbeeld der Techniek (STT) en hij deed onderzoek naar de toekomst van AI en de democratie. Volgens hem kunnen slachtoffers van AI-gegenereerde content hier hun leven lang een traumatische ervaring aan overhouden. Rudy: “Het is de schuld van de samenleving.”
"Technologie, zoals AI, is neutraal, maar wij mensen niet"
AI is een systeemtechnologie en daarmee vergelijkbaar met elektriciteit, legt data-ethicus David ter verduidelijking uit: “Elektriciteit kun je gebruiken om ziekenhuizen te verlichten, maar ook om mensen in stroomstoelen te elektrocuteren.”
AI is dus in de basis niet goed of slecht. Het is maar net hoe je het inzet. Dat kan dus zijn voor grappige, leuke jaarboekfoto’s, maar ook voor pornografisch beeld waarbij je echte naaktfoto’s haast niet van neppe kunt onderscheiden.
Van incident naar structureel probleem
Michelles moeder adviseerde haar aangifte te doen bij de politie. Zo gezegd, zo gedaan. De politie vroeg Michelle onder andere in welke taal de berichten gestuurd waren. In het Engels, legde ze uit. Daar kon de politie niks mee, zeiden ze. “Volgens hen moest er dan wel een grote organisatie ergens ver weg achter zitten.”
Het advies: Michelle moest maar terugbellen als het weer gebeurde. “Maar iedereen kan toch een bericht in het Engels typen, come on. Moeten we dan met z’n allen wachten tot het helemaal fout gaat of totdat iedereen AI-naaktfoto’s kan zien en het dus al veel te laat is?”
Gewoon genegeerd
Rudy’s advies: “Zwijg niet. Doe aangifte als dit je overkomt. Michelles aangifte laat namelijk zien dat dit probleem in onze samenleving nu nog te veel als incident wordt beschouwd en niet als een structureel probleem. Zodra het als een structureel probleem wordt erkend, moet er ook structureel budget worden vrijgemaakt om dit soort problemen aan te pakken en dan komt de politiek om de hoek kijken.”
Digitale technologie is volgens de AI- en democratie-onderzoeker sterk ondervertegenwoordigd bij de huidige politieke partijen. Het feit dat wetgeving achterloopt is volgens Rudy niet zo wonderlijk als het politiek gezien zo weinig aandacht krijgt. “Géén van de dertig stellingen bij de StemWijzer gaat expliciet over digitale technologie: niks over privacy, niks over desinformatie, niks over ChatGPT in het onderwijs en al helemaal niks over AI-gegenereerde content. In verkiezingsprogramma’s is er wel aandacht voor, maar beperkt. Het verschil tussen partijen is heel erg groot. Daarbij mist bij de meeste partijen een consistente visie: het zijn losse standpunten, maar een overkoepelende ideologie ontbreekt vaak.”
"Het onderwerp wordt eigenlijk gewoon genegeerd, terwijl het inmiddels zo diep in ons leven is geworteld"
Rudy ontwikkelde daarom de Technologie Kieswijzer dat wel volledig in het teken staat van digitale technologie. Daarmee wil hij de samenleving en politiek wakker schudden.
Michelle: “De politiek en onze samenleving moeten zich bewust worden van de schaduwzijde van AI. Dat er weinig te lezen valt over slachtoffers van AI-gegenereerde content betekent niet dat het niet gebeurt.”
Na haar online waarschuwing kreeg ze allerlei berichten van mensen die hetzelfde hadden meegemaakt. Niet alleen van meiden, ook van een jongen.
Te laat
Halverwege oktober dit jaar spoorden Kamerleden Hind Dekker-Abdulaziz van D66 en Queeny Rajkowski van VVD de regering aan haast te maken met het instellen van een onafhankelijk adviesorgaan dat snel kan reageren en anticiperen op technologische ontwikkelingen. Beide Kamerleden benadrukten dat we niet moeten wachten op uitgebreid onderzoek en wetgeving. Ze pleitten ervoor dat zo’n onafhankelijk adviesorgaan snel passende maatregelen moet kunnen nemen.
Rudy legt uit: “De Tweede Kamer noemt dit ook wel een rapid response team. Dat klinkt heel goed en is een verbetering ten opzichte van de huidige situatie, maar het is een reactief orgaan. Zelfs ‘rapid’ is eigenlijk al te laat. Je moet aan de voorkant zijn, wil je dit probleem aanpakken, niet aan de achterkant.”
"Dan is de geest al uit de fles"
Zowel Rudy als David vinden dat ethici moeten worden betrokken om na te denken over de ethische gevolgen voordat een AI-toepassing live gaat. David: “Dat is natuurlijk super subjectief, maar we zijn het er bijvoorbeeld allemaal over eens dat kinderporno niet kan. Als ontwikkelaar kun je daar dan een detectie en een slot op zetten. Mocht iemand dan toch slechte intenties hebben, dan wordt diegene gebanned.”
Bespreekbaar maken
Met Michelle gaat het naar omstandigheden goed. Het account heeft geen contact meer met haar gezocht en is inmiddels offline. Michelle heeft contact met het meisje dat haar attendeerde op de berichten van het account. “Zij wilde er niks groots van maken, maar ik ben van mening dat we zulke zaken moeten bespreken. Ik schaam mij niet voor de AI-naaktfoto’s. De mensen die dit doen moeten zich schamen.”