Het gebruik van AI voor het maken en verspreiden van valse naaktbeelden: een verontrustend fenomeen
De opkomst van artificiële intelligentie (AI) heeft talloze voordelen gebracht, variërend van verbeterde gezondheidszorg tot efficiëntere productieprocessen. Echter, zoals bij elke technologie, kan AI ook op destructieve manieren worden ingezet. Een verontrustende trend die zich recent heeft ontwikkeld, is het gebruik van AI om valse naaktbeelden te creëren en te verspreiden, ook wel bekend als “deepfake pornografie” of “deepnudes”.
Zo ook zijn in Zuid-Korea onlangs op grote schaal meisjes slachtoffer geworden door de verspreiding van realistische, maar volledig vervalste naaktbeelden op meer dan 500 scholen en universiteiten. Ook in België zijn er al officiële klachten bij de politie over dit fenomeen.
Wat zijn deepfakes?
Deepfakes zijn video’s, afbeeldingen of audio-opnamen die zijn gemanipuleerd door middel van AI om een fictieve realiteit te creëren. Deze technologie maakt gebruik van zogenaamde “deep learning”-algoritmes, een tak van machine learning die neurale netwerken imiteert. Door grote hoeveelheden beeldmateriaal van een persoon te analyseren, kan de AI uiterst realistische beelden genereren waarin het lijkt alsof de persoon dingen doet of zegt die in werkelijkheid nooit hebben plaatsgevonden.
In de context van valse naaktbeelden wordt de technologie toegepast om de gezichten van onschuldige mensen te plaatsen op bestaande pornografische of naaktbeelden, waardoor het lijkt alsof zij in expliciete situaties verkeren. Dit is vaak (lees: meestal) zonder toestemming van de afgebeelde persoon, wat vaak zeer verstrekkende gevolgen heeft voor de personen die hier slachtoffer van worden.
Hoe werkt het?
Het maken van valse naaktbeelden met behulp van AI vereist in principe toegang tot bestaande beelden van het slachtoffer, zoals foto’s of video’s die publiekelijk beschikbaar zijn via sociale media of andere platforms. Deze beelden worden vervolgens gevoed in een deep learning-model dat het gezicht van de persoon analyseert en naadloos invoegt in bestaande naaktfoto’s of pornografisch materiaal. Het resultaat is een foto of video die akelig realistisch kan zijn.
Aanvankelijk was het creëren van zulke deepfakes technisch uitdagend en alleen toegankelijk voor mensen met geavanceerde kennis van AI. Echter, dankzij de ontwikkeling van gebruiksvriendelijke software en apps is het proces nu toegankelijk voor een veel breder publiek, wat de verspreiding van deze schadelijke inhoud versnelt.
De maatschappelijke gevolgen
Het verspreiden van valse naaktbeelden heeft verwoestende gevolgen voor de slachtoffers. Slachtoffers ervaren vaak schaamte en vernedering, vooral wanneer de beelden op grote schaal online worden gedeeld. De permanente aard van het internet maakt het voor slachtoffers vrijwel onmogelijk om volledige controle te krijgen over de verspreiding van de beelden.
Naast de emotionele en mentale impact kan het ook leiden tot reputatieschade, verlies van werk en persoonlijke relaties. Voor veel slachtoffers is de schade niet tijdelijk. Zelfs nadat de beelden zijn verwijderd, blijft de impact voelbaar omdat deze content voortdurend kan opduiken.
Juridische implicaties en uitdagingen
Hoewel de maatschappelijke schade van valse naaktbeelden evident is, loopt de juridische reactie achter op de technologische ontwikkelingen.
In ons Strafwetboek wordt een onderscheid gemaakt tussen gedeeltelijke en volledige deepnudes. Gedeeltelijke deepnudes, zijnde beelden die slechts gedeeltelijk werden gemanipuleerd, kunnen onder het misdrijf voyeurisme vallen. Dit misdrijf wordt bestraft met een gevangenisstraf van 6 maanden tot 5 jaar. Volledige deepnudes daarentegen, zijnde beelden die volledig gemanipuleerd werden, kunnen gecategoriseerd worden als het misdrijf van verspreiding van beelden van seksueel misbruik van minderjarigen indien het gaat over de beeltenis van een minderjarig persoon. Dit misdrijf wordt bestraft met een opsluiting van 5 tot 10 jaar en met een geldboete van 500 euro tot 10000 euro.
Een van de grootste uitdagingen in de bestrijding van deepfake pornografie is de snelheid en anonimiteit waarmee deze beelden kunnen worden gemaakt en verspreid. Websites en sociale mediaplatforms hebben vaak te maken met een enorme hoeveelheid content, waardoor het voor hen moeilijk is om valse naaktbeelden effectief en tijdig te detecteren en te verwijderen.
In sommige landen, zoals het Verenigd Koninkrijk en de Verenigde Staten, worden er al stappen ondernomen om deepfake-wetgeving in te voeren die specifiek gericht is op het gebruik van AI voor schadelijke doeleinden. Ook in de EU wordt er steeds meer aandacht besteed aan de juridische bestrijding van deepfakes, maar wetgevers hollen achter de technologische ontwikkelingen aan.
Conclusie
Het gebruik van AI voor het maken en verspreiden van valse naaktbeelden is een groeiend fenomeen dat diepe maatschappelijke en juridische implicaties heeft. De schade aan slachtoffers is enorm en de juridische reactie is tot nu toe ontoereikend. Terwijl er stappen worden gezet om dit destructief gebruik van AI aan te pakken, blijft het cruciaal dat overheden, techbedrijven en de samenleving samenwerken om deze vorm van digitale intimidatie te bestrijden.
Bent u slachtoffer van dit soort feiten en heeft u de bijstand nodig van een gespecialiseerd zedenadvocaat? Of heeft u een uitnodiging tot verhoor gekregen omtrent dit onderwerp? Contacteer ons dan via info@bannister.be of op 03/369.28.00