Amerikaanse staten worstelen met het definiëren van ‘deepfakes’ en verwante termen, terwijl technisch complexe wetgeving toeneemt

Bij gebrek aan federale richtlijnen met betrekking tot het verbod op niet-consensuele, door AI gegenereerde intieme afbeeldingen (in de volksmond bekend als ‘deepfake-pornografie’), nemen veel Amerikaanse staatswetgevers het heft in eigen handen door een reeks wetten aan te nemen die zijn ontworpen om het groeiende probleem aan te pakken, dat vrouwen en meisjes onevenredig veel schade berokkent.

Volgens de consumentenbelangenorganisatie Public Citizen, die vorige week een nieuwe wetgevingstracker lanceerde, hebben 21 staten nu minstens één wet aangenomen die de verspreiding van ‘intieme deepfakes’ waarop volwassenen (in tegenstelling tot minderjarigen) staan ​​afgebeeld die geen toestemming hebben gegeven voor de creatie van de content, strafbaar stelt of een burgerlijk recht op actie hiertegen instelt.

Hoewel de meeste van deze wetten dezelfde algemene doelstellingen hebben, zijn er opvallende verschillen in de manier waarop ze dit relatief nieuwe, technisch complexe fenomeen aanpakken.

Sommige staatswetgevers hebben er bijvoorbeeld voor gekozen om bestaande strafwetten met betrekking tot seksuele uitbuiting of de niet-consensuele verspreiding van intieme afbeeldingen (NDII) te wijzigen om ‘gemoderniseerde’ terminologie over deepfakes op te nemen (zie NY S01042), terwijl andere geheel nieuwe wetten hebben voorgesteld die niet-consensuele door AI gegenereerde content vaststellen als een vorm van fraude (NH HB 1432) of een inbreuk op de privacy (CA AB 602).

De teksten van deze uiteenlopende wetsvoorstellen laten ook zien dat veel staten verschillende – en in sommige gevallen conflicterende – juridische definities hebben aangenomen voor enkele van de fundamentele termen en concepten die daarin voorkomen, waaronder “deepfakes”, “kunstmatige intelligentie” en “synthetische media”. Hoewel beslissingen over de keuze van terminologie en juridische definities voor sommigen misschien vreemd of onbelangrijk lijken, spelen ze een sleutelrol bij het vaststellen en beschermen van de rechten van slachtoffers.

Bovendien kunnen inconsistenties tussen staten met betrekking tot deze termen leiden tot onvoorspelbare en ongunstige uitkomsten voor degenen die wel juridische stappen ondernemen onder deze nieuw ingevoerde wetten, waarvan er veel nog grondig door de rechtbank moeten worden getest. Met dat in gedachten, laten we eens kijken naar enkele van de belangrijkste termen die we gedefinieerd zien in de bestaande door AI gegenereerde intieme beeldwetten:

De uitdaging van het definiëren van ‘deepfakes’

De term “deepfake” is afkomstig van een inmiddels verwijderde Reddit-community van machine learning-enthousiastelingen, die in 2017 samenwerkten om “face swapping”-software te creëren die ze gebruikten om vrouwen die geen toestemming gaven digitaal in pornografische scènes te plaatsen, aldus Vice-verslaggever Samantha Cole. Ondanks de duistere oorsprong hebben veel staten ervoor gekozen om het woord op te nemen in hun gerelateerde wetgeving, met verschillende mate van technische specificiteit.

De wet van Texas (SB 1361) weerspiegelt bijvoorbeeld vroege algemene opvattingen over het woord, door een deepfake te definiëren als “een video, gemaakt met de bedoeling om te misleiden, die lijkt af te beelden dat een echte persoon een handeling uitvoert die in werkelijkheid niet heeft plaatsgevonden.”

In de jaren sinds de popularisering van apps voor het bewerken van afbeeldingen met “gezichtswisseling” of “nudificeren”, is “deepfake” echter uitgebreid met gemanipuleerde (of, zoals sommigen zouden zeggen, “gephotoshopte”) stilstaande beelden en zelfs gefabriceerde audioclips. De wet van Minnesota (HB 1370) weerspiegelt deze verschuiving door deepfake te definiëren als “elke video-opname, film, geluidsopname, elektronisch beeld of foto, of elke technologische weergave van spraak of gedrag dat daarvan wezenlijk is afgeleid.”

Zowel Californië als Minnesota hebben gespecificeerd dat een deepfake zo “realistisch” moet zijn dat een “redelijk” persoon voor de gek gehouden kan worden door te geloven dat het authentiek is, zodat de maker ervan aansprakelijk kan worden gesteld of beschuldigd van een misdaad. Dit is een belangrijke vereiste, omdat het waarschijnlijk voorkomt dat voor de hand liggende Seinfeld-parodieën en e-cards voor de feestdagen gronden voor rechtszaken worden, maar het kan ook de zaken compliceren voor slachtoffers van misbruik wiens afbeeldingen worden gebruikt om expliciete content te creëren die technisch gezien grof is of duidelijk als nep is gelabeld, en daarom door de rechtbank mogelijk niet als “realistisch” wordt beschouwd.

Hier zijn een paar voorbeelden van de volledige definities van “deepfake” in verschillende aangenomen staatswetten:

Verder kijken dan ‘deepfakes’

Als reactie op de toenemende alomtegenwoordigheid van het woord ‘deepfake’ hebben belangenorganisaties zoals het Cyber ​​Civil Rights Initiative (CCRI) beleidsmakers afgeraden de term te gebruiken, gezien de ingewikkelde geschiedenis ervan.

“Waar mogelijk proberen we terminologie te vermijden die is bedacht door daders van misbruik en in plaats daarvan proberen we termen te gebruiken die de aard en de schade van het misbruik nauwkeurig weergeven”, schreef CCRI-directeur Dr. Mary Anne Franks in een publicatie voor de National Domestic Violence Hotline.

Sommige staten hebben geprobeerd dit advies ter harte te nemen door bredere termen te gebruiken, zoals ‘synthetische media’, wat een soort overkoepelende term is geworden die bedoeld is om alle inhoud (video’s, afbeeldingen, enz.) te omvatten die door machines wordt gegenereerd of gemanipuleerd.

Traditionelere (en minder buzzword-achtige) synoniemen voor deepfake zijn onder meer ‘digitale weergave’ en ‘computer gegenereerde afbeelding’.

Nog andere staten hebben ervoor gekozen om de aanstootgevende content te labelen op een manier die specifiek is voor seksueel expliciete afbeeldingen, vermoedelijk in een poging om te voorkomen dat AI-gegenereerde creaties van een meer gezinsvriendelijke variëteit worden onderdrukt. Termen binnen deze categorie omvatten “digitaal gewijzigde seksuele afbeelding” en “namaak intieme afbeelding”, waarvan de definities hieronder staan:

Op dit moment is het nog onduidelijk of het gebruik van andere termen dan “deepfake” specifieke juridische voordelen zal opleveren voor aanklagers die zaken behandelen die verband houden met deze pas vastgestelde misdaden, naast het succesvol vermijden van een term die is bedacht door enkele van de vroegst bekende daders van het fenomeen.

Opvallend is dat de door CCRI aanbevolen term, “seksueel expliciete digitale vervalsingen”, momenteel niet voorkomt in relevante wetten op staatsniveau, hoewel deze wel is opgenomen in enkele federale wetsvoorstellen, waaronder de Disrupt Explicit Forged Images And Non-Consensual Edits (DEFIANCE) Act.

Wat is “kunstmatige intelligentie” ook alweer?

Zoals u in de bovenstaande grafieken kunt zien, vermelden verschillende van de nieuw aangenomen wetten het gebruik van “kunstmatige intelligentie” als een hulpmiddel of een middel om de betreffende beledigende content te creëren. Nauwkeurige analyse laat echter zien dat er maar weinig van hen daadwerkelijke definities van deze modieuze uitdrukking bevatten. Dit komt waarschijnlijk door een paar redenen.

Ten eerste is AI berucht moeilijk te definiëren. Matt O’Shaughnessy, ambtenaar Buitenlandse Zaken en doctor in machine learning bij het Department of State, schreef in 2022 dat zelfs “subtiele verschillen in definities – evenals de overlappende en beladen terminologie die verschillende actoren gebruiken om vergelijkbare technieken te beschrijven – grote gevolgen kunnen hebben voor enkele van de belangrijkste problemen waarmee beleidsmakers worden geconfronteerd.” Dr. O’Shaughnessy betoogde dat dit komt doordat de term vaak te veel wordt gebruikt, zowel door relatief niet-technische onderzoekers als door marketeers die hopen zelfs eenvoudige statistische modellen een aura van sci-fi-mystiek te geven. En de trend om elk softwareproduct te labelen als “AI-aangedreven” is alleen maar erger geworden in de jaren sinds de openbare lancering van OpenAI’s ChatGPT en andere populaire grote taalmodellen.

Daarnaast hebben rechtsgeleerden gesteld dat vasthouden aan te specifieke of te technische juridische definities voor complexe concepten (zoals AI) riskant kan zijn, gezien de snel voortschrijdende aard van de technologie. Met andere woorden, als beleidsmakers niet oppassen, lopen ze het risico definities in de wet te verankeren die binnen enkele maanden, zo niet weken, verouderd zijn.

Er zijn echter een paar staten die ervoor hebben gekozen om ondanks deze risico’s toch definities van “AI” te geven. Hier zijn een paar voorbeelden:

De clausule ‘opzet tot schade’

De belangrijkste niet-definitieverschillen tussen deze staatswetten zijn echter de verschillende benaderingen van ‘kwaadaardige bedoelingen’, een juridisch concept dat verwijst naar de vermoedelijke bedoelingen van de dader op het moment dat hij de beledigende inhoud openbaart.

Terwijl Washington (HB 1999), Iowa (HF 2440) en een minderheid van andere staten de publicatie van deepfake intieme beelden hebben gecriminaliseerd in elk Zo is de wet in Georgia (SB 337) alleen van toepassing “wanneer de transmissie of post intimidatie is of financieel verlies veroorzaakt voor de afgebeelde persoon, en geen legitiem doel dient voor de afgebeelde persoon…” Op dezelfde manier bestraft Hawaii (SB 309) alleen expliciete AI-inhoud die wordt vrijgegeven “met de bedoeling om de afgebeelde persoon aanzienlijk te schaden met betrekking tot de gezondheid, veiligheid, zaken, roeping, carrière, opleiding, financiële toestand, reputatie of persoonlijke relaties van die persoon of als een daad van wraak of vergelding…”

Hoewel deze clausules bedoeld zijn om beperkingen op basis van de vrijheid van meningsuiting te beperken, hebben voorstanders van overlevenden en juridische experts gewaarschuwd dat ze een maas in de wet kunnen creëren die daders kunnen uitbuiten door te beweren dat ze niet de wens hadden om de persoon wiens afbeelding ze hebben gecoöpteerd voor expliciete content te intimideren of te schaden. Nieuwsverslaggeving — met name uit Zuid-Korea, waar beleidsmakers worden geconfronteerd met een “crisis” van AI-content die populaire muziekartiesten target — toont aan dat veel deepfake-makers Doen denken er ook zo over en beweren vaak dat ze intieme beelden creëren van vrouwen (vooral beroemdheden) die ze bewonderen of waar ze zich tot aangetrokken voelen, in plaats van beelden van vrouwen die ze online willen lastigvallen.

Het probleem met inconsistentie

Hoewel wettelijke bescherming op staatsniveau tegen door AI gegenereerde intieme afbeeldingen ongetwijfeld te verkiezen is boven helemaal geen bescherming, zal het feit dat deze en andere termen per staat zo verschillend worden genoemd en gedefinieerd, waarschijnlijk resulteren in 1) wijdverbreide verwarring onder slachtoffers en 2) aanzienlijke verschillen in de manier waarop de wetten in de praktijk worden toegepast en gehandhaafd.

Een soortgelijk probleem bestaat al met betrekking tot niet-consensuele pornografie (in de volksmond bekend als “wraakporno”), die in 48 staten en DC verboden is, maar nog steeds niet federaal gereguleerd is. Al meer dan tien jaar betogen juridische geleerden dat de grote verschillen in juridische strengheid over staatsgrenzen heen hebben geleid tot een ongelijk systeem waarin slachtoffers in sommige staten meer bescherming tegen misbruik genieten dan in andere. Bovendien heeft deze “verwarrende lappendeken” van wetten staten ervan weerhouden om platforms die wereldwijd beledigende content verspreiden, te verplichten zich te houden aan lokale wetshandhavingsinspanningen. Met andere woorden – en zoals anderen hebben opgemerkt – het internet wordt niet beperkt door staatsgrenzen.

Zonder federale wetgeving lijken deepfake-wetten op weg om een ​​soortgelijk lot te ondergaan. Zoals de zaken er nu voor staan, ondanks het feit dat beide staten nu deepfake-pornografiewetten hebben, zou een jonge vrouw wiens Instagram-profielfoto is gebruikt om een ​​expliciete afbeelding te genereren, waarschijnlijk juridische stappen kunnen ondernemen in Californië, maar niet in Texas. Als de resulterende afbeelding niet als “realistisch” wordt beschouwd, kan deze in Indiana als crimineel worden beschouwd, maar niet in Idaho of New Hampshire. Als de persoon die de afbeelding heeft gegenereerd overtuigend beweert dat hij dit uit genegenheid heeft gedaan in plaats van kwaadaardigheid, kan het slachtoffer gerechtigheid zoeken in Florida, maar niet in Virginia.

Er blijven maar hypothesen ontstaan, maar dit alles suggereert dat intieme deepfakes mogelijk slechts de nieuwste versie zijn van de aanhoudende ontmenselijking van vrouwen en meisjes in de digitale wereld. Dit is een groot probleem dat het Congres tot nu toe heeft geweigerd op een zinvolle manier aan te pakken.

You May Also Like

More From Author