Debatt

IT-ekspert: Blir nakenbildene av Taylor Swift hendelsen som framskynder en lovgivning om deepfakes?

For ikke lenge siden gikk en rekke nakenbilder av verdensstjernen Taylor Swift viralt. Men selv om bildene forestiller Taylor Swift, er de egentlig KI-genererte deepfakes. Og her blir lovgivningen uklar. Når ligner et bilde av noen så mye at det er ulovlig å dele det uten samtykke? skriver Jelle Wieringa, spesialist innen IT-sikkerhetsadferd i Knowbe4.

Den teknologiske utviklingen stiller helt nye krav til lovverket, retningslinjene og rettighetene, og når vi står overfor noe nytt, skal det ofte en eller flere store hendelser til for å få oss til å ta stilling til hvor grensene våre går. Vi får inderlig håpe at Taylor Swift-saken kan sparke i gang en svært påkrevd diskusjon om cyberkriminalitet, mener IT-ekspert Jelle Wieringa.
Den teknologiske utviklingen stiller helt nye krav til lovverket, retningslinjene og rettighetene, og når vi står overfor noe nytt, skal det ofte en eller flere store hendelser til for å få oss til å ta stilling til hvor grensene våre går. Vi får inderlig håpe at Taylor Swift-saken kan sparke i gang en svært påkrevd diskusjon om cyberkriminalitet, mener IT-ekspert Jelle Wieringa.Foto: AP Photo/Toru Hanai
Dette er et debattinnlegg, og innholdet står for skribentens regning. Alle innlegg hos Altinget skal overholde presseetiske regler.

I slutten av januar gikk en serie nakenbilder av verdensstjernen Taylor Swift viralt etter å ha blitt delt på det sosiale mediet X. Innholdet ble fjernet etter 17 timer, men de mange bildene rakk likevel å bli sett 47 millioner ganger, og selv om bildene ikke lenger er tilgjengelige på X, kan de fremdeles enkelt søkes fram fra diverse plattformer.

Men de mange nakenbildene var i virkeligheten ikke av Taylor Swift. Derimot var de såkalte deepfakes, altså KI-genererte bilder, og selv om de ligner Swift, så er det ikke henne. Og her blir grensene plutselig svært flytende, for hvor mye skal bildene ligne på Taylor Swift før det er juridisk snakk om en forbrytelse?

De siste årene har det skjedd en voldsom økning i antallet seksuelle overgrep på sosiale medier – spesielt når det gjelder kvinner. Dette omfatter sjikane, stalking, hevnporno og sextortion (økonomisk utpressing mot å ikke dele intime bilder) med mer. Og nå også deepfakes, der man KI-genererer intimt eller direkte pornografisk materiale ved bruk av uskyldige bilder fra spesielt sosiale medier.

KI-porno uten samtykke er forferdelig, men er det ulovlig?

De fleste kan nok være enige om at det å stjele andres bilder, for å gjøre dem om til nakenbilder eller regulær porno, er moralsk forkastelig og uetisk. Men det helt store spørsmålet er: Er det ulovlig?

Og nei, mange av disse handlingene, som de fleste mennesker veldig raskt vil kalle forbrytelser, er faktisk ikke ulovlige – i hvert fall ikke på den måten du tror.

For selv om tendensen ikke er helt ny lenger, henger lovgivningen langt bak den teknologiske utviklingen, og det gjør det vanskelig for ofrene for digitale, seksuelle overgrep å ta opp kampen mot sine overgripere. Den eksisterende lovgivningen er rett og slett ikke spesifikk nok. Og den tar ikke høyde for mange av nyansene som finnes i forbindelse med for eksempel hevnporno, sextortion eller deepfake porno. 

Les også

Ofrene blir fanget av upresis lovgivning

I Norge har vi sett noen eksempler på denne typen saker, og bakmennene har ganske riktig blitt dømt. Men de har blitt dømt på grunnlag av forskjellige lover som ikke har noe med kunstig intelligens å gjøre.

De kvinner (og menn) som får stjålet sine bilder, for eksempel fra sosiale medier, og plutselig ser seg selv i en pornofilm eller lignende, kan ikke anmelde forbrytelsen som brudd på en lov om KI-nakenbilder eller deepfake porno. I stedet må de sette sammen anmeldelsen sin med utgangspunkt i forskjellige lover, som straffelovens paragraf om deling av krenkende bilder, krenking av privatlivets fred eller personopplysningsloven basert på GDPR – eller andre spesifikke lover i sitt land. 

Mange av disse handlingene, som de fleste mennesker veldig raskt vil kalle forbrytelser, er faktisk ikke ulovlige.

Jelle Wieringa
Spesialist innen IT-sikkerhetsadferd

I loven om deling av bilder fremkommer det at «Med bot eller fengsel inntil 1 år straffes den som uberettiget gjør tilgjengelig for en annen bilde, film eller lydopptak av krenkende eller åpenbart privat karakter, for eksempel av noens seksualliv eller intime kroppsdeler, noen som utsettes for vold eller andre ydmykelser, eller noen som befinner seg i en svært sårbar eller utsatt situasjon. Grovt uaktsom overtredelse straffes med bot eller fengsel inntil 6 måneder». Ved grov overtredelse av dette kan man straffes med fengsel inntil 2 år.

Problemet er bare at deepfakes, akkurat som i tilfellet med Swift, ikke er bilder av et annet menneske. De bare ligner på et annet menneske. Og plutselig blir en politianmeldelse og en eventuell domfellelse en komplisert sak, for hvor mye skal noe ligne før det representerer den fornærmede i en slik grad at det er straffbart? Og er den nåværende og mer generelle strafferammen i overenstemmelse med de spesifikke forbrytelsene som blir begått, når det blir generert nakenbilder og pornofilm av kvinner og mindreårige piker?

For selvfølgelig brukes teknologien også til barneporno.

Sommeren 2023 opplevede flere titalls mindreårige piker fra Spania at det ble distribuert KI-genererte nakenbilder av dem på barneskolen de gikk på. Pikene var mellom 12 og 14 år, og noen av dem opplevde til og med å bli kontaktet på sosiale medier der en bakmann forsøkte å presse dem til å overføre penger for ikke å dele bildene.

Kan Swift-saken bli et vendepunkt?

I saker som den som gikk ut over de spanske skolebarna eller den som rammet Taylor Swift, synes behovet for økt oppmerksomhet i forbindelse med digitale, seksuelle forbrytelser fullstendig åpenbart.

Men kanskje det likevel kan komme noe godt ut av forferdelige historier som disse.

Den teknologiske utviklingen stiller helt nye krav til lovverket, retningslinjene og rettighetene, og når vi står overfor noe nytt, skal det ofte en eller flere store hendelser til for å få oss til å ta stilling til hvor grensene våre går. Vi får inderlig håpe at Swift-saken kan sparke i gang en svært påkrevd diskusjon og en avgjørelse om et veldig stort og svært presserende problem. 

Vi får inderlig håpe at Swift-saken kan sparke i gang en svært påkrevd diskusjon og en avgjørelse om et veldig stort og svært presserende problem.

Jelle Wieringa
Spesialist innen IT-sikkerhetsadferd

EU planlegger lovendring fra 2027

EU-kommisjonen fremmet allerede i 2022, i kjølvannet til #MeToo, et lovforslag som skulle gjøre det mulig for EU-landene å slå hardere ned på blant annet overgrep mot kvinner på nett. Intensjonen er å kunne ta en tøffere tilnærming til cyberkriminalitet som cyberstalking, cybersjikane og deling av intime bilder uten samtykke – inklusive deepfakes.

Og endringer i lovgivningen som bedre passer vår samtid, er det bruk for. Akkurat som at Facebooks Cambridge Analytica-skandale førte til ny og relativt rask lovgivning om deling av personlige data, kan vi bare håpe at vi ser et lignende utfall av KI-bildene av Taylor Swift. 

Vi så en eksplosjon i mengden av eksplisitte og pornografiske deepfakes i 2023, og man må bare forvente at dette er en tendens som kommer til å øke framover.

Som spesialist innen IT-sikkerhetsadferd er det min veldokumenterte overbevisning at tydeligere og mer nyansert lovgivning på området er en absolutt nødvendighet. Og så må det bli en aktiv styrking som gjør det mulig å håndheve det skjerpede lovverket – både nasjonalt, men også på internasjonalt nivå. 

Les også


E-postPolitikk har aldri vært viktigere

Få GRATIS nyheter fra Norges første rendyrkede politiske redaksjon

0:000:00