Teknologi

Det ender ikke med Taylor Swift: Hvordan beskytte deg mot AI Deepfakes og seksuell trakassering

Алекс Рейн 24 Февраля, 2026
247continiousmusic

Forrige uke, seksuelt eksplisitte dypfalske bilder av Taylor Swift angivelig laget bruk av kunstig intelligens ble spredt på tvers av sosiale medier. Det var bare det siste - og mest profilerte - eksemplet på de økende farene ved dype forfalskninger og digital trakassering.

Swift er ikke den første kvinnen dette har skjedd med, og hun vil heller ikke være den siste. Det er trygt å si at nesten alle andre ofre for en pornografisk deepfake har færre ressurser enn en milliardær popstjerne med millioner av fans rundt om i verden som er veldig online og erfarne om det. Men det faktum at dette kan skje til og med Taylor Swift har skapt fornyet oppmerksomhet rundt problemet og til et bredere publikum. Det har til og med startet føderal lovgivning for å bekjempe misbruket, sier talsmenn.

Tirsdag introduserte amerikanske senatorer bipartisan Forstyrr loven om eksplisitte forfalskede bilder og redigeringer uten samtykke fra 2024 (DEFIANCE Act) for å adressere og avskrekke dyp, falsk pornografi uten samtykke. Lovforslaget vil tillate ofre for digital forfalskning - skapt ved bruk av programvare, maskinlæring, kunstig intelligens eller andre datagenererte eller teknologiske midler for å feilaktig fremstå som autentiske - å saksøke gjerningsmennene sivilt, og gi dem en mulighet til å søke rettferdighet for første gang.



Ofre for dypfalsk pornografi uten samtykke har ikke hatt mye suksess med å saksøke folk som lager, distribuerer eller ber om dypfalsk pornografi, ifølge Omny Miranda Martone, som jobbet med lovgivere om lovforslaget som grunnlegger og administrerende direktør for Forening for forebygging av seksuell vold (SVPA) . Teknologien er fortsatt ganske ny, og som med andre samfunnsspørsmål angående teknologi, må lovene ta igjen. I mellomtiden har teknologien avansert for å gjøre det enda enklere for alle å lage AI-genererte deepfakes.

Mengden av seksuell vold mot hverdagslige individer har skutt i været.

«Inntil for to år siden. . . noen trengte å ha en kraftig datamaskin, de trengte å vite mye om teknologi og kunne jobbe med et forvirrende system og potensielt til og med bygge systemet selv. Og de trengte mange bilder av offeret for at det skulle se realistisk ut, forklarer Martone. Men AI-teknologien har utviklet seg betydelig, og det er på det punktet hvor hvem som helst kan lage virkelig realistisk utseende uten samtykke, dypfalske pornografi ved å bruke bare ett eller to bilder. De trenger ikke å vite mye om teknologi, de kan bare gå inn på en app eller et nettsted på telefonen eller datamaskinen og gjøre det i løpet av sekunder.

Det er oppsiktsvekkende i dag, gitt at innen 2017, én av åtte brukere av sosiale medier rapporterte å være mål for pornografi uten samtykke og én av 20 voksne på sosiale medier hadde vært gjerningsmenn, ifølge Cyber ​​Civil Rights Initiative .

Gitt disse teknologiske fremskrittene - og det faktum at alle med internettilgang kan enkelt lage det - har mengden av seksuell vold mot hverdagslige individer skutt i været, sier Martone. Kjendiser hadde vært det vanligste målet på grunn av tilgjengeligheten til bildene deres. Men nå trenger [gjerningsmenn] bare et par bilder som de kan få fra noens LinkedIn eller sosiale medier eller selskapets nettsted, forklarer Martone.

Dette er uforholdsmessig skadelig for kvinner, ifølge Margaret Mitchell, den tidligere medlederen for Googles team for etisk kunstig intelligens. «Det er ekstremt krenkende, det har en ekstremt traumatisk psykologisk effekt på deg hvis du er et offer for det. Det er også objektiverende, så det påvirker andre mennesker til å se deg gjennom en seksuell linse i motsetning til en profesjonell linse. Da betyr det at det kan påvirke mulighetene, sier hun til 247CM.

«Kvinner sliter allerede med å bli sett på som ledere, for å bli tatt på alvor på arbeidsplassen. Når denne typen innhold flyter rundt, kan det påvirke hvordan kvinner kan bli forfremmet, komme inn i flere lederstillinger,» fortsetter Mitchell, som nå er etikksjef ved Hugging Face, en åpen plattform for AI-byggere. Det siver inn i så mange ting på en måte som noen ganger kan være veldig vanskelig å spore, men som fundamentalt påvirker hvordan du ser deg selv, hvordan du føler om deg selv og hvordan andre mennesker behandler deg.

I Swifts tilfelle stammer bildene fra 4chan og en gruppe på Telegram som brukes til å distribuere voldelige bilder av kvinner, rapporterte 404 Media . Designer, en gratis Microsoft AI-generator, brukes ofte til å produsere innhold uten samtykke, ifølge utsalgsstedet. Som svar på rapporteringen sa Microsoft lukket et smutthull som tillot Designer å lage AI-generert kjendisporno.

Men i mellomtiden flommet bildene raskt over X, tidligere kjent som Twitter. I et uvanlig eksempel på innholdsmoderering i Elon Musk-tiden, innførte X en midlertidig blokkering av et søk på «Taylor Swift», som bremset spredningen, men det var ikke i stand til å fjerne alle bildene, CBS News rapportert . Xs svar fulgte legioner av Swifties som rapporterte innleggene og krevde at nettstedet skulle fjerne dem. Det kom også etter at innleggene allerede var utbredt - en hadde allerede oppnådd 45 millioner visninger, 24 000 retweets og hundretusenvis av likes og bokmerker på 17 timer før den verifiserte brukerens konto ble suspendert, ifølge The Verge . Innen mandag 29. januar var blokkeringen utløpt.

Selv om SVPA har jobbet med Kongressen en stund – Martone sier at de sendte et åpent brev til fjoråret der de oppfordret dem til å ta på seg saken – ser det ut til at Martone ikke tok affære før Taylor Swift-nyhetene ble virkelig store.

Selv om du føler at ingen bryr seg om bildene dine, bryr AI seg.

Likevel er de fleste ofre for pornografi uten samtykke ikke høy profil. De fleste er kvinner og mange har marginaliserte identiteter, enten det er deres rase, etnisitet og/eller seksuelle legning. SVPA, for eksempel, har jobbet med en kvinne som var en høyskolestudent som trente på treningsstudioet da hun ble truffet av en mann, som hun avviste. Noen uker senere trakk et annet treningsmedlem kvinnen til side for å fortelle henne at mannen hun avviste hadde laget dypfalsk pornografi av henne - og hadde vist andre medlemmer på treningsstudioet og lagt det ut på Instagram, hvor hun kunne få det fjernet. Martone sier at de nylig har laget dypfalske porno av dem, gitt deres arbeid med problemet.

Uten lovgivning er det vanskelig å ta noen grep. Fordi det problematiske innholdet er erkjent som falskt, regnes det ikke som ærekrenkelse, legger Martone til.

Uansett bør vi som samfunn alle jobbe med å forhindre at innhold uten samtykke blir laget og delt, sier eksperter. Ideen om at problemet vokser og at det er umulig å legge ånden tilbake i flasken bør ikke fremme en følelse av uunngåelighet eller nummenhet.

For de som tror de aldri ville finne seg selv i denne typen situasjoner, understreker Mitchell også at teknologien har tillatt det å bli så vanlig at hvem som helst kan bli berørt.

Som Mitchell forklarer det: «Folk bør være klar over at alt innhold de legger ut på nettet potensielt kan bli feid opp av privatpersoner eller av selskaper for å bli brukt som en del av AI-opplæring. Så det er kanskje ikke sånn at et familiebilde på Facebook er noe allmennheten vil bry seg om. Men det er ikke spørsmålet. Spørsmålet er, vil dette innholdet bli plukket opp av et massivt teknologiselskap på en måte som kan bidra til å fremme objektiveringen av kvinner?'

Til syvende og sist er det teknologien du må være klar over og på vakt mot. Selv om du føler at ingen bryr seg om bildene dine, bryr AI seg, sier Mitchell. AI-systemer kan fortsatt feie dem opp, de kan fortsatt brukes til å feilrepresentere deg, og de kan fortsatt brukes i alle slags hevnsituasjoner, og alle slags situasjoner der du har noen som kommer til å være en ondsinnet skuespiller som det kan skade deg personlig.

Hvordan forebygge og bekjempe Deepfakes uten samtykke

    Lær deg selv slik at du kan forstå hva som skjer. Vit at deling av personlig informasjon på nettet potensielt er å dele denne informasjonen med offentligheten. «Det må være en slags reimagining eller re-forståelse av hva det er å dele innhold på nettet: når det er passende å dele ting og når det ikke er det. Det handler også om foreldre som snakker med barna sine om hvorfor det ikke er greit å lage dypfalske porno av klassekameratene sine, sier Mitchell. Støtt journalistikk. Det er viktig å vite hvilken rolle pressen spiller, for noen ganger er det som den eneste motvekten for virkelig problematisk oppførsel fra selskaper eller problematisk oppførsel som selskaper muliggjør, forklarer Mitchell. «For når det er dårlig presse som påvirker aksjene deres, påvirker det hva aksjonærene tenker, det påvirker hva venturekapitalistene tenker og hvor mye penger de kan få. Slik gjør vi endring. Vi har journalister som skriver om det. Bedrifter legger merke til det - det gjenlyder i hele markedet.' Vær en god digital tilskuer. Hvis noen lager eller deler pornografi uten samtykke med deg - deepfake eller ikke - ikke se på det, engasjer deg i det, del det eller til og med søk etter det på nettet, fordi det vil trene algoritmene til å gi mer av det til flere mennesker, sier Martone. Gjør en digital oversikt over bildet og informasjonen din på nettet. Sørg for at du er proaktiv når det gjelder å sjekke nettstedene der du legger ut bilder av ansiktet eller kroppen din. Bruk sikkerhetsfunksjonene som er tilgjengelige på hver side eller app, inkludert alt så grunnleggende som å sørge for at bare folk du kjenner kan se bildene dine på Facebook. Hvis noe skjer, sier Martone, meld fra til sidene umiddelbart. SVPA har en guide å ta ned innhold du ikke vil ha fra nettsteder, samt en guide til forebygge digital seksuell vold for innholdsskapere, men disse prinsippene kan brukes av alle. Du kan også finne det nyttig å se gjennom de omfattende ressursene som ligger på nettstedet til Cyber ​​Civil Rights Initiative, inkludert deres Ofte stilte spørsmål , Statens lover , og forskningsfunn . Se etter verktøy og apper som endrer eller beskytter bilder. Det er fortsatt et nytt område, men utviklere jobber med teknologi for å beskytte og forgifte bilder som er lagt ut på nettet, inkludert verktøy som Nattskygge . Mitchell sier at etter hvert som behovet vokser, vil flere og bedre verktøy bli utviklet for å bekjempe disse problemene.