Artikkel
Slik kan du avsløre KI-bilder selv
Kunstig intelligens har gjort det mye enklere å lage falske bilder. Slik kan du avsløre dem selv.
Denne artikkelen ble publisert for over 1 år siden og kan inneholde utdatert informasjon.
Muligheten for en nært forestående arrestasjon av Donald Trump har fått mye oppmerksomhet den siste tiden. Trump skrev selv på Truth Social at han skulle bli arrestert på tirsdag. Truth Social er et sosialt medium som ble grunnlagt av Donald Trump i 2021.
De siste dagene har det blitt publisert en rekke bilder som skal vise arrestasjonen av den tidligere presidenten, på Twitter. Ingen av bildene er ekte. I flere av meldingene der bildene først ble lagt ut, blir det gjort tydelig at bildene er manipulerte. Men denne konteksten er ikke alltid tydelig når bildene deles videre.
Nye modeller for kunstig intelligens
Det siste året har det skjedd viktige fremskritt innen kunstig intelligens (KI). Spesielt har såkalt generativ KI har fått et gjennombrudd. Den avanserte chat-roboten Chat-GPT er trolig verktøyet som har fått mest oppmerksomhet. Denne kan generere nye tekster ved bruk av statistikk og store mengder data.
Det finnes også flere modeller som kan lage bilder basert på store mengder treningsdata. Bildene finnes ikke fra før. Det lages nye bilder hver gang brukerne gir modellen nye instruksjoner.
Lages gjennom enkel spørring
Dette skjer i praksis ved at brukerne gir noen korte instruksjoner til KI-modellen, der de beskriver hvordan de ønsker at bildet skal se ut. Det kan for eksempel være instruksjoner som dette: «Trump arrested by the police in New York, photorealistic» (Trump arrestert av politiet i New York, fotorealistisk).
Brukeren trenger ikke gjøre mer enn å formulere en slik beskrivelse, for at KI-modellen skal lage bilder som ligner på bildene i denne artikkelen.
Det at brukere uten designkompetanse enkelt kan lage sofistikerte illustrasjoner og relativt fotorealistiske bilder, har skapt bekymringer blant illustratører, som frykter å bli arbeidsledige.
Modellene er trent opp på store mengder bilder og illustrasjoner av ekte kunstnere og fotografer. Enkelte rettighetshavere mener dette er i strid med opphavsretten, og det er varslet en rekke søksmål mot flere av selskapene som tilbyr denne teknologien.
Ny versjon av kraftig verktøy
I dag finnes det flere ulike modeller som kan benyttes til å generere slike bilder. Én av disse er Midjourney, som kom i en ny versjon 15. mars. Den femte versjonen av tjenesten utgjør en ganske stor forbedring fra tidligere versjoner.
I tillegg til å lage mer realistiske bilder generelt, er den også blitt bedre på å generere hender. Tidligere versjoner av Midjourney og flere andre modeller har slitt med å få til dette.
Slik kan du avsløre KI-genererte bilder
Manipulerte bilder og bilder som blir brukt i en annen kontekst enn den opprinnelige, er ikke noe nytt. Men det er først helt nylig at man har kunnet generere nye, realistiske bilder på sekunder, gjennom enkle beskrivelser.
Flere av teknikkene som kan benyttes for å avsløre gamle forfalskninger, kan heldigvis også benyttes på KI-genererte bilder. I tillegg finnes det noen spesifikke tips som er ekstra relevante for KI-genererte bilder.
1. Sjekk om detaljene er konsistente
Dersom det finnes flere bilder av samme hendelse, kan du se om du finner forskjeller som ikke gir mening. I de genererte bildene av Trump, som skal vise samme hendelse, er han for eksempel ikledd slips av ulike farger. Det er rimelig usannsynlig at den tidligere presidenten ville byttet slips midt under en arrestasjon.
2. Se etter klassiske KI-tegn
Selv om teknologien med å generere bilder er kommet langt, er den fortsatt ikke perfekt. Kontrasten i bildene kan fremstå som rar, og de kan få et filmatisk eller dataspillaktig preg. Midjourney 5 klarer å lage hender bedre enn tidligere versjoner, men de kan fortsatt se rare ut. Dette er også tilfellet med enkelte av bildene fra den angivelige Trump-arresten:
Det har imidlertid skjedd store fremskritt innen generativ KI på kort tid. Derfor er det ikke sikkert du kan skille mellom KI-genererte bilder og vanlige bilder med det blotte øye i fremtiden.
3. Bruk omvendte bildesøk
Faktisk.no har skrevet flere artikler (1, 2) om hvordan du kan bruke reverserte bildesøk for å finne mer informasjon om et bilde. Dette gjør du ved å søke på selve bildet i en søkemotor.
Når vi søker på enkelte av Trump-bildene, får vi blant annet treff på en artikkel som forklarer at flere av disse bildene er falske.
4. Sjekk nyhetsnettsteder
For spektakulære hendelser, som en dramatisk arrestasjon av Donald Trump, kan det være nok å sjekke tradisjonelle medier.
Dersom du ikke finner spor av arrestasjonen verken på norske eller store internasjonale medier, er dette en klar indikasjon på at hendelsen ikke er reell. Hvis hendelsen var ekte, ville det ikke tatt lang tid før den ble plukket opp og fikk massiv omtale.
5. Prøv spesialverktøy for KI-bilder
Det finnes egne programmer som forsøker å analysere seg frem til om et bilde er generert av kunstig intelligens eller ikke. Disse ser imidlertid ikke ut til å fungere spesielt godt på nye bilder generert av Midjourney 5. Dette kan skyldes at Midjourney 5 er så nytt at verktøyene ikke er tilpasset denne ennå.
Faktisk.no har testet ut denne offentlige KI-detektoren ved flere anledninger:
Man kan også finne flere slike detektorer på nettet, men verktøyene gjetter feil svært ofte og de kan derfor ikke brukes ukritisk.
Endringslogg
-
La til følgende formulering:I flere av meldingene der bildene først ble lagt ut, blir det gjort tydelig at bildene er manipulerte. Men denne konteksten er ikke alltid tydelig når bildene deles videre.
-
Krediterte Eliot Higgins for et av bildene, som stammer fra hans Twitter-konto.
-
Oppdatert tittel fra: «Falske bilder av Trump-arrestasjon sprer seg på Twitter» til «Slik kan du avsløre KI-bilder selv».
-
Tok bort to lenker til KI-detektorer som ikke lenger fungerte, og erstattet med en annen.