
Kunstig intelligens har blitt den nye slagmarken for dem som ønsker å påvirke tankene dine.
Nyhetsbildet er både kaotisk og komplekst. Vi rekker ikke å fordøye hendelsene i Venezuela før vi er bekymret for Grønland og NATO, eller før vi skal tenke på Hormuz-stredet. Den rene mengden journalistikk, og alle kanalene den treffer oss i, kan være utmattende.
Parallelt med dette har det å gå til kunstig intelligens i et forsøk på å systematisere og forstå, blitt en økende trend. KI har blitt en viktig inngangsportal for å forstå verden for mange. Også i måten vi forholder oss til nyhetene på.
Får nyheter filtrert av KI
En undersøkelse fra Reuters Institute fant at 7% av oss bruker KI-chatboter for nyheter ukentlig - blant dem under 25 år er tallet på hele 15%. Videre viser undersøkelsen at KI seiler opp som en kilde folk ønsker å konsultere dersom de mistenker at noe de har sett på nett er feilinformasjon.
Det er godt mulig at disse tallene ikke fanger opp hele fenomenet, gitt at de fleste søkemotorer nå gir deg KI-svar som standardpakke. For ikke å snakke om alle som bare spør “Hva skjer med Hormuz” direkte inn i sin foretrukne chatbot.
De store språkmodellene trenes på menneskelig tekst, og mennesker driver med informasjonskrig.
Magnus Hoem Iversen
I mange tilfeller vil folk få servert korrekt informasjon fra pålitelige kilder i redaksjonelle medier. Men å spørre ChatGPT, Copilot eller Claude, vår tids nye Googling, kan også bli en gigantisk sårbarhet for oss.
Den intense informasjonskrigen har nemlig for lengst flyttet seg hit.
Når språkmodellene skal forklare deg hvordan verden henger sammen, og dermed hva du skal mene om den, løser de dette som de gjør med alle sine oppgaver: De finner ut av det mest sannsynlige neste ordet å generere, ut fra all den informasjonen de til da er trent på.
Informasjonsbrønnen KI-modellene drikker fra er den nye digitale slagmarken.
Plantet falsk sykdom
Før handlet det meste om å få desinformasjon blandet inn i redaksjonelle medier, og å pøse på med desinformasjon i folks strømmer i sosiale medier. Dette skjer fortsatt. Det nye er et mer direkte forsøk på å forgifte KI-tjenestenes informasjonsbrønn. Eksempler på at dette skjer er mange.
Gjennom å utnytte et smutthull i måten KI-ene henter vitenskapelige artikler på, klarte forskere å få chatboter til å ta den fiktive sykdommen bixonimania for god fisk. Og ikke bare det, råd og diagnoser ble delt ut for fote.
Hvis det er mulig å plante en falsk sykdom, er det også mulig å plante forklaringer om krig, energipolitikk eller renter, og få disse til å fremstå som nøytrale og autorative.
De snedige forskerne bak bixonimania-hysteriet benyttet presisjon. Det russiske Pravda-nettverket satser på mengde. De forsøker å virvle opp en stor mengde stoff, slik at usannheter sniker seg inn i informasjonsbitene chatbotene gir videre til brukerne. En rapport fra analyseselskapet Newsguard viste spor etter russisk propaganda i alle de ti chatbotene de undersøkte.
Og ja, du kan være trygg på at din favoritt-KI var på den listen.
Hvem setter spor i datagrunnlaget?
Å styre folks forståelsesrammer har alltid vært den våte drømmen til enhver propagandist. Derfor er måten chatboter fungerer på en perfekt match. KI spytter vanligvis ikke bare ut enkeltfakta, den setter informasjon sammen til tilsynelatende sammenhengende forklaringer.
Det kan bli skummelt når “hva” glir over i “hvorfor”, enten det er snakk om Hormuz-stedet, Palestina eller økonomi og rentepolitikk.
Den samlede konsekvensen av alle påvirkningsforsøkene er ikke nødvendigvis at folk faller for én konkret løgn, slik vi var vant til på internett i gode gamle dager (en hai er sett i Stavanger!), men når vi bruker KI til å forstå komplekse hendelser eller samle informasjon før egne avgjørelser.
Da risikerer vi å få forklaringer som fremstår gode og balanserte, men som egentlig bærer preg etter dem som har klart å sette flest spor i datagrunnlaget.
Før kjempet propagandistene om oppmerksomheten vår. Nå kjemper de i økende grad om mellomleddet vi bruker for å forstå.
Kompass eller våpen?
I mellomtiden får mange mye nytte av KI. En god slump av de spurte i Reuters-undersøkelsen ønsker seg også KI-funksjoner som sammendrag av nyheter, anbefalinger, eller muligheten til å snakke med en chatbot om nyheter. Denne utviklingen kommer bare til å fortsette, når flere redaksjonelle medier utvikler egne chatboter.
Disse ønskene viser at KI som forklaringsmotor har kommet for å bli. Men som vanlig har det skjedd raskt, og uten at vi helt tar inn over oss alle konsekvensene.
For hva skjer med meningsdannelse når KI får være informasjonsbutleren vår? Da den danske avisen Berlingske gjorde en undersøkelse i forbindelse med folketingsvalget, fant de at språkmodellene anbefalte folk å stemme på Alternativet eller Radikale Venstre. Hvordan ser dette ut i Norge? Det bør kanskje bekymre oss mye mer enn det gjør i dag.
For er det én gang man er spesielt opptatt av oversikt, er det rett før et valg.
Hva skiller partiene i energipolitikken? Hva betyr de ulike partiprogrammene for boligrenten min, det jeg må betale i skatt, eller privatøkonomien min? Når vi bruker KI til dette, flyttes litt av meningsdannelsen ut av offentligheten, og inn i systemer der svarene formes av treningsdata, ikke de gode gamle valgomatene eller redaksjonelle forklaringer.
Kunstig intelligens kan bli både et kompass og et våpen i den nye informasjonskrigen. Det som er sikkert er at vi kommer til å bruke chatboter til å forstå verden. Det som er mindre sikkert er om vi fullt ut forstår hvem som lærer dem hva verden er.
Man kan forsøke å vaske språkmodellene for åpenbar propaganda, man kan forsøke å beskytte treningsdataene. Men det vil aldri monne helt.
De store språkmodellene trenes på menneskelig tekst, og mennesker driver med informasjonskrig. En stor del av ansvaret faller derfor også ned på hvordan vi som samfunn og individer vektlegger KI-ens rolle i egen og felles meningsdannelse.
Artikkelen er skrevet av
























