Debatt

Lene Løvdal: Vi må fremme sosial bærekraft i bruk av kunstig intelligens

KI-katten er ute av sekken. Menneskers feilbarlighet og skadepotesiale er satt på speed, sammen med andre farer KI utgjør. Men om vi vet hvor vi skal, har vi muligheten til å bruke KI også til å fremme sosial bærekraft, skriver Lene Løvdal, jurist og fagansvarlig i Egalia senter mot diskriminering.

«Bukker bør alltid holdes i sjakk i møte med havresekker, og KI er en spesielt saftig havresekk. Vi kommer ikke utenom at innsyn i ulike ledd i utviklingen av KI er helt nødvendig, sammen med testing i etterkant, og en rekke begrensninger for hvordan den kan brukes», skriver Lene Løvdal, jurist og fagansvarlig i Egalia senter mot diskriminering.
«Bukker bør alltid holdes i sjakk i møte med havresekker, og KI er en spesielt saftig havresekk. Vi kommer ikke utenom at innsyn i ulike ledd i utviklingen av KI er helt nødvendig, sammen med testing i etterkant, og en rekke begrensninger for hvordan den kan brukes», skriver Lene Løvdal, jurist og fagansvarlig i Egalia senter mot diskriminering.Foto: AP Photo/Michael Dwyer, File
Lene Løvdal
Dette er et debattinnlegg, og innholdet står for skribentens regning. Alle innlegg hos Altinget skal overholde presseetiske regler.

Hva er trygg kunstig intelligens? KI har det med å forsterke de svakhetene den menneskelige hjernen har, enten gjennom utvikling av algoritmene i starten, eller gjennom å bruke tekst eller annet menneskeskapt datamateriale. Utvikleres evne til å korrigere algoritmene underveis, krever også sitt. Men vi vet mye mer nå om hvilke svakheter hjernen har som kan bli forsterket og masseprodusert. Vi vet også en del om hvilke verktøy som fungerer. Men de må brukes mer og bedre enn de brukes i dag. 

Målet er sosial bærekraft: Å sikre mest mulig verdighet og frihet for alle, over tid. Grunntanken bak menneskerettskonvensjonene, noen av de viktigste verktøyene for sosial bærekraft menneskeheten har, er at vi alle er like mye verd. Samtidig er vi alle forskjellige. Vi er også sårbare. Og vi kan gjøre hverandre stor skade, kanskje særlig når vi er sårbare og redde. 

Les også

Feilbarlighet

Vi går hele tida i bekreftelsesfella, og tror lettest på fortellinger og ideer vi kjenner igjen. Om KI bygger på menneskelig tekst, er det fare for at den gjør det samme. Et viktig mottiltak er vitenskapelig metode. Når Chat GPT beskrives som en mansplaining-tjeneste, med påståelig synsing uten belegg, er det særlig her det butter.

Stereotypier forenkler verden, noe vi er nødt til i møte med uoverkommelige mengder med informasjon, hele tida. Men de fører oss også hele tida på ville veier, særlig når noe er uvant. To typer kunnskap er spesielt viktige for å sikre mot å gå i stereotypifella og bekreftelsesfella når kunstig intelligens skal utvikles: ulike former for fagkunnskap, og livserfaring hos folk som berøres. 

Vi går hele tida i bekreftelsesfella, og tror lettest på fortellinger og ideer vi kjenner igjen. 

Lene Løvdal
Jurist og fagansvarlig, Egalia

Ofte forveksler vi korrelasjon med årsakssammenheng. Det er bare å se på den historiske utviklingen av hvordan man har tenkt om kvinner og hva vi kunne gjøre og ikke. Kunstig intelligens som lærer av store mengder informasjon, går ofte i samme fella.

Flere av de største KI-assisterte tabbene som er gjort, handler i stor grad om manglende bevissthet rundt korrelasjon og årsaker, særlig i møte med grupper som allerede har svært mange hindringer på grunn av historisk undertrykkelse, fattigdom osv. Til sammen utgjør stereotypier, korrelasjon og bekreftelsesfelle en eksplosiv kombinasjon. I Nederland førte uvettig bruk av KI i forvaltningen til at mange fattige ble fratatt økonomisk støtte uten gyldig grunn, med katastrofale konsekvenser for mange.

Verktøy for å sikre sosial bærekraft

Bukker bør alltid holdes i sjakk i møte med havresekker, og KI er en spesielt saftig havresekk. Vi kommer ikke utenom at innsyn i ulike ledd i utviklingen av KI er helt nødvendig, sammen med testing i etterkant, og en rekke begrensninger for hvordan den kan brukes. Men dette er ikke nok.

Kunnskapsbasert forebygging må til. Om vi ikke jobber aktivt med å se hvor faren er spesielt stor for å havne i både stereotypifella og bekreftelsesfella, havner vi der, igjen og igjen. Risikoanalyser som skal gjøres etter stadig flere EU-direktiver, blir da lite verd. 

Bukker bør alltid holdes i sjakk i møte med havresekker, og KI er en spesielt saftig havresekk.

Lene Løvdal
Jurist og fagansvarlig, Egalia

Et sted å starte, er et best mulig kunnskapsgrunnlag. Ulike fagdisipliner må inn, som beslutningspsykologer.

Men i møte med levd liv, er også dette et helt essensielt kunnskapsgrunnlag. Det å involvere berørte grupper er et krav etter bærekraftsdirektivet, og er også viktig for utvikling og bruk av kunstig intelligens. Dette kan gjøres på mange måter, for eksempel gjennom brukerreiser utviklet sammen med representanter for ulike grupper, som kan være et viktig verktøy. Men det må skje tidlig i prosessen, og ikke bare i etterkant.

KI-katten er ute av sekken. Menneskers feilbarlighet og skadepotesiale er satt på speed, sammen med andre farer KI utgjør. Kunnskapsbasert forebygging og kontroll må til. Men om vi vet hvor vi skal, har vi muligheten til å bruke KI også til å fremme sosial bærekraft: å lage systemer som bidrar til mest mulig likeverd og frihet for alle, i all vår ulikhet. 

Les også


E-postPolitikk har aldri vært viktigere

Få GRATIS nyheter fra Norges første rendyrkede politiske redaksjon

Altinget logo
Oslo | København | Stockholm | Brussel
Politikk har aldri vært viktigere
AdresseAkersgata 320180 OsloBesøksadresseGrensen 150180 OsloOrg.nr. 928934977[email protected]
Sjefredaktør og ansvarlig utgiver:Veslemøy ØstremCFOAnders JørningKommersiell direktør:Marius ZachariasenAdministrerende direktørAnne Marie KindbergStyreleder og utgiverRasmus Nielsen
Copyright © Altinget, 2024