Spaltist:  
Christian Hambro

EUs lov om kunstig intelligens – en internasjonal pionerinnsats

Det sies gjerne, og da i litt nedsettende betydning, at EU er en kompromiss-maskin. Men det faktum at 27 land så raskt klarer å bli enige om regulering på et så vanskelig felt som KI, er oppsiktsvekkende og positivt. Måten arbeidet har vært drevet på, er også interessant, skriver Altingets spaltist Christian Hambro.

Advokat Christian Hambro beskriver og forklarer EUs arbeid med KI-loven i denne ukens spaltistinnlegg. 
Advokat Christian Hambro beskriver og forklarer EUs arbeid med KI-loven i denne ukens spaltistinnlegg. Foto: Montasje: Reuters/Dado Ruvic/Advokat Christian Hambro AS
Christian Hambro

EUs arbeid med å vedta en forordning om kunstig intelligens (KI) går ufortrødent videre. En KI-lov, i form av en forordning, blir trolig vedtatt i første halvår 2024.

EUs utkast til KI-lov er et meget omfattende og komplisert regelverk. Det er tale om en internasjonal pionerinnsats på et felt i rivende teknologisk utvikling. Det er grunn til å tro at reglene vil få betydning langt utenfor EU/EØS-området og bli brukt som modell og inspirasjonskilde i mange andre land. Dette har i hvert fall skjedd med EUs digitale personvernforordning (General Data Protection Regulation (EU) 2016/679).

Oppsiktsvekkende enighet

Før resultatene av de siste måneders arbeid med KI-loven omtales, kan selve prosessen fortjene noen kommentarer. Det sies gjerne, og da i litt nedsettende betydning, at EU er en kompromiss-maskin. Denne siden ved EU fortjener heller å bli hyllet enn kritisert. At 27 land klarer å bli enige om regulering på et så vanskelig felt som KI, er oppsiktsvekkende og positivt. Måten arbeidet har vært drevet på, er også interessant. 

Loven er altså ikke et verk laget av ansiktsløse byråkrater og spesialister i lukkete rom.

Christian Hambro
Spaltist

Kommisjonens forslag til KI-lov ble i 2021 forelagt EU-parlamentet til kommentar. Parlamentet kom med 722 endringsforslag i 2023. Man skulle tro at dette var uhåndterlig. Det som så skjedde var at representanter for Parlamentet, EU-kommisjonen og EU-rådet satt seg sammen i tre døgn i desember 2023 for finne løsninger, noe de klarte. Det foreligger ikke noe offisielt referat fra møtet, og noen ny lovtekst er ikke utarbeidet ennå. Den som er interessert i detaljene må vente noen måneder. Etter planen skal den nye loven vedtas i slutten av april 2024. Det er gjennomgående høy kvalitet på EUs lovarbeid, så det er grunn til å være optimistisk. Det er særlig grunn til å merke seg at Parlamentet har hatt stor innflytelse på prosessen. Loven er altså ikke et verk laget av ansiktsløse byråkrater og spesialister i lukkete rom.

KI-loven som kommer, vil selvsagt ikke være perfekt. For det første skal selve loven suppleres av en rekke vedlegg og veiledninger. Noen av detaljene i de valgte løsningene vil ikke komme på plass før om et par år, rett og slett fordi det er tale om et nybrottsarbeid. I tillegg må man regne med at det vil bli behov for relativt hyppige justeringer av loven og tilknyttete tekster, fordi man står overfor et felt i rivende utvikling. Ingen evner å se hva den teknologiske utviklingen på feltet vil bringe av nye problemstillinger de nærmeste årene. Symptomatisk i så henseende er at det opprinnelige lovforslaget til KI-forordning fra 2021 ikke behandlet grunnleggende KI-modeller, fordi det først var i 2022 at ChatGPT seilte opp som en av de viktigste hendelsene innen KI-området. 

Spaltister i Altinget EU/EØS

Altinget EU/EØS har seks faste spaltister. De skriver innlegg om aktuelle politiske saker hver sjette uke. Dette er spaltistene:

  • Mathilde Fasting, siviløkonom og historiker i tankesmien Civita, podkastvert i Liberal halvtime
  • Christian Hambro, privatpraktiserende advokat
  • Nils-Ola Widme, næringspolitisk direktør i Abelia
  • Kim Hamre, leder av Ungdom mot EU
  • Siri Sletner, tidligere Norges ambassadør til Tsjekkia, Ungarn og Slovenia
  • Paal Frisvold, leder av Greenpeace Nordens arbeid mot norsk olje og gass i EU

Bærer av felles europeiske verdier

Hva som er hovedpunktene i KI-loven er behandlet i mitt spaltistinnlegg i Altinget 2. oktober 2023. For de som er særlig interessert, vises det også til Digitaliseringsdirektoratets utmerkete redegjørelse.

Målsettingen for KI-loven er å fremme en teknologibruk som er i samsvar med den samfunnsutviklingen vi ønsker, uten samtidig å hindre innovasjon på feltet. På det overordnete nivået kan ingen være uenig i dette. Ny teknologi som ikke blir akseptert i bruk, er lite nyttig. For strengt eller komplisert regelverk kan hindre en verdifull teknologi-utvikling som samfunnet er tjent med. Her er det imidlertid tale om delvis motstridende hensyn. Det kan for øvrig være ulike holdninger både innen et land og mellom stater om hva som er det optimale balansepunktet. Hva som ligger i en «ønsket» samfunnsutvikling er heller ikke opplagt. Mens for eksempel Kina har en omfattende overvåking av sine innbyggere og bruker informasjonen for å disiplinere befolkningen, ville noe tilsvarende være utenkelig i de fleste vestlige land. 

Det er grunnleggende positivt at et felles europeisk regelverk kommer på plass nå, selv om man vet at det ligger noen uløste utfordringer i fremtiden.

Christian Hambro
Spaltist

KI-loven vil være bærer av noen felles europeiske verdier vedrørende bruk av KI. Etterhvert er det sannsynlig at det vil bli spenninger på feltet, fordi noen land vil kanskje supplere KI-loven med strengere nasjonale bestemmelser. Andre stater kan mene at slike bestemmelser vil være uheldige fordi de begrenser det indre europeiske markedet for KI-systemer. Slik uenighet må løses gjennom kompromisser. Det er grunnleggende positivt at et felles europeisk regelverk kommer på plass nå, selv om man vet at det ligger noen uløste utfordringer i fremtiden.

Etablerer eget KI-kontor

På desember-møtet om KI-forordningen ble mange spørsmål behandlet, og før det foreligger en ny forordningstekst er det bare mulig å omtale noen hovedpunkter. Det opprinnelige forslaget (2021 – utkastet til forordning) hadde ingen definisjon av kunstig intelligens. Regelverkets rekkevidde var derfor noe uklar.

EU vil legge til grunn OECDs definisjon av KI, slik at loven ikke vil omfatte enklere datasystemer. Lovens virkeområde vil også bli avgrenset, slik at den ikke berører statenes adgang til å bruke KI i spørsmål som angår nasjonal sikkerhet, forsvar og det militære. Det samme gjelder KI som bare brukes til forskning og innovasjon, eller til ikke-profesjonell anvendelse. Med noen begrensninger vil politi og påtalemyndighet kunne bruke KI uten å måtte følge de vanlige reglene i forordningen. Leverandørens plikter for å sikre at KI-systemer er betryggende, er gjort noe enklere og mindre byrdefulle enn i det opprinnelige forslaget. På den annen side vil plikten til å redegjøre for faremomenter forbundet med et KI-system bli noe skjerpet. 

Det er grunn til å tro at KI-kontoret etterhvert vil bli en sentral instans når det gjelder tolkningen av KI-forordningen og endringer i regelverket.

Christian Hambro
Spaltist

I det opprinnelige forslaget til KI-forordning var det forutsatt at reglene skulle håndheves av nasjonale myndigheter og domstoler. Det vil fortsatt være tilfellet, men i tillegg vil det nå bli etablert et KI-kontor i Kommisjonen og en uavhengig vitenskapelig komité for å gi råd til KI-kontoret. I tillegg blir EUs styre for KI opprettholdt som et rådgivende organ. Styret består av representanter for medlemsstatene. I tillegg blir et rådgivende forum etablert, med representanter for blant annet industrien, små og mellomstore bedrifter, frivillige organisasjoner og forskningsmiljøer. Det er grunn til å tro at KI-kontoret etterhvert vil bli en sentral instans når det gjelder tolkningen av KI-forordningen og endringer i regelverket. Dette er en oppgave som ikke kan overlates til nasjonalstaten alene. 

Les også

Hovedutfordringen i innspurten

En hovedutfordring i innspurten av arbeidet med KI-loven er hvordan man skal regulere grunnmodeller for KI (på engelsk «foundation models»). De grunnleggende modellene kan brukes til mange formål. Det er dette som gjør at de er svært potente instrumenter for KI. På den annen side kan grunnmodeller representere særlige farer. Hvis de har svakheter, vil disse kunne forplante seg videre i kjeden av KI-systemer son er bundet sammen. Svakheten kan bestå i at modellen kan være «partisk» på en eller annen måte, for eksempel ved at den skiller mellom befolkningsgrupper på en måte som ikke er berettiget. Dette kan skyldes skjevheter i algoritmene, men kan også skyldes at modellen er trent på et uriktig eller ufullstendig datagrunnlag.

Det har i sluttføringen av arbeidet med KI-loven vært omfattende diskusjoner om reguleringen av grunnmodeller for KI. Løsningene må sees på bakgrunn av lovforslagets generelle system. Visse former for KI vil etter forordningen bli forbudt eller strengt regulert, for eksempel programmer som påvirker underbevisstheten utover det personer selv er klar over og som kan volde fysisk eller psykisk skade. Forslaget til KI-lov legger ellers til grunn at det ikke er nødvendig å regulere alle KI-systemer som er tillatt. Lovlige KI-systemer blir derfor delt inn i to grupper: Høyrisiko-systemer, der feil kan få betydelige konsekvenser, og andre systemer. KI-systemer som ikke medfører høy risiko, blir så å si ikke regulert. 

De grunnleggende modellene kan brukes til mange formål. Det er dette som gjør at de er svært potente instrumenter for KI.

Christian Hambro
Spaltist

Kjernen i reglene om høyrisiko-systemer vil være ulike tiltak den ansvarlige må treffe for å redusere faren for skadevirkninger: Den ansvarlige må blant annet etablere et system for kontinuerlig risiko-analyse av programvaren, det er fastsatt krav til kvaliteten på dataene som er brukt til maskinlæringen, det stilles krav til teknisk dokumentasjon, og systemets virkemåte skal kunne overvåkes av mennesker. Hva som menes med høyrisiko-systemer er forklart i vedlegg III til forordningen. Listen er omfattende og dekker for eksempel opptakssystemet til utdanning, sikkerhet knyttet til infrastruktur og systemer for oppsigelse av ansatte.

Spørsmålet er hva som skal til for at grunnmodeller for KI skal regnes for høyrisiko-systemer. Det komplette svaret på dette spørsmålet foreligger ikke ennå. Lovforslaget legger opp til at de avgjørende kriteriene skal være størrelsen på datasettet som er brukt for å trene programmet, størrelsen på parameterne som utgjør modellen, datakraften brukt for å trene modellen og enkelte andre kjennetegn som ennå ikke er utarbeidet. Forutsetningen er at Kommisjonen innen 18 måneder etter at forordningen er vedtatt, skal komme med et detaljert forslag til kriterier for når grunnmodeller skal regnes for høyrisiko-systemer. 

Les også


E-postPolitikk har aldri vært viktigere

Få GRATIS nyheter fra Norges første rendyrkede politiske redaksjon

0:000:00