Girl Robot AI Artificial Intelligence

Den europeiske union har tatt et monumentalt skritt i reguleringen av kunstig intelligens (AI) ved å introdusere verdens første omfattende AI-regulering – AI-loven (Regulation (EU) 2024/1689).

Loven ble publisert 12. juli 2024 og trådde i kraft 1. august 2024, og vil endre hvordan organisasjoner utvikler og implementerer AI-teknologier.

For fagfolk som arbeider med digitale opplevelser er det avgjørende å forstå implikasjonene av AI-loven. Slik kan man lede sine tjenester og organisasjon inn i en fremtid som både er innovativ, men likevel i samsvar med den nye loven.

Reguleringer med global påvirkning

Selv om AI-loven er en EU-forordning, strekker dens innflytelse seg langt utover Europas grenser. Organisasjoner som opererer utenfor EU, inkludert USA, kan bli underlagt lovens krav hvis AI-systemene deres påvirker enkeltpersoner i EU-medlemsland.

Denne globale rekkevidden innebærer at selv uten en fysisk tilstedeværelse i Europa, må selskaper tilpasse sine AI-praksiser til lovens bestemmelser for å unngå betydelige sanksjoner.

Definisjonen av et AI-system

Kjernen i AI-loven er definisjonen av et "AI-system", et begrep som har gjennomgått flere justeringer for å holde tritt med teknologiske fremskritt som generativ AI og store språkmodeller. Ifølge loven er et AI-system:

“Et maskinbasert system designet for å operere med varierende nivåer av autonomi og tilpasningsevne, som genererer resultater som forutsigelser, innhold, anbefalinger eller beslutninger som påvirker fysiske eller virtuelle miljøer.”

For digitale opplevelser betyr dette at ikke alle teknologier som tradisjonelt har blitt merket som AI vil falle inn under lovens jurisdiksjon. Det er viktig å vurdere om dine digitale verktøy oppfyller denne spesifikke definisjonen for å fastslå samsvarsforpliktelser.

Kategorisering av risiko i AI-systemer

AI-loven introduserer en risikobasert tilnærming til regulering, og klassifiserer AI-systemer i fire kategorier:

  1. Uakseptabel risiko: AI-praksiser som utgjør betydelig skade på enkeltpersoners helse, sikkerhet eller grunnleggende rettigheter. Disse er fullstendig forbudt.
  2. Høy risiko: Systemer som kan ha betydelig påvirkning på enkeltpersoner i kritiske områder som sysselsetting, helsevesen eller rettshåndhevelse. Disse krever strenge samsvarstiltak.
  3. Begrenset risiko: AI-systemer som utgjør visse transparensrisikoer, men ikke er høyrisiko, som chatboter. De krever noe informasjon til brukerne.
  4. Minimal risiko: Systemer med minimal påvirkning, som spamfiltre, som i stor grad er uregulerte av AI-loven, men kan falle inn under andre lover.

Å forstå hvor dine AI-drevne digitale opplevelser faller innenfor dette rammeverket er viktig for samsvar og risikostyring.

Se også: Topp 10 AI-verktøy for innholdsredaktører »

Forpliktelser for tilbydere og brukere

Loven skiller mellom “Tilbydere” (de som utvikler AI-systemer) og “Brukere” (de som bruker dem). Forpliktelsene varierer deretter:

  • AI-systemer med høy risiko: Tilbydere må sikre nøyaktighet, robusthet og utføre konsekvensvurderinger. Brukere må overvåke bruken og rapportere hendelser.
  • AI-systemer med begrenset risiko: Primært transparensforpliktelser, som å informere brukere om at de interagerer med et AI-system.

Med dette i tankene må for eksempel innholdsredaktører sikre at innhold levert gjennom AI overholder transparens- og etiske retningslinjer.

Generell AI og systemiske risikoer

Loven legger spesiell vekt på generell AI-modeller (GPAIM) og systemer (GPAIS), spesielt de som utgjør systemiske risikoer på grunn av deres brede anvendelse og potensielle påvirkning. Ytterligere forpliktelser for disse inkluderer:

  • Utføre omfattende risikovurderinger.
  • Sikre samsvar med immaterialrett.
  • Opprettholde detaljert dokumentasjon og sammendrag av data brukt til å lære opp AI-en.

Hvis din organisasjon bruker eller utvikler slike modeller, spesielt de som ligner store språkmodeller, er disse bestemmelsene direkte relevante.

Tidslinje for samsvar/compliance

Viktige datoer å merke seg:

  • 1. august 2024: AI-loven trer i kraft.
  • Innen 6 måneder: Forbudte AI-praksiser må opphøre.
  • Innen 24 måneder: Organisasjoner må overholde forpliktelser knyttet til høyrisikable AI-systemer.

Tidlig handling er tilrådelig for å tilpasse AI-strategiene dine til disse tidslinjene.

Implikasjoner for digitale opplevelser

AI-lovens fokus på å beskytte individets rettigheter og fremme transparens påvirker direkte hvordan digitale opplevelser skapes og leveres. Dette inkluderer:

  • Brukertransparens: Brukere må informeres når de interagerer med AI, noe som gjelder chatboter og virtuelle assistenter.
  • Innholdsintegritet: AI-generert innhold må være i samsvar med opphavsrett og immaterialrett, noe som påvirker innholdskuratering og -generering.
  • Systemdesign: Arkitekter må innarbeide samsvarstiltak i systemdesign, noe som potensielt påvirker utviklingstidslinjer og kostnader.

For innholdsredaktører kan dette bety å revidere innholdsstrategier for å sikre at alt AI-generert innhold er i samsvar med lov og rett. Løsningsarkitekter kan måtte redesigne systemer for å inkludere nødvendige samsvarsfunksjoner.

Trinn for å forberede samsvar

  1. Revider AI-systemene dine: Identifiser alle AI-systemer i bruk og klassifiser dem i henhold til lovens risikokategorier.
  2. Oppdater dokumentasjon: Sørg for at alle AI-systemer har omfattende teknisk dokumentasjon som kreves.
  3. Forbedre transparens: Implementer brukerinformasjon der AI benyttes, i tråd med transparensforpliktelser.
  4. Utfør konsekvensvurderinger: For høyrisikosystemer, gjennomfør grundige vurderinger for å evaluere potensielle risikoer for grunnleggende rettigheter.
  5. Lær opp teamene dine: Lær kollegene dine om AI-lovens krav for å fremme en kultur for samsvar.

Ved å ta disse trinnene kan organisasjoner redusere risikoer og fortsette å innovere innenfor det regulatoriske rammeverket.

Skap forretningsverdi med den digitale kundereisen

Relaterte blogginnlegg

Få enda mer innsikt 🤓