Risikovurdering

Må vi risikovurdere all KI vi bruker?

Det korte svaret er ja. Men ikke nødvendigvis av den grunnen du tror.

Mange blander sammen GDPR og EU AI Act, noe som skaper forvirring om hva som faktisk kreves. Her er sannheten om når og hvorfor, basert på type KI.

💬
Hverdags-KIChatbots, Copilot
⚖️
Høyrisiko-KIHR, finans, beslutninger
💬

Hverdags-KI

Minimal risiko

Chatbots, Copilot, skriveassistenter

Eksempler:ChatGPT, Microsoft Copilot, Gemini, Claude
EU AI Act
Ikke påkrevd

Loven anser dette som minimal risiko. Kravet er at ansatte har KI-kompetanse og at dere er åpne om bruken.

GDPR / Informasjonssikkerhet
Alltid påkrevd

Hvorfor dere MÅ risikovurdere det likevel:

GDPR og sikkerhet. Så snart en ansatt kan mate systemet med kundedata, personopplysninger eller bedriftshemmeligheter, krever loven at dere har vurdert risikoen (DPIA/ROS). Hvor lagres dataene? Brukes de til å trene leverandørens modeller?

Konklusjon: EU AI Act krever det ikke – men GDPR gjør det. Dere MÅ vurdere risikoen uansett.
Slik hjelper Lexera deg

Lexera guider deg gjennom hele risikovurderingen – fra riktige spørsmål til ferdig dokumentasjon.

Veiledet vurdering
Lexera stiller spørsmålene du faktisk må svare på, tilpasset KI-verktøy og det regelverket krever. Du trenger ikke være jurist for å gjennomføre en komplett vurdering.
KI-assistert utfylling
Når du sitter fast, foreslår Lexera svar og forklarer hva som kreves. Du beholder kontrollen, mens KI hjelper deg videre.
Sporbar godkjenningsflyt
Ferdig vurdering sendes til riktig person for godkjenning. Hvem som vurderte, hvem som godkjente og på hvilke vilkår er alltid dokumentert.
Oversikt og rapportering
Alt er koblet til verktøyene dere bruker. Enten det gjelder Datatilsynet, en anbudsrunde eller et styremøte, gir dashboardet deg status og rapport på sekunder.
Slutt å gjette – start å dokumentere
Lexera utløser riktig vurdering automatisk, basert på type KI.
Se plattformen