Nyheter

11 mars 2026

For to uker siden skrev vi om advokater som måtte på kurs etter AI-feil.

Diskusjonen handlet hovedsakelig om opplæring. Men som i det opprinnelige innlegget (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) ble nevnt: i henhold til EUs AI-lov må organisasjoner sørge for at ansatte som bruker AI har tilstrekkelig AI-kompetanse.

Dette er en lovpålagt forpliktelse.

Opplæring er imidlertid bare en del av historien.

AI-compliance går utover et kurs. I den tidligere innlegget refererte vi allerede til behovet for strukturell sikring.

 

EU AI Act krever nemlig også:

- Risikovurdering

- Dokumentasjon

- Menneskelig tilsyn

- Overvåking

- Påvisbare kontrolltiltak

 

For å sikre dette strukturelt tilbyr ISO 42001 praktiske verktøy for å ikke bruke AI ad hoc, men å integrere det på en kontrollert måte i en PDCA-syklus.

Konkret betyr det for eksempel:

- Et AI-algoritmeregister

- En AI-konsekvensanalyse (AIIA)

- Integrering med risikoregisteret

- Et strukturert bibliotek med AI-risikoer

- Kontinuerlig overvåking og revurdering

 

Og ja – også opplæring.

Men da som en del av integrert AI-risikobevissthet, knyttet til konkrete risikoer og ansvar.

Innenfor IRM360 har vi utarbeidet dette i vårt AI Management System (AIMS), fullt tilpasset ISO 42001 og som støtter EU AI Act-compliance.

 

Det virkelige spørsmålet er altså ikke bare:

«Er våre medarbeidere opplært?»

 

Men fremfor alt:

Kan vi påviselig vise at vår bruk av AI er kontrollert, overvåket og i samsvar med regelverket?

 

👉 For organisasjoner som ønsker å jobbe konkret med dette, vil vi gjerne diskutere hvordan du kan organisere dette på en pragmatisk og påviselig måte.

Be om en demo her: https://www.irm360.nl/boek-hier-uw-demo/