
For to uker siden skrev vi om advokater som måtte på kurs etter AI-feil.
Diskusjonen handlet hovedsakelig om opplæring. Men som i det opprinnelige innlegget (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) ble nevnt: i henhold til EUs AI-lov må organisasjoner sørge for at ansatte som bruker AI har tilstrekkelig AI-kompetanse.
Dette er en lovpålagt forpliktelse.
Opplæring er imidlertid bare en del av historien.
AI-compliance går utover et kurs. I den tidligere innlegget refererte vi allerede til behovet for strukturell sikring.
EU AI Act krever nemlig også:
- Risikovurdering
- Dokumentasjon
- Menneskelig tilsyn
- Overvåking
- Påvisbare kontrolltiltak
For å sikre dette strukturelt tilbyr ISO 42001 praktiske verktøy for å ikke bruke AI ad hoc, men å integrere det på en kontrollert måte i en PDCA-syklus.
Konkret betyr det for eksempel:
- Et AI-algoritmeregister
- En AI-konsekvensanalyse (AIIA)
- Integrering med risikoregisteret
- Et strukturert bibliotek med AI-risikoer
- Kontinuerlig overvåking og revurdering
Og ja – også opplæring.
Men da som en del av integrert AI-risikobevissthet, knyttet til konkrete risikoer og ansvar.
Innenfor IRM360 har vi utarbeidet dette i vårt AI Management System (AIMS), fullt tilpasset ISO 42001 og som støtter EU AI Act-compliance.
Det virkelige spørsmålet er altså ikke bare:
«Er våre medarbeidere opplært?»
Men fremfor alt:
Kan vi påviselig vise at vår bruk av AI er kontrollert, overvåket og i samsvar med regelverket?
👉 For organisasjoner som ønsker å jobbe konkret med dette, vil vi gjerne diskutere hvordan du kan organisere dette på en pragmatisk og påviselig måte.
Be om en demo her: https://www.irm360.nl/boek-hier-uw-demo/