
For to uger siden skrev vi om advokater, der måtte på kursus efter AI-fejl.
Diskussionen drejede sig primært om uddannelse. Men som nævnt i det oprindelige indlæg (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) nævnt: I henhold til EU's AI-lov skal organisationer sikre, at medarbejdere, der bruger AI, har tilstrækkelig AI-kompetence.
Det er en lovmæssig forpligtelse.
Uddannelse er dog kun en del af historien.
AI-compliance går videre end et kursus. I det tidligere indlæg henviste vi allerede til behovet for strukturel sikring.
EU's AI-lov kræver nemlig også:
- Risikovurdering
- Dokumentation
- Menneskelig overvågning
- Overvågning
- Påviselige kontrolforanstaltninger
For at sikre dette strukturelt tilbyder ISO 42001 praktiske værktøjer til ikke at bruge AI ad hoc, men at integrere det kontrolleret i en PDCA-cyklus.
Konkret betyder det for eksempel:
- Et AI-algoritmeregister
- En AI-konsekvensanalyse (AIIA)
- Integration med risikoregistret
- Et struktureret bibliotek med AI-risici
- Kontinuerlig overvågning og revurdering
Og ja – også uddannelse.
Men som en del af integreret AI-risikobevidsthed, knyttet til konkrete risici og ansvar.
Inden for IRM360 har vi udarbejdet dette i vores AI Management System (AIMS), der er fuldt ud tilpasset ISO 42001 og understøtter overholdelse af EU's AI-lovgivning.
Det egentlige spørgsmål er altså ikke kun:
»Er vores medarbejdere uddannet?«
Men især:
Kan vi påvise, at vores brug af AI er kontrolleret, overvåget og indrettet i overensstemmelse med reglerne?
👉 For organisationer, der konkret ønsker at gå i gang med dette, vil vi gerne drøfte, hvordan man kan indrette dette på en pragmatisk og påviselig måde.
Bestil din demo her: https://www.irm360.nl/boek-hier-uw-demo/