Nyheder

11 marts 2026

For to uger siden skrev vi om advokater, der måtte på kursus efter AI-fejl.

Diskussionen drejede sig primært om uddannelse. Men som nævnt i det oprindelige indlæg (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) nævnt: I henhold til EU's AI-lov skal organisationer sikre, at medarbejdere, der bruger AI, har tilstrækkelig AI-kompetence.

Det er en lovmæssig forpligtelse.

Uddannelse er dog kun en del af historien.

AI-compliance går videre end et kursus. I det tidligere indlæg henviste vi allerede til behovet for strukturel sikring.

 

EU's AI-lov kræver nemlig også:

- Risikovurdering

- Dokumentation

- Menneskelig overvågning

- Overvågning

- Påviselige kontrolforanstaltninger

 

For at sikre dette strukturelt tilbyder ISO 42001 praktiske værktøjer til ikke at bruge AI ad hoc, men at integrere det kontrolleret i en PDCA-cyklus.

Konkret betyder det for eksempel:

- Et AI-algoritmeregister

- En AI-konsekvensanalyse (AIIA)

- Integration med risikoregistret

- Et struktureret bibliotek med AI-risici

- Kontinuerlig overvågning og revurdering

 

Og ja – også uddannelse.

Men som en del af integreret AI-risikobevidsthed, knyttet til konkrete risici og ansvar.

Inden for IRM360 har vi udarbejdet dette i vores AI Management System (AIMS), der er fuldt ud tilpasset ISO 42001 og understøtter overholdelse af EU's AI-lovgivning.

 

Det egentlige spørgsmål er altså ikke kun:

»Er vores medarbejdere uddannet?«

 

Men især:

Kan vi påvise, at vores brug af AI er kontrolleret, overvåget og indrettet i overensstemmelse med reglerne?

 

👉 For organisationer, der konkret ønsker at gå i gang med dette, vil vi gerne drøfte, hvordan man kan indrette dette på en pragmatisk og påviselig måde.

Bestil din demo her: https://www.irm360.nl/boek-hier-uw-demo/