Nyheter

11 mars 2026

För två veckor sedan skrev vi om advokater som tvingades gå en kurs efter AI-fel.

Diskussionen handlade främst om utbildning. Men som i det ursprungliga inlägget (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) nämndes: enligt EU:s AI-lag måste organisationer se till att de anställda som använder AI har tillräckliga kunskaper om AI.

Det är en lagstadgad skyldighet.

Utbildning är dock bara en del av historien.

AI-efterlevnad går längre än en kurs. I det tidigare inlägget hänvisade vi redan till behovet av strukturell säkerställande.

 

EU:s AI-lag kräver nämligen också:

- Riskbedömning

- Dokumentation

- Mänsklig övervakning

- Övervakning

- Påvisbara kontrollåtgärder

 

För att säkerställa detta strukturellt erbjuder ISO 42001 praktiska verktyg för att inte använda AI ad hoc, utan att integrera det på ett kontrollerat sätt i en PDCA-cykel.

Konkret innebär det till exempel:

- Ett AI-algoritmregister

- En AI-konsekvensbedömning (AIIA)

- Integration med riskregistret

- Ett strukturerat bibliotek med AI-risker

- Kontinuerlig övervakning och omprövning

 

Och ja – även utbildning.

Men då som en del av integrerad AI-riskmedvetenhet, kopplad till konkreta risker och ansvar.

Inom IRM360 har vi utvecklat detta i vårt AI Management System (AIMS), som är helt anpassat till ISO 42001 och stöder efterlevnaden av EU:s AI-lagstiftning.

 

Den verkliga frågan är alltså inte bara:

”Är våra medarbetare utbildade?”

 

Utan framför allt:

Kan vi på ett påvisbart sätt visa att vår AI-användning är kontrollerad, övervakad och utformad för att uppfylla kraven?

 

👉 För organisationer som vill arbeta konkret med detta diskuterar vi gärna hur du kan utforma detta på ett pragmatiskt och påvisbart sätt.

Begär din demo här: https://www.irm360.nl/boek-hier-uw-demo/