
För två veckor sedan skrev vi om advokater som tvingades gå en kurs efter AI-fel.
Diskussionen handlade främst om utbildning. Men som i det ursprungliga inlägget (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) nämndes: enligt EU:s AI-lag måste organisationer se till att de anställda som använder AI har tillräckliga kunskaper om AI.
Det är en lagstadgad skyldighet.
Utbildning är dock bara en del av historien.
AI-efterlevnad går längre än en kurs. I det tidigare inlägget hänvisade vi redan till behovet av strukturell säkerställande.
EU:s AI-lag kräver nämligen också:
- Riskbedömning
- Dokumentation
- Mänsklig övervakning
- Övervakning
- Påvisbara kontrollåtgärder
För att säkerställa detta strukturellt erbjuder ISO 42001 praktiska verktyg för att inte använda AI ad hoc, utan att integrera det på ett kontrollerat sätt i en PDCA-cykel.
Konkret innebär det till exempel:
- Ett AI-algoritmregister
- En AI-konsekvensbedömning (AIIA)
- Integration med riskregistret
- Ett strukturerat bibliotek med AI-risker
- Kontinuerlig övervakning och omprövning
Och ja – även utbildning.
Men då som en del av integrerad AI-riskmedvetenhet, kopplad till konkreta risker och ansvar.
Inom IRM360 har vi utvecklat detta i vårt AI Management System (AIMS), som är helt anpassat till ISO 42001 och stöder efterlevnaden av EU:s AI-lagstiftning.
Den verkliga frågan är alltså inte bara:
”Är våra medarbetare utbildade?”
Utan framför allt:
Kan vi på ett påvisbart sätt visa att vår AI-användning är kontrollerad, övervakad och utformad för att uppfylla kraven?
👉 För organisationer som vill arbeta konkret med detta diskuterar vi gärna hur du kan utforma detta på ett pragmatiskt och påvisbart sätt.
Begär din demo här: https://www.irm360.nl/boek-hier-uw-demo/