Haberler

11 Mart 2026

İki hafta önce, AI hataları nedeniyle kursa katılmak zorunda kalan avukatlar hakkında yazmıştık.

Tartışma esas olarak eğitim üzerineydi. Ancak orijinal gönderide (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share& utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) belirtildiği gibi: AB AI Yasası uyarınca, kuruluşlar AI kullanan çalışanlarının yeterli AI okuryazarlığı seviyesine ulaşmasını sağlamalıdır.

Bu yasal bir zorunluluktur.

Ancak eğitim, hikayenin sadece bir parçasıdır.

AI uyumluluğu bir kurstan daha fazlasını gerektirir. Önceki yazımızda, yapısal güvence ihtiyacına değinmiştik.

 

AB AI Yasası ayrıca şunları da gerektirir:

- Risk değerlendirmesi

- Belgeleme

- İnsan gözetimi

- İzleme

- Kanıtlanabilir kontrol önlemleri

 

Bunu yapısal olarak güvence altına almak için ISO 42001, AI'yı ad hoc olarak kullanmak yerine PDCA döngüsüne kontrollü bir şekilde entegre etmek için pratik araçlar sunar.

Somut olarak bu, örneğin şunları anlamına gelir:

- Bir AI algoritma kaydı

- Bir AI Etki Değerlendirmesi (AIIA)

- Risk kaydı ile entegrasyon

- AI risklerini içeren yapılandırılmış bir kütüphane

- Sürekli izleme ve yeniden değerlendirme

 

Ve evet — eğitim de.

Ancak bu, somut riskler ve sorumluluklarla bağlantılı, entegre AI risk farkındalığının bir parçası olarak.

IRM360 içinde bunu, ISO 42001 ile tamamen uyumlu ve EU AI Act uyumluluğunu destekleyen AI Yönetim Sistemimizde (AIMS) geliştirdik.

 

Asıl soru sadece şu değil:

“Çalışanlarımız eğitimli mi?”

 

Ama daha önemlisi:

AI kullanımımızın kontrollü, izlenen ve uyumlu bir şekilde düzenlendiğini kanıtlayabilir miyiz?

 

👉 Bu konuda somut adımlar atmak isteyen kuruluşlar için, bunu pragmatik ve kanıtlanabilir bir şekilde nasıl düzenleyebileceğiniz konusunda görüşmekten memnuniyet duyarız.

Demo talebinizi buradan yapabilirsiniz: https://www.irm360.nl/boek-hier-uw-demo/