
Bu hafta sonu NOS, üç avukatın, ChatGPT gibi yapay zeka teknolojisini hukuki argümanlarında kullandıkları ve aslında var olmayan veya başka bir konuyla ilgili olan kararları referans gösterdikleri için uyarı aldıklarını bildirdi.
(Makale: https://lnkd.in/eGAMGxmw)
İkisi, denetim kurumu tarafından zorunlu olarak AI kursuna gönderildi.
Burada görünen, eğitimle çözülebilecek saf bir teknoloji sorunu değil.
AI sonuçları kolayca otoriter olarak kabul ediliyor. AI tarafından güçlendirilen otomasyon önyargısının klasik bir örneği: “Bilgisayar daha iyi bilir.”
Sonuç olarak:
● Sonuçlar her zaman eleştirel bir şekilde doğrulanmıyor
● Hatalar fark edilmeden kalıyor
Bunu son zamanlarda algoritmik karar verme sürecinde de gördük (bu arada, bu durum sadece AI'ya atfedilemez). Etkili kontroller olmadan körü körüne güvenmek, yanlış sonuçlara yol açar.
Profesyonel sorumluluk insanlara ait olmaya devam ederken, bu sistemlerin kullanımı her halükarda artmaktadır.
Bu konuda eğitim elbette önemlidir.
Hatta daha da ötesi: AB AI Yasası uyarınca, AI kullanan kuruluşlar yeterli AI okuryazarlığı sağlamalıdır.
Ancak eğitim tek başına yeterli değildir.
Sorumlu AI kullanımı, açık çerçeveler, doğrulama süreçleri ve denetim gerektirir. Bu aynı zamanda bir yönetişim ve kontrol sorunudur.
Bu konular Arnhem, Rotterdam ve Groningen'deki hakimler tarafından da belirtilmiştir.
Ancak AI artık çok daha geniş bir alanda uygulanmaktadır: hukuk, idare, finans ve operasyon.
Bu tür AI kaynaklı hataların kaçı fark edilmektedir? Kaçı fark edilememektedir?
AI'yı yapısal olarak kullanan kuruluşlar, risk odaklı, test edilebilir ve idari olarak sağlam temellere dayanan çerçevelere ihtiyaç duymaktadır.