Novosti

26 veljača 2026

Ovog vikenda nizozemski medij NOS izvijestio je da su tri odvjetnika dobila upozorenja zbog korištenja umjetne inteligencije (kao što je ChatGPT) u pravnim argumentima, s pozivima na presude koje se pokazale nepostojećima ili se odnosile na nešto drugo.
(Članak: https://lnkd.in/eGAMGxmw)

Regulator je dvojici od njih naložio da pohađaju tečaj o umjetnoj inteligenciji.
Ono što je ovdje očito nije isključivo tehnološki problem koji se može riješiti obukom.
Rezultati umjetne inteligencije brzo se smatraju autoritativnima. Klasičan primjer pristranosti prema automatizaciji, koju pojačava umjetna inteligencija: "Računalo mora znati bolje."

Rezultat:
● Ishodi koji nisu uvijek kritički provjereni.
● Pogreške koje prolaze nezapaženo.
To smo nedavno vidjeli i u algoritamskom donošenju odluka (što, usput rečeno, nije bilo isključivo pripisivo umjetnoj inteligenciji). Slijepo povjerenje bez učinkovitih kontrola dovodi do netočnih ishoda.
Stručna odgovornost i dalje leži na ljudima, dok se upotreba tih sustava ionako povećava.

Obuka je, naravno, važna u tom pogledu.
Zapravo, prema Zakonu o umjetnoj inteligenciji EU-a, organizacije koje koriste AI moraju osigurati dovoljnu pismenost u području AI-ja.
No, sama obuka nije dovoljna.
Odgovorno korištenje AI-ja zahtijeva jasne okvire, procese provjere i nadzor. To je također pitanje upravljanja i kontrole.
Na te su probleme ukazali suci u Arnhemu, Rotterdamu i Groningenu.No, umjetna inteligencija sada se koristi mnogo šire: pravno, administrativno, financijski i operativno.
Koliko se tih pogrešaka koje je generirala umjetna inteligencija zapravo primijeti? A koliko ne?
Organizacije koje koriste umjetnu inteligenciju strukturirano trebaju okvire koji su vođeni rizikom, provjerljivi i administrativno ugrađeni.