
I helgen meldte NOS at tre advokater har fått en advarsel fordi de brukte AI (som ChatGPT) i juridiske argumenter, med henvisninger til dommer som viste seg å ikke eksistere eller omhandlet noe annet.
(Artikkelen: https://lnkd.in/eGAMGxmw)
To av dem er blitt pålagt å ta et AI-kurs av tilsynsmyndigheten.
Det som blir synlig her, er ikke et rent teknologiproblem som kan løses med opplæring.
AI-resultater blir fort sett på som autoritative. Et klassisk eksempel på automatiseringsskjevhet, forsterket av AI: «Datamaskinen vet nok best.»
Resultatet er:
● Resultater som ikke alltid blir kritisk verifisert
● Feil som forblir ubemerket
Vi så dette nylig også ved algoritmisk beslutningstaking (som for øvrig ikke utelukkende kunne tilskrives AI). Blind tillit uten effektive kontroller fører til feilaktige resultater.
Det profesjonelle ansvaret ligger fortsatt hos mennesker, mens bruken av disse systemene uansett øker.
Opplæring er selvfølgelig viktig i denne sammenheng.
Faktisk må organisasjoner som bruker AI, i henhold til EUs AI-lov, sørge for tilstrekkelig AI-kompetanse.
Men opplæring alene er ikke nok.
Ansvarlig bruk av AI krever klare rammer, verifiseringsprosesser og tilsyn. Det er også et spørsmål om styring og kontroll.
Disse forholdene ble påpekt av dommere i Arnhem, Rotterdam og Groningen.
Men AI brukes nå i mye bredere sammenhenger: juridisk, administrativt, finansielt og operativt.
Hvor mange av denne typen AI-genererte feil blir oppdaget? Og hvor mange blir ikke oppdaget?
Organisasjoner som bruker AI strukturelt, trenger rammeverk som er risikostyrte, testbare og administrativt forankrede.