Notizie

26 febbraio 2026

Questo fine settimana, l'emittente televisiva NOS ha riferito che tre avvocati hanno ricevuto un avvertimento per aver utilizzato l'intelligenza artificiale (come ChatGPT) nelle loro argomentazioni legali, con riferimenti a sentenze che si sono rivelate inesistenti o riguardanti argomenti diversi.

(L'articolo: https://lnkd.in/eGAMGxmw)

 

Due di loro sono stati obbligati dall'autorità di vigilanza a seguire un corso sull'IA.

Ciò che emerge da questo episodio non è un semplice problema tecnologico che si risolve con un corso di formazione.

I risultati dell'IA vengono rapidamente considerati autorevoli. Un classico esempio di bias di automazione, amplificato dall'IA: “Il computer saprà sicuramente cosa è meglio fare”.

 

Con il risultato che:

● I risultati non vengono sempre verificati in modo critico

● Gli errori passano inosservati

 

Lo abbiamo visto di recente anche nel caso del processo decisionale algoritmico (che, per inciso, non era attribuibile esclusivamente all'IA). La fiducia cieca senza controlli efficaci porta a risultati errati.

La responsabilità professionale rimane delle persone, mentre l'uso di questi sistemi è comunque in aumento.

 

La formazione è ovviamente importante in questo senso.

Anzi, ai sensi dell'EU AI Act, le organizzazioni che utilizzano l'IA devono garantire un'adeguata alfabetizzazione in materia di IA.

 

Ma la formazione da sola non è sufficiente.

Un uso responsabile dell'IA richiede quadri chiari, processi di verifica e supervisione. È anche un problema di governance e controllo.

Questi aspetti sono stati rilevati dai giudici di Arnhem, Rotterdam e Groningen.

Ma l'IA è ormai applicata in modo molto più ampio: in ambito giuridico, amministrativo, finanziario e operativo.

 

Quanti di questi errori generati dall'IA vengono effettivamente rilevati? E quanti no?

 

Le organizzazioni che utilizzano l'IA in modo strutturale hanno bisogno di quadri normativi basati sul rischio, verificabili e radicati a livello amministrativo.