Actualites

26 février 2026

Ce week-end, la chaîne de télévision néerlandaise NOS a rapporté que trois avocats avaient reçu un avertissement pour avoir utilisé l'IA (comme ChatGPT) dans leurs arguments juridiques, en faisant référence à des décisions qui s'avéraient inexistantes ou qui portaient sur un autre sujet.

(L'article : https://lnkd.in/eGAMGxmw)

 

Deux d'entre eux ont été obligés de suivre une formation sur l'IA par l'autorité de contrôle.

Ce qui ressort ici n'est pas un simple problème technologique que l'on peut résoudre par une formation.

Les résultats de l'IA sont rapidement considérés comme faisant autorité. Un exemple classique de biais d'automatisation, renforcé par l'IA : « L'ordinateur sait mieux que nous. »

 

Avec pour conséquence :

● Des résultats qui ne sont pas toujours vérifiés de manière critique

● Des erreurs qui passent inaperçues

 

Nous avons récemment observé ce phénomène dans le cadre de la prise de décision algorithmique (qui n'était d'ailleurs pas exclusivement attribuable à l'IA). Une confiance aveugle sans contrôles efficaces conduit à des résultats erronés.

La responsabilité professionnelle incombe toujours aux personnes, alors que l'utilisation de ces systèmes ne cesse de croître.

 

La formation est bien sûr importante à cet égard.

En effet, en vertu de la loi européenne sur l'IA, les organisations qui utilisent l'IA doivent veiller à ce que leurs employés aient une connaissance suffisante de l'IA.

 

Mais la formation seule ne suffit pas.

Une utilisation responsable de l'IA nécessite des cadres clairs, des processus de vérification et une surveillance. Il s'agit également d'un problème de gouvernance et de contrôle.

Ces questions ont été soulevées par des juges à Arnhem, Rotterdam et Groningue.

Mais l'IA est désormais utilisée à des fins beaucoup plus larges : juridiques, administratives, financières et opérationnelles.

 

Combien de ces erreurs générées par l'IA sont détectées ? Et combien ne le sont pas ?

 

Les organisations qui utilisent l'IA de manière structurelle ont besoin de cadres axés sur les risques, vérifiables et ancrés dans l'administration.