Noticias

26 febrero 2026

Este fin de semana, la NOS informó de que tres abogados habían recibido una advertencia por utilizar IA (como ChatGPT) en argumentos jurídicos, con referencias a sentencias que resultaron no existir o que se referían a otros asuntos.

(El artículo: https://lnkd.in/eGAMGxmw)

 

Dos de ellos han sido obligados por el organismo regulador a realizar un curso sobre IA.

Lo que se pone de manifiesto aquí no es un problema puramente tecnológico que se pueda resolver con formación.

Los resultados de la IA se consideran rápidamente como autoritarios. Un ejemplo clásico de sesgo de automatización, reforzado por la IA: «El ordenador sabrá más».

 

El resultado es:

● Resultados que no siempre se verifican de forma crítica

● Errores que pasan desapercibidos

 

Recientemente hemos visto esto también en la toma de decisiones algorítmica (que, por cierto, no se puede atribuir exclusivamente a la IA). La confianza ciega sin controles efectivos conduce a resultados erróneos.

La responsabilidad profesional sigue recayendo en las personas, mientras que el uso de estos sistemas aumenta de todos modos.

 

Por supuesto, la formación es importante en este sentido.

Es más, en virtud de la Ley de IA de la UE, las organizaciones que utilizan IA deben garantizar un nivel suficiente de alfabetización en IA.

 

Pero la formación por sí sola no es suficiente.

El uso responsable de la IA requiere marcos claros, procesos de verificación y supervisión. También es un problema de gobernanza y control.

Estas cuestiones fueron señaladas por los jueces de Arnhem, Róterdam y Groninga.

Pero la IA se aplica ahora de forma mucho más amplia: en los ámbitos jurídico, administrativo, financiero y operativo.

 

¿Cuántos de estos errores generados por la IA se detectan? ¿Y cuántos no?

 

Las organizaciones que utilizan la IA de forma estructural necesitan marcos que estén basados en el riesgo, sean verificables y estén arraigados en la administración.