Noticias

26 fevereiro 2026

Este fim de semana, a NOS informou que três advogados receberam uma advertência por usarem IA (como o ChatGPT) em argumentos jurídicos, com referências a decisões que não existiam ou que diziam respeito a outros assuntos.

(O artigo: https://lnkd.in/eGAMGxmw)

 

Dois deles foram obrigados a frequentar um curso sobre IA pela entidade reguladora.

O que se torna evidente aqui não é um problema puramente tecnológico que se resolve com formação.

Os resultados da IA são rapidamente considerados autoritários. Um exemplo clássico de viés de automatização, reforçado pela IA: «O computador saberá melhor.»

 

Com o seguinte resultado:

● Resultados que nem sempre são verificados criticamente

● Erros que passam despercebidos

 

Vimos isso recentemente também na tomada de decisões algorítmicas (que, aliás, não era atribuível exclusivamente à IA). A confiança cega sem controlos eficazes leva a resultados incorretos.

A responsabilidade profissional continua a ser das pessoas, enquanto a utilização destes sistemas aumenta de qualquer forma.

 

A formação é, obviamente, importante neste contexto.

Mais ainda: ao abrigo da Lei da IA da UE, as organizações que utilizam IA devem garantir uma literacia suficiente em matéria de IA.

 

Mas a formação por si só não é suficiente.

A utilização responsável da IA exige quadros claros, processos de verificação e supervisão. É também uma questão de governação e controlo.

Estas questões foram assinaladas por juízes em Arnhem, Roterdão e Groninga.

Mas a IA é agora aplicada de forma muito mais ampla: jurídica, administrativa, financeira e operacional.

 

Quantos erros deste tipo gerados pela IA são realmente detetados? E quantos não são?

 

As organizações que utilizam a IA de forma estruturada precisam de quadros que sejam orientados para o risco, verificáveis e administrativamente consolidados.