
Este fim de semana, a NOS informou que três advogados receberam uma advertência por usarem IA (como o ChatGPT) em argumentos jurídicos, com referências a decisões que não existiam ou que diziam respeito a outros assuntos.
(O artigo: https://lnkd.in/eGAMGxmw)
Dois deles foram obrigados a frequentar um curso sobre IA pela entidade reguladora.
O que se torna evidente aqui não é um problema puramente tecnológico que se resolve com formação.
Os resultados da IA são rapidamente considerados autoritários. Um exemplo clássico de viés de automatização, reforçado pela IA: «O computador saberá melhor.»
Com o seguinte resultado:
● Resultados que nem sempre são verificados criticamente
● Erros que passam despercebidos
Vimos isso recentemente também na tomada de decisões algorítmicas (que, aliás, não era atribuível exclusivamente à IA). A confiança cega sem controlos eficazes leva a resultados incorretos.
A responsabilidade profissional continua a ser das pessoas, enquanto a utilização destes sistemas aumenta de qualquer forma.
A formação é, obviamente, importante neste contexto.
Mais ainda: ao abrigo da Lei da IA da UE, as organizações que utilizam IA devem garantir uma literacia suficiente em matéria de IA.
Mas a formação por si só não é suficiente.
A utilização responsável da IA exige quadros claros, processos de verificação e supervisão. É também uma questão de governação e controlo.
Estas questões foram assinaladas por juízes em Arnhem, Roterdão e Groninga.
Mas a IA é agora aplicada de forma muito mais ampla: jurídica, administrativa, financeira e operacional.
Quantos erros deste tipo gerados pela IA são realmente detetados? E quantos não são?
As organizações que utilizam a IA de forma estruturada precisam de quadros que sejam orientados para o risco, verificáveis e administrativamente consolidados.