Wiadomości

26 luty 2026

W ten weekend holenderska stacja telewizyjna NOS poinformowała, że trzech prawników otrzymało ostrzeżenie za wykorzystanie sztucznej inteligencji (takiej jak ChatGPT) w argumentacji prawnej, powołując się na orzeczenia, które okazały się nieistniejące lub dotyczyły zupełnie innych spraw.

(Artykuł: https://lnkd.in/eGAMGxmw)

 

Dwóch z nich zostało skierowanych przez organ nadzorczy na obowiązkowy kurs dotyczący sztucznej inteligencji.

To, co tutaj widać, nie jest czystym problemem technologicznym, który można rozwiązać poprzez szkolenie.

Wyniki sztucznej inteligencji są szybko postrzegane jako autorytatywne. Klasyczny przykład automatyzacji, wzmocniony przez sztuczną inteligencję: „Komputer na pewno wie lepiej”.

 

W rezultacie:

● Wyniki nie zawsze są krytycznie weryfikowane

● Błędy pozostają niezauważone

 

Ostatnio obserwowaliśmy to również w przypadku algorytmicznego podejmowania decyzji (które zresztą nie było wyłącznie związane ze sztuczną inteligencją). Ślepe zaufanie bez skutecznych kontroli prowadzi do błędnych wyników.

Odpowiedzialność zawodowa pozostaje po stronie ludzi, podczas gdy wykorzystanie tych systemów i tak rośnie.

 

Szkolenia są oczywiście ważne.

Co więcej, zgodnie z unijną ustawą o sztucznej inteligencji organizacje korzystające ze sztucznej inteligencji muszą zapewnić wystarczającą znajomość tej dziedziny.

 

Jednak same szkolenia nie wystarczą.

Odpowiedzialne korzystanie ze sztucznej inteligencji wymaga jasnych ram, procesów weryfikacyjnych i nadzoru. Jest to również problem związany z zarządzaniem i kontrolą.

Kwestie te zostały zauważone przez sędziów w Arnhem, Rotterdamie i Groningen.

Jednak sztuczna inteligencja jest obecnie stosowana w znacznie szerszym zakresie: w dziedzinie prawa, administracji, finansów i operacji.

 

Ile tego typu błędów generowanych przez sztuczną inteligencję jest wykrywanych? A ile nie?

 

Organizacje, które stosują sztuczną inteligencję w sposób strukturalny, potrzebują ram, które są oparte na ryzyku, możliwe do sprawdzenia i zakorzenione w administracji.