
Αυτό το Σαββατοκύριακο, το NOS ανέφερε ότι τρεις δικηγόροι έλαβαν προειδοποίηση επειδή χρησιμοποίησαν τεχνητή νοημοσύνη (όπως το ChatGPT) σε νομικές επιχειρηματολογίες, με αναφορές σε αποφάσεις που αποδείχθηκαν ανύπαρκτες ή αφορούσαν κάτι άλλο.
(Το άρθρο: https://lnkd.in/eGAMGxmw)
Δύο από αυτούς υποχρεώθηκαν από την εποπτική αρχή να παρακολουθήσουν μαθήματα AI.
Αυτό που γίνεται εδώ εμφανές δεν είναι ένα καθαρά τεχνολογικό πρόβλημα που μπορεί να λυθεί με εκπαίδευση.
Τα αποτελέσματα της AI γρήγορα θεωρούνται έγκυρα. Ένα κλασικό παράδειγμα προκατάληψης αυτοματοποίησης, ενισχυμένο από την AI: «Ο υπολογιστής θα ξέρει καλύτερα».
Με αποτέλεσμα:
● Αποτελέσματα που δεν επαληθεύονται πάντα κριτικά
● Λάθη που παραμένουν απαρατήρητα
Αυτό το είδαμε πρόσφατα και στην αλγοριθμική λήψη αποφάσεων (η οποία, παρεμπιπτόντως, δεν αποδίδεται αποκλειστικά στην τεχνητή νοημοσύνη). Η τυφλή εμπιστοσύνη χωρίς αποτελεσματικούς ελέγχους οδηγεί σε λανθασμένα αποτελέσματα.
Η επαγγελματική ευθύνη παραμένει στους ανθρώπους, ενώ η χρήση αυτών των συστημάτων αυξάνεται ούτως ή άλλως.
Η εκπαίδευση είναι φυσικά σημαντική σε αυτό το πλαίσιο.
Πιο συγκεκριμένα: σύμφωνα με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, οι οργανισμοί που χρησιμοποιούν τεχνητή νοημοσύνη πρέπει να εξασφαλίζουν επαρκή γνώση της τεχνητής νοημοσύνης.
Ωστόσο, η εκπαίδευση από μόνη της δεν αρκεί.
Η υπεύθυνη χρήση της τεχνητής νοημοσύνης απαιτεί σαφή πλαίσια, διαδικασίες επαλήθευσης και εποπτεία. Πρόκειται επίσης για ένα ζήτημα διακυβέρνησης και ελέγχου.
Αυτά τα ζητήματα επισημάνθηκαν από δικαστές στο Άρνεμ, το Ρότερνταμ και το Γκρόνινγκεν.
Ωστόσο, η τεχνητή νοημοσύνη χρησιμοποιείται πλέον σε πολύ ευρύτερο φάσμα: νομικά, διοικητικά, οικονομικά και λειτουργικά.
Πόσα από αυτά τα σφάλματα που προκαλούνται από την τεχνητή νοημοσύνη εντοπίζονται; Και πόσα δεν εντοπίζονται;
Οι οργανισμοί που χρησιμοποιούν συστηματικά την τεχνητή νοημοσύνη χρειάζονται πλαίσια που να είναι βασισμένα στον κίνδυνο, επαληθεύσιμα και διοικητικά εδραιωμένα.