Γιατί τα συστήματα τεχνητής νοημοσύνης έχουν παραισθήσεις

Σήμερα, η τεχνητή νοημοσύνη (AI) λειτουργεί με τη μορφή εικονικών βοηθών, έξυπνων οικιακών συσκευών, διαγνωστικών συστημάτων υγείας και αυτοκινούμενων αυτοκινήτων. Παρ’ όλα αυτά, προκύπτει ένα πρόβλημα με την ανάπτυξη αυτής της κρίσιμης τεχνολογίας, διότι προκαλεί αυτό που αναφέρεται ως «ψευδαισθήσεις τεχνητής νοημοσύνης».

Γιατί έχουν παραισθήσεις τα συστήματα τεχνητής νοημοσύνης;

Με απλά λόγια, οι ψευδαισθήσεις τεχνητής νοημοσύνης αναφέρονται σε περιπτώσεις συστημάτων τεχνητής νοημοσύνης που παράγουν ή συμπεραίνουν λανθασμένες πληροφορίες που δεν υπήρχαν κατά τη διάρκεια της συλλογής δεδομένων εκπαίδευσής τους. Από την άλλη πλευρά, η αποτυχία επίλυσης των ψευδαισθήσεων τεχνητής νοημοσύνης μπορεί να οδηγήσει σε προβλήματα όπως η διάδοση ψευδών γεγονότων και η μεροληπτική κρίση, οδηγώντας τόσο σε οικονομικά προβλήματα όσο και σε προβλήματα ασφάλειας. Θα εξηγήσουμε γιατί τα συστήματα τεχνητής νοημοσύνης έχουν παραισθήσεις, τις αιτίες τους και την πρόληψή τους.

Οι ψευδαισθήσεις των συστημάτων τεχνητής νοημοσύνης είναι πιθανό να εμφανιστούν όταν ένα μεγάλο γλωσσικό μοντέλο είναι σε θέση να παρατηρήσει χαρακτηριστικά ή αντικείμενα που δεν έχουν παρατηρηθεί ποτέ ή δεν υπάρχουν καθόλου. Αυτό το κάνει να παράγει λανθασμένες πληροφορίες εξόδου που δεν έχουν νόημα στην πραγματική ζωή, αλλά σε ορισμένες περιπτώσεις βασίζονται σε μοτίβα/αντικείμενα που αντιλαμβάνεται το ίδιο.

Με άλλα λόγια, τα συστήματα τεχνητής νοημοσύνης έχουν παραισθήσεις, καθώς τα μοντέλα κάνουν ψευδείς δηλώσεις ή εξαρτώνται από ασήμαντα μοτίβα και προκαταλήψεις στα δεδομένα εκπαίδευσης για να παράγουν ή να υπερασπιστούν αμφιλεγόμενες απαντήσεις, αλλά αυτό συμβαίνει σε υψηλότερο επίπεδο πολυπλοκότητας.

Αιτίες ψευδαισθήσεων τεχνητής νοημοσύνης

Υπάρχουν μερικοί βασικοί λόγοι για τους οποίους τα συστήματα τεχνητής νοημοσύνης έχουν παραισθήσεις:

Προκαταλήψεις δεδομένων

Τα δεδομένα που λείπουν ή/και τα δείγματα δεδομένων εκπαίδευσης που είναι ελλιπή ή περιέχουν μεροληπτικά/προκαταληπτικά στοιχεία προβάλλονται από τα περισσότερα μοντέλα, επειδή η τεχνητή νοημοσύνη δεν έχει τρόπο να κρίνει τη σχετική δικαιοσύνη ή προκατάληψη.

Για παράδειγμα, έχουν υπάρξει περιπτώσεις όπου οι αλγόριθμοι αναγνώρισης προσώπου δεν ήταν σε θέση να αναγνωρίσουν μη λευκά πρόσωπα – αυτό αποδόθηκε σε σύνολα δεδομένων εκπαίδευσης που καταρτίστηκαν με βάση τέτοιες προκαταλήψεις.

Υπερπροσαρμογή

Η υπερβολική πληροφορία στη βάση δεδομένων της είναι ένας άλλος λόγος για τον οποίο τα συστήματα τεχνητής νοημοσύνης παραληρούν. Ορισμένα από τα ζητήματα που αφορούν τα αναγνωρισμένα νευρωνικά δίκτυα είναι ότι, ενώ μαθαίνουν από τα μοτίβα σε αυτό το περιορισμένο σύνολο δεδομένων, μπορεί μάλλον να «απομνημονεύουν» ή να «υπερπροσαρμόζουν» πολύ θορυβώδη μοτίβα. Αυτό, με τη σειρά του, τα καθιστά πιο πιθανό να παραισθήσεις όταν εκτίθενται σε εισόδους διαφορετικές από αυτές που αντιμετώπισαν κατά την εκπαίδευση.

Συσσώρευση σφαλμάτων

Μικρά σφάλματα ή θόρυβος στα δεδομένα εισόδου θα μεγεθυνθούν στην ιεραρχικά επεξεργασμένη μορφή τους και σε μεγάλα μοντέλα μετασχηματιστών με μερικά δισεκατομμύρια παραμέτρους, για παράδειγμα, μπορεί να οδηγήσουν στη δημιουργία παραμορφωμένων ή ακόμη και κατασκευασμένων εξόδων.

Βρόχοι ανατροφοδότησης

Το πρόβλημα των ψευδαισθήσεων μπορεί ακόμη και να επιδεινωθεί στα αυτοεπιβλεπόμενα συστήματα, αν δεν διορθωθεί. Για παράδειγμα, μια τεχνητή νοημοσύνη μπορεί να δημιουργήσει μια φωτογραφία με βάση ένα νευρωνικό δίκτυο και μια βαθιά απομίμηση μπορεί να κάνει μια άλλη τεχνητή νοημοσύνη να πιστέψει ότι η πληροφορία είναι πραγματική.

Πιθανές βλάβες που προέρχονται από ψευδαισθήσεις τεχνητής νοημοσύνης

Οι ψευδαισθήσεις τεχνητής νοημοσύνης θέτουν σοβαρές προκλήσεις. Ακολουθούν οι ακόλουθες περιπτώσεις που μπορούμε να περιμένουμε αν δεν αντιμετωπιστούν:

Παραπληροφόρηση

Η έλλειψη ειλικρίνειας σε συνδυασμό με την πλαστογραφική φύση της τεχνητής νοημοσύνης bot σημαίνει ότι οι ψεύτικες στατιστικές και η παραπληροφόρηση θα μπορούσαν να γίνουν viral και να διαστρεβλώσουν την ικανότητα των ανθρώπων να βρίσκουν αξιόπιστα δεδομένα. Αυτό είναι σε μεγάλο βαθμό ανησυχητικό εάν τα συστήματα χρησιμοποιούνται στη δημοσιογραφία, την εκπαίδευση ή σε τομείς χάραξης δημόσιας πολιτικής.

Παραβιάσεις της ιδιωτικής ζωής

Ευαίσθητα ιδιωτικά δεδομένα σχετικά με άτομα που δεν παρατηρήθηκαν ποτέ θα μπορούσαν να παραβιάσουν βαθιά την ιδιωτική ζωή και να διαβρώσουν την εμπιστοσύνη, εάν τέτοια συστήματα εφαρμοστούν στα αντίστοιχα καθήκοντα, όπως η υγειονομική περίθαλψη, η επιβολή του νόμου κ.λπ.

Βλάβες σε περιθωριοποιημένες ομάδες

Όπως έχει σημειωθεί προηγουμένως, στα σύνολα δεδομένων τεχνητής νοημοσύνης, οι προκαταλήψεις επιλογής λέγεται πολύ καλά ότι εισάγουν διακρίσεις εις βάρος κοινωνικά μειονεκτουσών ομάδων και μετατρέπουν την κοινωνική δικαιοσύνη σε ακόμη μεγαλύτερο πρόβλημα.

Κίνδυνοι για την ασφάλεια

Οι παραισθήσεις της τεχνητής νοημοσύνης έχουν παραπληροφόρηση όσον αφορά τις σημειώσεις ή τους οδηγούς στα αυτοκινούμενα αυτοκίνητα ή τις ιατρικές διαγνωστικές συσκευές, γεγονός που μπορεί να οδηγήσει σε ατυχήματα, τραυματισμούς ή λανθασμένες ιατρικές αποφάσεις, επειδή τα εν λόγω συστήματα τεχνητής νοημοσύνης εξαρτώνται από ατελείς πληροφορίες.

Οικονομικό κόστος

Η έλλειψη καινοτομιών και ανάπτυξης από τη χρήση ψευδαισθήσεων τεχνητής νοημοσύνης για πολλαπλές εγκαταστάσεις και παραδόσεις υπηρεσιών θα μπορούσε να οδηγήσει σε απώλεια της εμπιστοσύνης των πελατών καθώς και σε μείωση της αξίας των σχετικών οργανισμών και εγκαταστάσεων. Η απόδοση ενός απτού αριθμού σε αυτά τα κόστη δεν είναι πάντα δυνατή, αλλά οι κίνδυνοι είναι πάρα πολύ καλοί.

Πρόληψη ψευδαισθήσεων τεχνητής νοημοσύνης

Ακολουθούν τα προληπτικά βήματα που λαμβάνουν οι ερευνητές για την πρόληψη των ψευδαισθήσεων τεχνητής νοημοσύνης:

Ευρύ φάσμα αμερόληπτων δεδομένων

Η συγκέντρωση συνόλων δεδομένων εκπαίδευσης που δεν περιέχουν προκαταλήψεις ή δεν ευνοούν ένα τμήμα της κοινωνίας έναντι ενός άλλου βοηθά την τεχνητή νοημοσύνη να εκπαιδευτεί καλά. Οι δημόσιες βάσεις δεδομένων πρέπει να καθαρίζονται και να ελέγχονται τα γεγονότα για να αποτρέπεται η διάδοση πλαστών δεδομένων.

Προεπεξεργασία δεδομένων

Μέτρα όπως η απομάκρυνση εξωφρενικών παρατηρήσεων, η ανωνυμοποίηση δεδομένων, η μείωση χαρακτηριστικών κ.λπ. μπορούν να βοηθήσουν στην εξάλειψη του θορύβου και των ανεπιθύμητων μοτίβων από τα δεδομένα πριν από την τροφοδότηση του συστήματος.

Αξιολόγηση μοντέλου

Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να υποβάλλονται σε συνεχή έλεγχο με τη χρήση νέων συνόλων δεδομένων αξιολόγησης που είναι προσεκτικά σχεδιασμένα για τον εντοπισμό νέων ψευδαισθήσεων.

Παρακολούθηση μοντέλου

Για να ληφθεί υπόψη μια ανεπιθύμητη αντίδραση της τεχνητής νοημοσύνης, μηχανισμοί όπως οι κάρτες μοντέλων ή οι δηλώσεις δεδομένων μπορούν να επιτρέψουν την καταγραφή της συμπεριφοράς της τεχνητής νοημοσύνης κατά τη διάρκεια του χρόνου.

Εξηγήσιμη τεχνητή νοημοσύνη

Χρησιμοποιώντας μεθοδολογίες όπως οι χάρτες προσοχής και οι τιμές SHAP, μπορεί κανείς να κατανοήσει γιατί τα μοντέλα κατέληξαν σε αυτή την απόκριση, καθώς και να εντοπίσει απλές αναλύσεις με βάση χαρακτηριστικά συμβατά με τα πρότυπα σε σύγκριση με τυχαία πρότυπα.

Συντηρητική ανάπτυξη

Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να περιορίζονται σε συγκεκριμένους τομείς και να έχουν μόνο περιορισμένη και ελεγχόμενη χρήση με ανθρώπους να επιβλέπουν τη χρήση μέχρις ότου η τεχνητή νοημοσύνη αποδειχθεί ασφαλής, αξιόπιστη και διπλά δίκαιη στη μεταχείριση με τους ανθρώπους.

Για να βοηθήσουν την τεχνητή νοημοσύνη να συνεχίσει να οδηγεί σε κοινωνικά οφέλη και να αποτρέψουν τον κίνδυνο ζημιών που σχετίζονται με παραισθήσεις, οι οργανισμοί θα πρέπει να αντιμετωπίζουν εκ των προτέρων τα προβλήματα ποιότητας δεδομένων και μοντέλων. Να είστε προσεκτικοί και υπεύθυνοι για την αποφυγή σοβαρών επιπτώσεων που μπορεί να προκύψουν από τις ψευδαισθήσεις της τεχνητής νοημοσύνης και τις σχετικές πλάνες.

Εν ολίγοις, οι κίνδυνοι ψευδαισθήσεων τεχνητής νοημοσύνης μπορούν να ελεγχθούν εάν εφαρμοστούν αντίστοιχες στρατηγικές για την άμβλυνσή τους. Παρ’ όλα αυτά, η αποφυγή πιθανών αρνητικών αποτελεσμάτων απαιτεί επίμονη παρατήρηση από τους προγραμματιστές τεχνολογίας και όσους επηρεάζουν τις αλλαγές πολιτικής. Μόνο μετά από τέτοιες κοινές προσπάθειες μπορούμε να αναπτύξουμε ένα σύστημα τεχνητής νοημοσύνης που να επηρεάζει θετικά τους ανθρώπους και ταυτόχρονα να εγγυάται την προστασία τους.

Τέλος, έχουμε ετοιμάσει για εσάς τις πιο συχνές ερωτήσεις και τις απαντήσεις τους

Τι είναι οι ψευδαισθήσεις της τεχνητής νοημοσύνης;

Οι ψευδαισθήσεις τεχνητής νοημοσύνης αναφέρονται σε περιπτώσεις όπου τα συστήματα τεχνητής νοημοσύνης παράγουν ψευδείς ή μη λογικές πληροφορίες, συχνά λόγω εσφαλμένης ερμηνείας δεδομένων ή προτύπων.

Γιατί τα συστήματα τεχνητής νοημοσύνης έχουν παραισθήσεις;

Τα συστήματα τεχνητής νοημοσύνης μπορεί να έχουν παραισθήσεις λόγω διαφόρων παραγόντων, όπως η υπερβολική προσαρμογή, οι προκαταλήψεις στα δεδομένα εκπαίδευσης και η υψηλή πολυπλοκότητα του μοντέλου.

Πόσο συχνές είναι οι ψευδαισθήσεις τεχνητής νοημοσύνης;

Οι ψευδαισθήσεις μπορεί να είναι αρκετά συχνές στην τεχνητή νοημοσύνη, ιδίως σε μεγάλα γλωσσικά μοντέλα και γεννητικά εργαλεία που δεν έχουν περιορισμούς ως προς τα πιθανά αποτελέσματα.

Μπορούν να προληφθούν οι ψευδαισθήσεις της τεχνητής νοημοσύνης;

Η πρόληψη των ψευδαισθήσεων τεχνητής νοημοσύνης περιλαμβάνει τον καθορισμό σαφών ορίων για τα μοντέλα τεχνητής νοημοσύνης με τη χρήση εργαλείων φιλτραρίσματος και τον καθορισμό πιθανολογικών ορίων.

Ποιες είναι οι συνέπειες των ψευδαισθήσεων τεχνητής νοημοσύνης;

Οι συνέπειες μπορεί να κυμαίνονται από τη διάδοση παραπληροφόρησης έως την πρόκληση πραγματικής βλάβης, όπως λανθασμένες ιατρικές διαγνώσεις.

Πώς επηρεάζουν οι ψευδαισθήσεις τεχνητής νοημοσύνης την εμπιστοσύνη στα συστήματα τεχνητής νοημοσύνης;

Οι ψευδαισθήσεις μπορούν να υπονομεύσουν την εμπιστοσύνη στην τεχνητή νοημοσύνη, καθώς καθιστούν δύσκολο να βασιστεί κανείς στα αποτελέσματα του συστήματος χωρίς επαλήθευση.

Υπάρχουν διάσημα παραδείγματα ψευδαισθήσεων τεχνητής νοημοσύνης;

Ναι, στα αξιοσημείωτα παραδείγματα περιλαμβάνονται τα chatbots που παράγουν ψεύτικες ακαδημαϊκές εργασίες ή παρέχουν εσφαλμένες πληροφορίες σε αλληλεπιδράσεις εξυπηρέτησης πελατών.

Συμβαίνουν ψευδαισθήσεις τεχνητής νοημοσύνης τόσο σε συστήματα γλώσσας όσο και σε συστήματα εικόνων;

Ναι, ψευδαισθήσεις τεχνητής νοημοσύνης μπορούν να εμφανιστούν τόσο σε γλωσσικά μοντέλα όσο και σε συστήματα υπολογιστικής όρασης.

Τι ρόλο παίζουν τα δεδομένα εκπαίδευσης στις ψευδαισθήσεις τεχνητής νοημοσύνης;

Τα δεδομένα εκπαίδευσης είναι ζωτικής σημασίας – τα μεροληπτικά ή μη αντιπροσωπευτικά δεδομένα μπορούν να οδηγήσουν σε ψευδαισθήσεις που αντικατοπτρίζουν αυτές τις μεροληψίες.

Υπάρχει τρέχουσα έρευνα για την αντιμετώπιση των ψευδαισθήσεων τεχνητής νοημοσύνης;

Ναι, υπάρχει σημαντική έρευνα που επικεντρώνεται στην κατανόηση και τον μετριασμό των ψευδαισθήσεων τεχνητής νοημοσύνης για τη βελτίωση της αξιοπιστίας των συστημάτων τεχνητής νοημοσύνης.