Η ψευδαίσθηση AI είναι αναπόφευκτη, πώς να την αντιμετωπίσετε
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Ζανγκ ΧάιΜε την ταχεία ανάπτυξη της τεχνολογίας τεχνητής νοημοσύνης (AI), η «ψευδαίσθηση AI», δηλαδή λάθη ή ψευδαισθήσεις στην επεξεργασία και παραγωγή πληροφοριών από την τεχνητή νοημοσύνη, έχει γίνει ένα πρόβλημα που δεν μπορεί να αγνοηθεί. Το 2023, η "ψευδαίσθηση" έγινε το λεξικό του Cambridge και η λέξη της χρονιάς του Dictionary.com. Σύμφωνα με το Dictionary.com, οι αναζητήσεις για τη λέξη «ψευδαίσθηση» αυξήθηκαν κατά 46% το 2023 σε σύγκριση με το προηγούμενο έτος. Εκτός από την αρχική έννοια του "ψευδαίσθηση" στο Λεξικό του Κέμπριτζ, "βλέποντας, ακούτε, αισθάνεστε ή μυρίζετε κάτι που δεν υπάρχει, συνήθως λόγω ιατρικής κατάστασης ή επειδή έχετε πάρει κάποιο φάρμακο." Η ψευδαίσθηση AI δημιουργεί μηνύματα σφάλματος».Ένα πρόσφατο άρθρο «Μηχανική Συμπεριφορά» στο περιοδικό «Nature» επεσήμανε ότι η τεχνητή νοημοσύνη έχει γίνει πανταχού παρούσα στην ανθρώπινη κοινωνία σήμερα οι αλγόριθμοι κατάταξης ειδήσεων θα επηρεάσουν τις πληροφορίες που βλέπουν οι άνθρωποι, οι αλγόριθμοι κατανάλωσης θα επηρεάσουν τα καταναλωτικά αγαθά που αγοράζουν οι άνθρωποι και οι αλγόριθμοι για ταξί. θα επηρεάσει τα ταξιδιωτικά μας μοτίβα και οι αλγόριθμοι έξυπνου σπιτιού θα επηρεάσουν την οικογενειακή μας ζωή Σε τομείς όπως η νομική και η ιατρική, ο αντίκτυπος της τεχνητής νοημοσύνης είναι ακόμη μεγαλύτερος. Η τεχνητή νοημοσύνη δίνει τη δυνατότητα στις μηχανές να σκέφτονται και να συμπεριφέρονται όλο και περισσότερο σαν άνθρωποι. Ως αποτέλεσμα, οι μηχανές επηρεάζουν ολοένα και περισσότερο τη δομή της ανθρώπινης κοινωνίας. Οι μηχανές διαμορφώνουν επίσης τη συμπεριφορά των μηχανών.Στην εποχή της τεχνητής νοημοσύνης, η ψευδαίσθηση AI έχει γίνει ένα κοινό φαινόμενο. Από πιθανές λανθασμένες εκτιμήσεις σε αυτοκίνητα αυτόνομης οδήγησης έως παρερμηνεία οδηγιών από έξυπνους βοηθούς έως λανθασμένες διαγνώσεις με ιατρικά διαγνωστικά εργαλεία, οι ψευδαισθήσεις AI υπάρχουν σε κάθε γωνιά της καθημερινότητάς μας. Το 2024, η μηχανή αναζήτησης Google ξεκίνησε μια υπηρεσία αναζήτησης τεχνητής νοημοσύνης: AI Overview, η οποία παρέχει απαντήσεις που δημιουργούνται από AI. Η αρχική πρόθεση ήταν να βελτιωθεί η εμπειρία του χρήστη, αλλά οι χρήστες ανακάλυψαν σύντομα ότι η επισκόπηση της τεχνητής νοημοσύνης παρείχε έναν μεγάλο αριθμό εξωφρενικών απαντήσεων, όπως η πρόταση χρήσης κόλλας για να κολλήσετε πίτσα και να τρώτε πέτρες κάθε μέρα για να λάβετε θρεπτικά συστατικά κ.λπ., προκαλώντας την Google για να τερματίσετε γρήγορα ορισμένες από τις λειτουργίες του.Από την οπτική γωνία των επιστημόνων της τεχνητής νοημοσύνης, η ψευδαίσθηση της τεχνητής νοημοσύνης είναι ουσιαστικά αναπόφευκτη λόγω τεχνικών περιορισμών και ελλείψεων στην ανθρώπινη γνώση. Παρόλο που οι τεχνικοί εργάζονται σκληρά για να βελτιώσουν την ακρίβεια και την αξιοπιστία της τεχνητής νοημοσύνης, οι ψευδαισθήσεις AI εξακολουθούν να εμφανίζονται συχνά και είναι δύσκολο να εξαλειφθούν πλήρως λόγω παραγόντων όπως ελλιπή δεδομένα, περιορισμοί αλγορίθμων και πολύπλοκα διαδραστικά περιβάλλοντα.Ο μηχανισμός της ψευδαίσθησης AI περιλαμβάνει πολλές πτυχές. Πρώτα απ 'όλα, η μεροληψία δεδομένων είναι ένας από τους κύριους λόγους Εάν τα δεδομένα εκπαίδευσης τεχνητής νοημοσύνης στερούνται ποικιλομορφίας ή έχουν συστηματική προκατάληψη, τα αποτελέσματα εξόδου μπορεί να είναι παραισθησιογόνα. Δεύτερον, οι τρέχοντες αλγόριθμοι τεχνητής νοημοσύνης, ειδικά αυτοί που βασίζονται σε στατιστικές, δεν μπορούν να προσαρμοστούν τέλεια σε νέες, αόρατες καταστάσεις, οι οποίες μπορεί να οδηγήσουν σε εσφαλμένες κρίσεις. Τρίτον, οι γνωστικοί περιορισμοί των ανθρώπινων σχεδιαστών είναι επίσης ένα σημαντικό πρόβλημα. Τέλος, το διαδραστικό περιβάλλον στο οποίο λειτουργεί το σύστημα τεχνητής νοημοσύνης είναι γεμάτο μεταβλητές Οι περίπλοκοι και μεταβαλλόμενοι περιβαλλοντικοί παράγοντες συχνά υπερβαίνουν τις δυνατότητες επεξεργασίας του συστήματος AI, οδηγώντας στη δημιουργία παραισθήσεων τεχνητής νοημοσύνης.Πώς να αντιμετωπίσετε την πανταχού παρουσία και το αναπόφευκτο των παραισθήσεων AI; Πρώτον, η βελτίωση της ποιότητας και της ποικιλομορφίας των δεδομένων είναι θεμελιώδης. Αυξάνοντας το εύρος και το βάθος των δεδομένων εκπαίδευσης, η προκατάληψη δεδομένων μπορεί να μειωθεί και να βελτιωθεί η ικανότητα γενίκευσης του συστήματος AI. Δεύτερον, η βελτιστοποίηση του σχεδιασμού του αλγορίθμου και η ενίσχυση της ευρωστίας και της προσαρμοστικότητάς του μπορεί να επιτρέψει στο σύστημα AI να αντιμετωπίσει καλύτερα τις νέες καταστάσεις. Τρίτον, είναι επίσης ζωτικής σημασίας να βελτιωθεί η εκπαίδευση και η ευαισθητοποίηση των χρηστών Βοηθώντας τους χρήστες να κατανοήσουν σωστά τις δυνατότητες και τους περιορισμούς της τεχνητής νοημοσύνης μπορεί να μειώσει αποτελεσματικά τις ψευδαισθήσεις που προκαλούνται από παρεξηγήσεις. Επιπλέον, η θέσπιση ηθικών κανόνων και μηχανισμών εποπτείας για να διασφαλιστεί ότι η ανάπτυξη και η εφαρμογή της τεχνητής νοημοσύνης συμμορφώνονται με ηθικά και νομικά πρότυπα είναι εξίσου σημαντική για τη μείωση της εμφάνισης ψευδαισθήσεων με τεχνητή νοημοσύνη. Τέλος, η διεπιστημονική συνεργασία παίζει βασικό ρόλο στην αντιμετώπιση των παραισθήσεων AI. Μηχανικοί, επιστήμονες δεδομένων, ψυχολόγοι, ηθικολόγοι και νομικοί εμπειρογνώμονες θα πρέπει να συμμετέχουν από κοινού στη διαδικασία σχεδιασμού και αξιολόγησης συστημάτων τεχνητής νοημοσύνης και να λύσουν από κοινού το πρόβλημα της ψευδαίσθησης της τεχνητής νοημοσύνης από την επαγγελματική οπτική γωνία των αντίστοιχων πεδίων τους.Στην εποχή της τεχνητής νοημοσύνης, η ψευδαίσθηση με τεχνητή νοημοσύνη είναι ένα περίπλοκο, κοινό και αναπόφευκτο πρόβλημα, το οποίο απαιτεί από εμάς να υιοθετήσουμε πολυδιάστατες και πολυεπίπεδες στρατηγικές για να το αντιμετωπίσουμε, ελαχιστοποιώντας έτσι τον αρνητικό αντίκτυπο της ψευδαίσθησης AI. Οι «Οδηγίες για τη γενετική τεχνητή νοημοσύνη στην εκπαίδευση και την έρευνα» που κυκλοφόρησε από την UNESCO το 2023 συνιστά να οριστεί η ελάχιστη ηλικία για τη χρήση εργαλείων τεχνητής νοημοσύνης στην τάξη στα 13 έτη. Το Open AI συνιστά να απαγορεύεται στα παιδιά ηλικίας κάτω των 13 ετών να χρησιμοποιούν γενετική τεχνητή νοημοσύνη και τα παιδιά ηλικίας 13 έως 18 ετών πρέπει να τη χρησιμοποιούν υπό την καθοδήγηση κηδεμόνα.Το 2023 θα πραγματοποιηθεί στη Σιγκαπούρη Διάσκεψη Κορυφής για τα Αξιόπιστα ΜΜΕ για να μοιραστούν τα μέτρα που έχουν ληφθεί από διάφορες χώρες για τη βελτίωση της παιδείας στα μέσα επικοινωνίας των νέων. Για παράδειγμα, το "SQUIZ KIDS", μια δραστηριότητα δημόσιας πρόνοιας που ξεκίνησε στο εξωτερικό με βάση ιστοσελίδες και podcast και στοχεύει μαθητές δημοτικού σχολείου για τη βελτίωση της παιδείας στα μέσα επικοινωνίας, βοηθά στην καλλιέργεια της ικανότητας των νέων να διακρίνουν παραπληροφόρηση και ψευδείς πληροφορίες που εμφανίζονται στο Διαδίκτυο. Αποτελείται κυρίως από τρία βήματα: ΣΤΑΜΑΤΗΣΤΕ όταν εκτίθεστε σε πληροφορίες δικτύου, σκεφτείτε το (THINK) και τέλος ελέγξτε ένα ζεύγος (ΕΛΕΓΧΟΣ) για να επιβεβαιώσετε εάν είναι σύμφωνο με μια αξιόπιστη πηγή πληροφοριών. Συγκεντρώνοντας γνώσεις και δεξιότητες από διαφορετικούς τομείς για τον πιο ολοκληρωμένο εντοπισμό προβλημάτων και την εξεύρεση λύσεων, μπορούμε να προσβλέπουμε στην άφιξη μιας εξυπνότερης, ασφαλέστερης και πιο αξιόπιστης κοινωνίας τεχνητής νοημοσύνης. (Ο συγγραφέας είναι καθηγητής στο School of Media Science στο Northeast Normal University και διευθυντής του Επαρχιακού Κέντρου Μηχανικής Καινοτομίας Εκπαίδευσης και Τεχνητής Νοημοσύνης Jilin) ▲