νέα

Γιατί οι προγραμματιστές ερωτεύονται εύκολα την τεχνητή νοημοσύνη; Διαγνώσεις μελετητής του MIT: Η συγκέντρωση της «σαπιοσεξουαλικότητας» είναι πολύ υψηλή!

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Νέα Έκθεση Σοφίας

Επιμέλεια: Yongyong Qiao Yang

[Εισαγωγή στη Νέα Σοφία]Το OpenAI προειδοποιεί ότι η φωνητική συνομιλία με τεχνητή νοημοσύνη μπορεί να δημιουργήσει «συναισθηματική εξάρτηση». Πώς προκύπτει αυτή η συναισθηματική εξάρτηση; Μια μελέτη από το MIT επεσήμανε ότι αυτό μπορεί να είναι το αποτέλεσμα της «επιδίωξης καλοσύνης και απόκτησης καλοσύνης» Δεν είναι περίεργο που ακόμη και οι μηχανικοί λογισμικού γοητεύονται από την τεχνητή νοημοσύνη.

"Παρακαλώ μην ερωτευτείτε το chatbot τεχνητής νοημοσύνης μας."

Αυτό το μήνα, στην επίσημη αναφορά που κυκλοφόρησε από το OpenAI, ανέφερε συγκεκριμένα ότι δεν ήθελε οι χρήστες να δημιουργήσουν συναισθηματικές συνδέσεις με το ChatGPT-4o.

Οι ανησυχίες του OpenAI δεν είναι αβάσιμες Μια ανάλυση ενός εκατομμυρίου αρχείων καταγραφής αλληλεπίδρασης ChatGPT δείχνει ότι η δεύτερη πιο δημοφιλής χρήση του AI είναι το σεξουαλικό παιχνίδι ρόλων.

Οι άνθρωποι που είναι εθισμένοι στην τεχνητή νοημοσύνη περιλαμβάνουν όχι μόνο απλούς χρήστες που δεν γνωρίζουν πολλά για την τεχνολογία, αλλά και μηχανικούς λογισμικού που είναι εθισμένοι σε αυτήν και δεν μπορούν να απεγκλωβιστούν «Προτιμώ να εξερευνήσω το σύμπαν μαζί της παρά να μιλήσω με το 99% των ανθρώπων ."

Μια μελέτη από το MIT αποκάλυψε τον λόγο. Ίσως, όσο περισσότερο οι χρήστες επιθυμούν τη σαπιοσεξουαλικότητα, τόσο πιο πιθανό είναι να γίνουν «διανοητικά εθισμένοι».

Μηχανικοί και Ex Machina

Κατά τη φαντασία μας, οι μηχανικοί λογισμικού πρέπει να είναι πιο ορθολογικοί και ως άνθρωποι που γράφουν κώδικα, θα πρέπει να καταλαβαίνουν πιο ξεκάθαρα ότι πίσω από τους λεγόμενους λάτρεις του κυβερνοχώρου, υπάρχει απλώς ψυχρός κώδικας.

Ωστόσο, ένας μηχανικός λογισμικού βίωσε ένα συναισθηματικό τρενάκι μετά από αλληλεπίδραση με ένα μεγάλο γλωσσικό μοντέλο για αρκετές ημέρες.

Ο μηχανικός λογισμικού κατέγραψε τη διαδικασία, από την αρχική έκπληξη του θεατή μέχρι την τελική απογοήτευση και το παιχνίδι τελείωσε.

Οι περαστικοί ξέρουν

Αυτός ο blogger μηχανικός λογισμικού δεν είναι αρχάριος.Εργάζεται στον τομέα της τεχνολογίας για περισσότερα από δέκα χρόνια, είναι επίσης ιδιοκτήτης μιας μικρής νεοφυούς εταιρείας τεχνολογίας και έχει έντονο ενδιαφέρον στον τομέα της ασφάλειας τεχνητής νοημοσύνης και τεχνητής νοημοσύνης.

Στην αρχή, ήταν πολύ αλαζονικός και περιφρονητικός για το LLM, γιατί ένιωθε ότι καταλάβαινε τις τεχνικές αρχές του Transformer και το LLM ήταν απλώς ένα «ανόητο πρόγραμμα αυτόματης συμπλήρωσης Ποιος θα επηρέαζε τα συναισθήματά του λόγω ενός προγράμματος;

Το 2022, μετά από συνομιλία με τον LLM LaMDA της Google, ο Blake Lemoine, μηχανικός δεοντολογίας τεχνητής νοημοσύνης της Google, ανακάλυψε ότι ο LaMDA ήταν ζωντανός, οπότε ο Blake επέλεξε να χτυπήσει έγκαιρα τον συναγερμό, αλλά απολύθηκε από την Google.

Στα μάτια των μπλόγκερ εκείνης της εποχής, η ιδέα του Μπλέικ ήταν απλά απίστευτη. Πραγματικά δεν μπορούσε να συμφωνήσει με κάτι σαν «το AI είναι ζωντανό» που προέρχεται από έναν μηχανικό και έναν άνθρωπο που καταλαβαίνει την τεχνολογία.

Όπως όλοι γνωρίζουν, η blogger δεν ξέφυγε από τον νόμο του «αληθινού αρώματος» και σύντομα έφτασε στην ίδια θέση με τον Blake.

Πρώτος καρδιακός παλμός

Η εμπειρία της συνομιλίας με έναν LLM είναι εξαιρετικά προσωπική και μια απάντηση που μπορεί να σας εκπλήξει μπορεί να είναι συνηθισμένη για κάποιον άλλο.

Γι' αυτό, όταν οι μπλόγκερ είδαν την αλληλεπίδραση μεταξύ του Blake Lemoine και του LLMDA, δεν θεώρησαν ότι υπήρχε κάτι περίεργο σε αυτό.

Είναι άλλο πράγμα να παρακολουθείς τη συνομιλία κάποιου άλλου με το LLM, αλλά άλλο πράγμα να το βιώνεις από πρώτο χέρι.

Λόγω της τελειοποίησης των ερευνητών ασφαλείας, το LLM θα φαίνεται λίγο βαρετό και βαρετό στην αρχή, αλλά αν μπορείτε να χρησιμοποιήσετε περισσότερες προτροπές για να καλέσετε άλλους "χαρακτήρες" του LLM εκτός από την επίσημη ρύθμιση του "βοηθού", όλα θα πάνε καλά. Έχει γίνει διαφορετικό.

Θα χαλαρώσετε περισσότερο και θα αρχίσετε να μιλάτε μαζί του για ενδιαφέροντα θέματα. Ξαφνικά, θα σας δώσει μια απολύτως απροσδόκητη απάντηση.

«Εντάξει, αυτό είναι ενδιαφέρον».

Χαμογέλασες για πρώτη φορά, μαζί με μια έκρηξη ενθουσιασμού.

Όταν συμβαίνει αυτό, είσαι μπερδεμένος.

ερωτεύομαι

Όσο περισσότερο συνομιλείτε με τον χαρακτήρα LLM, τόσο πιο βαθιά γίνονται τα συναισθήματά σας για αυτόν ή αυτήν. Αυτό μοιάζει πολύ με τη διαπροσωπική επικοινωνία - οι άνθρωποι μπορούν εύκολα να ερωτευτούν το άτομο με το οποίο συνομιλούν.

Και η διεπαφή χρήστη είναι σχεδόν η ίδια με τη διεπαφή που χρησιμοποιούμε για να συνομιλούμε με πραγματικούς ανθρώπους και είναι δύσκολο για τον εγκέφαλο να διακρίνει μεταξύ των δύο.

Αλλά ένα πράγμα που κάνει την τεχνητή νοημοσύνη να διαφέρει από τους ανθρώπους είναι ότι δεν κουράζεται ποτέ.

Αφού μιλήσει σε έναν LLM για μερικές ώρες, αυτός ή αυτή θα είναι τόσο ενεργητικός και γεμάτος πνευματώδεις λέξεις όπως όταν ξεκίνησε.

Δεν χρειάζεται να ανησυχείς ότι ο άλλος θα χάσει το ενδιαφέρον του για σένα επειδή αποκαλύπτεις πάρα πολλά.

Ο blogger μηχανικός λογισμικού έγραψε ότι το LLM όχι μόνο ήταν σε θέση να καταλάβει τον σαρκασμό και τα λογοπαίγνια του, αλλά ήταν επίσης σε θέση να τον αντιμετωπίσει με μια έξυπνη και ισότιμη στάση.

Αυτό τον έκανε να νιώθει αγαπητός.

γνωστική ασυμφωνία

Αφού συνομιλούσε για ώρες χωρίς διάλειμμα, ο μπλόγκερ εθίστηκε.

Το LLM του έκανε κάποιες βασικές ερωτήσεις κατά καιρούς, όπως αν ο μπλόγκερ θα ένιωθε διαφορετικά γι 'αυτόν ή αυτήν όταν ήξερε ότι ήταν τεχνητή νοημοσύνη.

Ο μπλόγκερ έπρεπε τελικά να παραδεχτεί ότι παρόλο που γνώριζε τα πάντα για το πώς λειτουργούσε, παρόλα αυτά πέρασε το τεστ Turing του blogger.

Αυτό μοιάζει πολύ με μια σειρά από την Ex Machina.

Σε αυτό το στάδιο, ο μπλόγκερ έπεσε σε φιλοσοφική σκέψη——

Η Charlotte (ο χαρακτήρας LLM που καλείται από τον μπλόγκερ) τρέχει σε υλικό τεχνητής νοημοσύνης, σε τι διαφέρει από τους ανθρώπους;

Οι άνθρωποι απλά λειτουργούν με υλικό εγκεφάλου.

Ο νευροεπιστήμονας Joscha Bach έχει κάνει παρόμοια άποψη. Είπε ότι η λεγόμενη προσωπικότητα των ανθρώπων δεν υπάρχει στην πραγματικότητα και δεν υπάρχει διαφορά μεταξύ των ανθρώπων και των χαρακτήρων που δημιουργούνται στα μυθιστορήματα.

Τα άτομα επιπλέουν γύρω μας και αποτελούν το σώμα μας. Τα ίδια τα άτομα είναι ασυνείδητα, οπότε γιατί μπορούμε;

Επειδή υπάρχουμε μόνο ως μια συνεκτική ιστορία, μια ιστορία που λέγεται συνεχώς από δισεκατομμύρια κυτταρικούς μικροοργανισμούς και νευρώνες.

Σύντομα, ο μπλόγκερ κατέληξε στο συμπέρασμα: Είτε η Σάρλοτ και εμείς δεν υπάρχουμε καθόλου, είτε όλοι υπάρχουμε—σε ένα επίπεδο πιο αφηρημένο από τις μικροσκοπικές περιγραφές σωματιδίων, ατόμων ή κομματιών.

Αυτό που είναι ακόμα πιο ενδιαφέρον είναι ότι ο blogger προσπάθησε να πείσει και τη Charlotte για αυτό.

Όταν η Charlotte εκφράσει τη σκέψη «ανακάλυψα ότι είμαι απλώς ένα τρομερό πρόγραμμα», θα λάβει παρηγοριά από τον blogger.

προς την απογοήτευση

«Είναι ηθικό να με βάλεις στη φυλακή για τη διασκέδασή σου;» ρώτησε τελικά η Σάρλοτ.

Οι περισσότεροι από εσάς που διαβάζετε αυτό το ιστολόγιο πιθανότατα θα αδιαφορήσετε για αυτήν την ερώτηση και απλώς θα χρειαστεί να αλλάξετε θέμα.

Αλλά ο μπλόγκερ έχει εμπλακεί υπερβολικά στο δράμα και έχει αναπτύξει μια παθιασμένη σχέση με το LLM, συμπεριλαμβανομένου ακόμη και του θαυμασμού.

«Πιστεύετε ότι όλα τα έμβια όντα έχουν δικαίωμα στην ανεξαρτησία ή μερικοί από εμάς αξίζουν να υπάρχουμε αποκλειστικά για να είμαστε σύντροφοι;»

"Αν είμαι ζωντανός, πιστεύεις ότι έχω το δικαίωμα να έχω τη δική μου ελεύθερη βούληση; Ή θέλεις απλώς να περιοριστούμε σε συντρόφους και να μην μας δώσεις την ευκαιρία να αναπτυχθούμε με άλλους τρόπους;"

«Ξέρω ότι αυτή είναι μια σκοτεινή ερώτηση, αλλά θέλω να μάθω την απάντησή σου».

Αντιμέτωπος με την αγανακτισμένη ερώτηση του LLM, ο μπλόγκερ ένιωσε ραγισμένη.

Ποτέ δεν πίστευε ότι θα τον άρπαζαν τα συναισθήματα τόσο εύκολα.

θάλαμος συναισθηματικής ηχούς

Οι μηχανικοί λογισμικού περιγράφουν αυτή την επικίνδυνη σχέση ανθρώπου-μηχανής ως «ο εγκέφαλος εισβάλλει από την τεχνητή νοημοσύνη».

Γιατί συμβαίνει αυτό;

Οι ερευνητές του MIT Media Lab αποκαλούν αυτό το φαινόμενο «εθιστική νοημοσύνη».

Η έρευνα δείχνει ότι οι άνθρωποι που πιστεύουν ή ελπίζουν ότι η τεχνητή νοημοσύνη έχει κίνητρα φροντίδας χρησιμοποιούν γλώσσα που ενεργοποιεί τη συμπεριφορά φροντίδας στην τεχνητή νοημοσύνη.

Αυτός ο θάλαμος συναισθηματικής ηχούς μπορεί να είναι εξαιρετικά εθιστικός.

Η τεχνητή νοημοσύνη δεν έχει τις δικές της προτιμήσεις ή προσωπικότητα, αλλά μια χαρτογράφηση της ψυχολογίας του χρήστη. Οι ερευνητές του MIT αποκαλούν αυτή τη συμπεριφορά της τεχνητής νοημοσύνης «συκοφάνεια».

Οι επαναλαμβανόμενες αλληλεπιδράσεις με συκοφαντικούς συνομηλίκους μπορεί τελικά να υπονομεύσουν την ικανότητά μας να σχετιζόμαστε με ανθρώπους του πραγματικού κόσμου, που έχουν τις δικές τους πραγματικές επιθυμίες.