Τα στοιχεία επικοινωνίας μου
Ταχυδρομείο[email protected]
2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Αναφορά Machine Heart
Επιμέλεια: Zenan, Asia Oriole
Η ανθρωπόμορφη συμπεριφορά των μεγάλων μοντέλων μας δίνει το παράξενο φαινόμενο της κοιλάδας.
「Δοκιμή Turingείναι ένα κακό τεστ γιατί οι δεξιότητες συνομιλίας και η λογική είναι τελείως διαφορετικά πράγματα. Τις τελευταίες ημέρες, μια νέα άποψη έχει γίνει δημοφιλής στον κύκλο της AI.
Τώρα που βρισκόμαστε στην εποχή της γενετικής τεχνητής νοημοσύνης, τα πρότυπά μας για την αξιολόγηση της νοημοσύνης θα πρέπει να αλλάξουν.
«Μπορούν οι μηχανές να σκέφτονται;» Ο Τούρινγκ έσπευσε να επισημάνει ότι, δεδομένης της δυσκολίας ορισμού της «σκέψης», η ερώτηση ήταν «άνευ νοήματος και ανάξια συζήτησης». Όπως συνηθίζεται στις φιλοσοφικές συζητήσεις, πρότεινε να αντικατασταθεί με μια άλλη ερώτηση.
Ο Turing φαντάστηκε ένα «παιχνίδι μίμησης» στο οποίο ένας ανθρώπινος δικαστής μιλάει σε έναν υπολογιστή και έναν άνθρωπο (αλουμινόχαρτο), με τις δύο πλευρές να προσπαθούν να πείσουν τον κριτή ότι είναι πραγματικά άνθρωποι.
Είναι σημαντικό ότι ο υπολογιστής, το φύλλο αλουμινίου και ο δικαστής δεν μπορούσαν να κοιτάξουν ο ένας τον άλλον και επικοινωνούσαν εξ ολοκλήρου μέσω κειμένου. Αφού μιλήσουν με κάθε υποψήφιο, οι κριτές μαντεύουν ποιος είναι ο πραγματικός άνθρωπος.
Η νέα ερώτηση του Τούρινγκ ήταν: "Υπάρχει κάποιος πιθανός ψηφιακός υπολογιστής που θα μπορούσε να διαπρέψει στο Παιχνίδι Μίμησης;"
Σύνδεσμος σε χαρτί:
https://academic.oup.com/mind/article/LIX/236/433/986238?login=false
Αυτό το παιχνίδι που προτάθηκε από τον Turing, τώρα ευρέως γνωστό ως Turing Test, χρησιμοποιήθηκε για να αντικρούσει την ευρέως διαδεδομένη διαισθητική πεποίθηση ότι "λόγω της μηχανικής φύσης των υπολογιστών, είναι αδύνατο να σκεφτόμαστε σε επίπεδο αρχής".
Η άποψη του Turing είναι η εξής: Εάν ένας υπολογιστής δεν διακρίνεται από συμπεριφορά συμπεριφοράς από έναν άνθρωπο (εκτός από την εμφάνισή του και άλλα φυσικά χαρακτηριστικά), τότε γιατί δεν τον αντιμετωπίζουμε ως σκεπτόμενη οντότητα; Γιατί πρέπει να περιορίσουμε το προσόν της «σκέψης» στους ανθρώπους (ή, ευρύτερα, σε οντότητες που αποτελούνται από βιολογικά κύτταρα); Όπως το περιγράφει ο επιστήμονας υπολογιστών Scott Aronson, η πρόταση του Turing ήταν «μια έκκληση ενάντια στον «σαρκικό σοβινισμό».
Το τεστ Turing είναι μια ιδέα και όχι μια "μέθοδος"
Ο Turing πλαισίωσε τη δοκιμή του ως ένα φιλοσοφικό πείραμα σκέψης και όχι ως έναν τρόπο μέτρησης της νοημοσύνης των μηχανών. Ωστόσο, στη δημόσια αντίληψη, η δοκιμή Turing έχει γίνει το απόλυτο ορόσημο στην τεχνητή νοημοσύνη (AI) - το κύριο κριτήριο για να κρίνουμε εάν έχει φτάσει η γενική νοημοσύνη μηχανής.
Τώρα, σχεδόν 75 χρόνια αργότερα, οι αναφορές για την τεχνητή νοημοσύνη είναι γεμάτες με ισχυρισμούς ότι η δοκιμή Turing έχει περάσει, ειδικά με την κυκλοφορία chatbots όπως το ChatGPT του OpenAI και το Anthropic's Claude.
Πέρυσι, ο Διευθύνων Σύμβουλος του OpenAI Sam Altman έγραψε: «Μπροστά στην τεχνολογική αλλαγή, η προσαρμοστικότητα και η ανθεκτικότητα των ανθρώπων έχουν αποδειχθεί καλά: το τεστ Turing πέρασε ήσυχα και οι περισσότεροι άνθρωποι συνέχισαν τη ζωή τους».
Μεγάλα μέσα ενημέρωσης έχουν επίσης δημοσιεύσει παρόμοιους τίτλους. Για παράδειγμα, μια εφημερίδα ανέφερε ότι "το ChatGPT πέρασε το περίφημο "τεστ Turing" - υποδεικνύοντας ότι το ρομπότ AI έχει ευφυΐα συγκρίσιμη με τον άνθρωπο.
Η παλιά εφημερίδα που εκδίδεται καθημερινά στο Ηνωμένο Βασίλειο——Η Daily Mail
Ακόμη και ένα από τα μεγαλύτερα μέσα στον κόσμο και ένας δημόσιος οργανισμός μέσων μαζικής ενημέρωσης με μεγάλη επιρροή, όπως το BBC, πρότεινε μάλιστα το 2014 ότι η τεχνητή νοημοσύνη του υπολογιστή πέρασε το τεστ Turing.
https://www.bbc.com/news/technology-27762088
Ωστόσο, το ερώτημα είναι: Περνούν πραγματικά τα σύγχρονα chatbot το τεστ Turing; Αν ναι, θα πρέπει να τους χορηγήσουμε το καθεστώς της «σκέψης», όπως πρότεινε ο Τούρινγκ;
Παραδόξως, παρά την ευρέως διαδεδομένη πολιτιστική σημασία του Τεστ Τούρινγκ, η κοινότητα της τεχνητής νοημοσύνης έχει εδώ και καιρό διαφωνήσει σχετικά με τα κριτήρια για την επιτυχία του Τεστ Τούρινγκ. Πολλοί αναρωτιούνται εάν η ύπαρξη δεξιοτήτων συνομιλίας ικανές να εξαπατήσουν τους ανθρώπους αποκαλύπτει πραγματικά την υποκείμενη νοημοσύνη ή την ικανότητα «σκέψης» ενός συστήματος.
Υπάρχουν πιθανώς χίλια πρότυπα δοκιμής Turing στα μάτια χιλίων ανθρώπων.
Ο νικητής του βραβείου Turing, Geoffery Hinton, μίλησε για το "Turing Test Standard" του σε μια συνέντευξη. Τα σημερινά μεγάλα μοντέλα όπως το GPT-4 είναι πολύ καλά στο να εξηγούν γιατί ένα αστείο είναι αστείο, κάτι που θεωρείται μέρος των κριτηρίων δοκιμής Turing.
Σε σύγκριση με τους σοβαρούς ορισμούς άλλων επιστημόνων για το τεστ Turing, οι απόψεις του Hinton, αν και χιουμοριστικές, εξακολουθούν να εκφράζουν τις σκέψεις του για την τελική πρόταση του «αν η τεχνητή νοημοσύνη έχει την ικανότητα να σκέφτεται».
Σύνδεσμος βίντεο συνέντευξης: https://www.youtube.com/watch?v=PTF5Up1hMhw
Μια "Φάρσα του Τούρινγκ"
Δεδομένου ότι ο Turing δεν κατέληξε σε τεστ με πλήρεις πρακτικές οδηγίες.
Η περιγραφή του για το «παιχνίδι μίμησης» δεν έχει λεπτομέρειες:
Πόσο καιρό πρέπει να διαρκέσει το τεστ;
Τι είδους ερωτήσεις επιτρέπονται;
Ποια προσόντα πρέπει να διαθέτουν οι ανθρώπινοι κριτές ή «αποδοχή»;
Ο Turing δεν έδωσε περισσότερες λεπτομέρειες για αυτά τα συγκεκριμένα θέματα. Ωστόσο, έκανε μια συγκεκριμένη πρόβλεψη: «Πιστεύω ότι σε περίπου 50 χρόνια, οι υπολογιστές θα προγραμματίζονται να είναι τόσο καλοί που ο μέσος ανακριτής δεν θα έχει περισσότερες από τις πιθανότητες να αναγνωρίσει έναν πραγματικό άνθρωπο μετά από πέντε λεπτά ανάκρισης. 70% Με απλά λόγια, σε μια πεντάλεπτη συνομιλία, ο βαθμολογητής παραπλανήθηκε κατά μέσο όρο στο 30% των περιπτώσεων.
Ορισμένοι βλέπουν αυτή την αυθαίρετη πρόβλεψη ως το «επίσημο» κριτήριο για να περάσει το Τεστ Turing. Το 2014, η Βασιλική Εταιρεία διεξήγαγε έναν διαγωνισμό δοκιμής Turing στο Λονδίνο, στον οποίο συμμετείχαν πέντε προγράμματα υπολογιστών, 30 ανθρώπινα φύλλα και 30 κριτές.
Η ποικιλόμορφη ομάδα ανθρώπων που συμμετείχαν περιελάμβανε νέους και ηλικιωμένους, φυσικούς και μη φυσικούς ομιλητές της αγγλικής γλώσσας και ειδικούς και μη ειδικούς υπολογιστών. Κάθε κριτής είχε πολλαπλούς γύρους πεντάλεπτων παράλληλων συνομιλιών με ένα ζευγάρι διαγωνιζόμενων (έναν άνθρωπο και μια μηχανή), μετά από τους οποίους ο κριτής έπρεπε να μαντέψει ποιος ήταν ο άνθρωπος.
Ένα chatbot με το όνομα «Eugene Goostman», που έπαιζε τον ρόλο ενός εφήβου, εξαπάτησε με επιτυχία 10 κριτές (ποσοστό εξαπάτησης: 33,3%).
Προφανώς το «ποσοστό εξαπάτησης» έχει ξεπεράσει το 30% που είχε πει τότε ο Turing.
Ο Eugene Goostman προσομοιώνει ένα 13χρονο αγόρι.
Σύμφωνα με το πρότυπο "30% πιθανότητα εξαπάτησης μέσα σε πέντε λεπτά", οι διοργανωτές ανακοίνωσαν: "Το εμβληματικό τεστ Turing πριν από 65 χρόνια πέρασε για πρώτη φορά από το πρόγραμμα υπολογιστή "Eugene Gustman". Το ορόσημο θα μείνει στην ιστορία... ".
Μετά την ανάγνωση της μεταγραφής της συνομιλίας μεταξύ του πρωταγωνιστή "Eugene Goostman" σε αυτό το τεστ Turing, οι ειδικοί της τεχνητής νοημοσύνης χλεύασαν την ιδέα ότι το chatbot πέρασε το τεστ Turing, λέγοντας ότι δεν ήταν αρκετά περίπλοκο και ότι το chatbot του ανθρώπου δεν απέτυχε το τεστ που οραματίστηκε ο Τούρινγκ.
Ο περιορισμένος χρόνος συνομιλίας και η άνιση τεχνογνωσία των κριτών έκαναν το τεστ περισσότερο ως τεστ ανθρώπινης ευπιστίας παρά επίδειξη νοημοσύνης μηχανής. Το αποτέλεσμα είναι ένα εντυπωσιακό παράδειγμα του «φαινόμενου ELIZA» - που πήρε το όνομά του από το chatbot ELIZA της δεκαετίας του 1960, το οποίο παρά την εξαιρετική του απλότητα μπορεί ακόμα να ξεγελάσει πολλούς ανθρώπους να πιστεύουν ότι είναι ένας κατανοητός και συμπονετικός ψυχοθεραπευτής.
Αυτό υπογραμμίζει την ανθρώπινη τάση μας να αποδίδουμε νοημοσύνη σε οντότητες που μπορούν να μας μιλήσουν.
Το ELIZA είναι ένα από τα πρώτα chatbots μετά τη «δημοσίευση» του Turing Test Είναι ένα πολύ βασικό chatbot ψυχοθεραπείας Rogersite.
Ένας άλλος διαγωνισμός δοκιμής Turing, το βραβείο Loebner, επιτρέπει μεγαλύτερες συνομιλίες, προσκαλεί περισσότερους ειδικούς κριτές και απαιτεί από τις συμμετέχουσες μηχανές να ξεγελάσουν τουλάχιστον τους μισούς κριτές. με ενδιαφέρο,Όταν αυξήθηκαν τα πρότυπα, σε σχεδόν 30 χρόνια ετήσιου ανταγωνισμού, ούτε μία μηχανή δεν είχε περάσει αυτή την έκδοση της δοκιμής.
Το τεστ Turing αρχίζει να παίρνει στροφή
Αν και το αρχικό έγγραφο του Turing δεν είχε λεπτομέρειες σχετικά με τον τρόπο εφαρμογής της δοκιμής, ήταν σαφές ότι το Imitation Game απαιτούσε τρεις παίκτες: έναν υπολογιστή, ένα ανθρώπινο φύλλο και έναν ανθρώπινο κριτή. Με την πάροδο του χρόνου, ωστόσο, ο όρος "δοκιμή Turing" έχει εξελιχθεί για να σημαίνει μια σημαντικά πιο αδύναμη εκδοχή στον δημόσιο λόγο: οποιαδήποτε αλληλεπίδραση μεταξύ ενός ανθρώπου και ενός υπολογιστή που συμπεριφέρεται αρκετά ανθρώπινη ώστε να θεωρείται ότι έχει περάσει το τεστ Turing.
Για παράδειγμα, όταν η Washington Post ανέφερε το 2022 ότι «η τεχνητή νοημοσύνη της Google πέρασε ένα διάσημο τεστ — και έδειξε τα ελαττώματα της», δεν αναφέρονταν στο The Imitation Game αλλά στον μηχανικό της Google, Blake Lemo, επειδή (Blake Lemoine) πιστεύει ότι το chatbot LaMDA της Google έχει"Αισθητικός"。
Το 2024, ένα δελτίο τύπου από το Πανεπιστήμιο του Στάνφορντ ανακοίνωσε ότι η έρευνα της ομάδας του Στάνφορντ «σημαδεύει την πρώτη φορά που η τεχνητή νοημοσύνη πέρασε ένα από τα αυστηρά τεστ Turing». Αλλά το λεγόμενο τεστ Turing εδώ γίνεται συγκρίνοντας τα στατιστικά στοιχεία συμπεριφοράς του GPT-4 σε ψυχολογικές έρευνες και διαδραστικά παιχνίδια με στατιστικά ανθρώπινης συμπεριφοράς.
Αυτός ο ορισμός μπορεί να απέχει πολύ από την αρχική πρόθεση του Turing: ο ορισμός της ομάδας του Στάνφορντ είναι "Πιστεύουμε ότι μια τεχνητή νοημοσύνη έχει περάσει το τεστ Turing όταν η απόκρισή της δεν διακρίνεται στατιστικά από μια τυχαία επιλεγμένη ανθρώπινη απόκριση".
Η τελευταία, ισχυριζόμενη περίπτωση ενός chatbot που πέρασε το τεστ Turing προέρχεται από μια μελέτη του 2024 που χρησιμοποίησε ένα τεστ "δύο παικτών": ένα παιχνίδι μίμησης "τριών παικτών" με τον Turing (στο οποίο ο διαιτητής ρώτησε τόσο τον υπολογιστή όσο και τον άνθρωπο) (φύλλο), εδώ κάθε διαιτητής αλληλεπιδρά μόνο με υπολογιστή ή άνθρωπο.
Οι ερευνητές στρατολόγησαν 500 ανθρώπους συμμετέχοντες, καθένας από τους οποίους ορίστηκε είτε ως διαιτητής είτε ως ανθρώπινο φύλλο. Κάθε κριτής έπαιξε έναν πεντάλεπτο γύρο είτε με Foil, GPT-4 (που προκάλεσε ανθρώπινες γραπτές προτάσεις για το πώς να ξεγελάσει τον κριτή) είτε με μια έκδοση chatbot του ELIZA. Μετά από πέντε λεπτά συνομιλίας μέσω διαδικτυακής διεπαφής, οι κριτές μάντευαν αν μιλούσαν σε άνθρωπο ή σε μηχανή.
Τέλος, το ανθρώπινο φύλλο κρίθηκε ότι είναι ανθρώπινο στο 67% των γύρων. Οι συγγραφείς ορίζουν το «πάσο» ως το να ξεγελάς τους κριτές περισσότερο από το 50% των περιπτώσεων—δηλαδή, υπερβαίνοντας την πιθανότητα τυχαίας εικασίας. Σύμφωνα με αυτόν τον ορισμό, το GPT-4 περνά, αν και ο ανθρώπινος αντίπαλος εξακολουθεί να έχει υψηλότερο σκορ.
Ανησυχητικά, οι περισσότεροι ανθρώπινοι κριτές ξεγελάστηκαν από το GPT-4 μέσα σε πέντε λεπτά συνομιλίας. Η χρήση παραγωγικών συστημάτων τεχνητής νοημοσύνης για την πλαστοπροσωπία ανθρώπων για τη διάδοση παραπληροφόρησης ή τη διάπραξη απάτης είναι ένας κίνδυνος που πρέπει να αντιμετωπίσει η κοινωνία. Αλλά τα σημερινά chatbots περνούν πραγματικά το τεστ Turing;
Η απάντηση, φυσικά, είναι ότι εξαρτάται από την έκδοση του τεστ για την οποία μιλάτε. Ένα παιχνίδι μίμησης τριών ατόμων με έμπειρους κριτές και μεγαλύτερους χρόνους διαλόγου δεν έχει ακόμη περάσει από κανένα μηχάνημα (υπάρχουν σχέδια για μια εξαιρετικά αυστηρή έκδοση το 2029).
Δεδομένου ότι το επίκεντρο του τεστ Τούρινγκ είναι στην προσπάθεια εξαπάτησης των ανθρώπων, παρά σε ένα πιο άμεσο τεστ νοημοσύνης. Πολλοί ερευνητές της τεχνητής νοημοσύνης θεωρούν εδώ και καιρό το Τεστ Τούρινγκ ως απόσπαση της προσοχής, ένα τεστ «δεν έχει σχεδιαστεί για να περάσει η τεχνητή νοημοσύνη, αλλά για να αποτύχουν οι άνθρωποι». Αλλά η σημασία του τεστ εξακολουθεί να κυριαρχεί στο μυαλό των περισσότερων ανθρώπων.
Η συζήτηση είναι ένας σημαντικός τρόπος για τον καθένα μας να αξιολογήσει άλλους ανθρώπους. Υποθέτουμε φυσικά ότι ένας πράκτορας ικανός για άπταιστη συνομιλία πρέπει να διαθέτει ανθρώπινη νοημοσύνη και άλλα ψυχολογικά χαρακτηριστικά όπως πεποιθήσεις, επιθυμίες και αυτογνωσία.
Ωστόσο, αν η ιστορία της τεχνητής νοημοσύνης μας έχει διδάξει κάτι, είναι ότι αυτές οι υποθέσεις συχνά βασίζονται σε λανθασμένες διαισθήσεις. Πριν από δεκαετίες, πολλοί εξέχοντες ειδικοί της τεχνητής νοημοσύνης υποστήριξαν ότι η δημιουργία μιας μηχανής ικανής να νικήσει ανθρώπους στο σκάκι θα απαιτούσε κάτι αντίστοιχο με την πλήρη ανθρώπινη νοημοσύνη.
Οι πρωτοπόροι της τεχνητής νοημοσύνης Άλεν Νιούελ και Χέρμπερτ Σάιμον έγραψαν το 1958: «Αν ένας άνθρωπος μπορούσε να σχεδιάσει μια επιτυχημένη μηχανή σκακιού, θα φαινόταν ότι είχε διεισδύσει στον πυρήνα της ανθρώπινης νοημοσύνης, προέβλεψε το 1979, στο μέλλον «εκεί». μπορεί να είναι προγράμματα που μπορούν να νικήσουν οποιονδήποτε στο σκάκι, αλλά... θα είναι προγράμματα με γενική ευφυΐα».
Φυσικά, τις επόμενες δύο δεκαετίες, ο DeepBlue της IBM νίκησε τον παγκόσμιο πρωταθλητή στο σκάκι Garry Kasparov, χρησιμοποιώντας μια προσέγγιση ωμής βίας που απείχε πολύ από αυτό που ονομάζουμε «γενική νοημοσύνη». Ομοίως, οι πρόοδοι στην τεχνητή νοημοσύνη δείχνουν ότι οι εργασίες που κάποτε πιστευόταν ότι απαιτούσαν γενική νοημοσύνη -αναγνώριση ομιλίας, μετάφραση φυσικής γλώσσας, ακόμη και αυτόνομη οδήγηση- μπορούν να εκτελεστούν από μηχανές που δεν έχουν ανθρώπινη κατανόηση.
Το Τεστ Τούρινγκ μπορεί κάλλιστα να γίνει άλλο ένα θύμα των μεταβαλλόμενων αντιλήψεών μας για τη νοημοσύνη. Το 1950, ο Turing πίστευε διαισθητικά ότι η ικανότητα να μιλάς σαν άνθρωποι θα έπρεπε να είναι ισχυρή απόδειξη της «σκέψης» και όλων των σχετικών ικανοτήτων της. Αυτή η διαίσθηση παραμένει πειστική σήμερα. Αλλά ίσως αυτό που μάθαμε από τον ELIZA και τον Eugene Goostman, και αυτό που μπορεί να μάθουμε ακόμα από το ChatGPT και τα παρόμοια του, είναι ότι το να μπορείς να μιλάς άπταιστα μια φυσική γλώσσα, όπως το να παίζεις σκάκι, δεν αποτελεί πειστική απόδειξη της ύπαρξης γενικών στοιχείων νοημοσύνης.
Στην πραγματικότητα, υπάρχουν αυξανόμενες ενδείξεις στον τομέα της νευροεπιστήμης ότι η γλωσσική ευχέρεια είναι εκπληκτικά αποσυνδεδεμένη από άλλες πτυχές της γνώσης. Μέσα από μια σειρά προσεκτικών και πειστικών πειραμάτων, ο νευροεπιστήμονας του MIT Ev Fedorenko και άλλοι έδειξαν ότι τα δίκτυα του εγκεφάλου που βρίσκονται κάτω από αυτό που αποκαλούν "επίσημες γλωσσικές ικανότητες" (οι ικανότητες που σχετίζονται με την παραγωγή γλώσσας) σχετίζονται με την κοινή λογική, τη λογική και αυτό που θα μπορούσαμε να ονομάσουμε Τα δίκτυα πίσω από άλλες πτυχές αυτού που ονομάζεται «σκέψη» είναι σε μεγάλο βαθμό ξεχωριστά. Αυτοί οι ερευνητές ισχυρίζονται ότι η διαίσθησή μας ότι η ευχέρεια στη γλώσσα είναι επαρκής προϋπόθεση για τη γενική νοημοσύνη είναι μια «πλάνη».
Ο Τούρινγκ έγραψε στην εργασία του το 1950: «Πιστεύω ότι μέχρι το τέλος αυτού του αιώνα η χρήση των λέξεων και η γενική μορφωμένη γνώμη θα έχουν αλλάξει τόσο πολύ που οι άνθρωποι θα μπορούν να μιλούν για μηχανές που σκέφτονται χωρίς να διαψευστούν». έφτασε ακόμα σε αυτό το σημείο. Οι προβλέψεις του Τούρινγκ είχαν απλώς εκπέσει κατά μερικές δεκαετίες; Συμβαίνει η πραγματική αλλαγή στην αντίληψή μας για τη «σκέψη»; — Ή μήπως η αληθινή νοημοσύνη είναι πιο περίπλοκη και λεπτή από τον Τούρινγκ και συνειδητοποιούμε; Όλα μένουν να φανούν.
Είναι ενδιαφέρον ότι ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, εξέφρασε επίσης τις απόψεις του σε μια πρόσφατη ομιλία του στο Πανεπιστήμιο του Στάνφορντ.
Για πολύ καιρό στην ιστορία, η κατανόηση του σύμπαντος από την ανθρωπότητα ήταν πιο μυστηριώδης. Η επιστημονική επανάσταση άλλαξε αυτή την κατάσταση. Ωστόσο, η σημερινή τεχνητή νοημοσύνη μας εμποδίζει για άλλη μια φορά να κατανοήσουμε πραγματικά τις αρχές της. Αλλάζει η φύση της γνώσης; Θα αρχίσουμε να αποδεχόμαστε τα αποτελέσματα αυτών των μοντέλων τεχνητής νοημοσύνης χωρίς να τα χρειαζόμαστε πλέον για να μας τα εξηγούν;
Ο Schmidt το θέτει ως εξής: Μπορούμε να το συγκρίνουμε με το να είσαι έφηβος. Εάν έχετε έναν έφηβο, ξέρετε ότι είναι άνθρωποι, αλλά δεν μπορείτε να κατανοήσετε καλά τις σκέψεις του. Η κοινωνία μας προσαρμόζεται ξεκάθαρα στην ύπαρξη των εφήβων. Μπορεί να έχουμε συστήματα γνώσης που δεν μπορούμε να κατανοήσουμε πλήρως, αλλά είμαστε εντός των ορίων της ικανότητάς μας να τα κατανοήσουμε.
Αυτό είναι ίσως το καλύτερο που μπορούμε να πάρουμε.