Νέα

Πώς η αλυσιδωτή σκέψη διεγείρει τις δυνατότητες αριθμητικής συλλογιστικής μεγάλων μοντέλων;Οι επιστήμονες δίνουν την απάντηση από την προοπτική της ενεργοποίησης των νευρώνων

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Τα μεγάλα μοντέλα έχουν λάβει μεγάλη προσοχή τα τελευταία δύο χρόνια, ειδικά για τις επιδόσεις τους στην επίλυση αριθμητικών προβλημάτων.

Στην πραγματικότητα, ήδη από το 2022, ερευνητές από την ομάδα Έρευνας Google πρότειναν την εντολή Chain-of-Thought (CoT), μια γρήγορη μέθοδο μηχανικής που μπορεί να βελτιώσει αποτελεσματικά τη μαθηματική λογική των μεγάλων μοντέλων και να μάθει σε ένα πλαίσιο λίγων δειγμάτων η αποτελεσματικότητα έχει επαληθευτεί [1].

Αν και η μέθοδος έγινε γρήγορα ευρέως χρησιμοποιούμενη, οι ερευνητές στο πεδίο εξακολουθούν να γνωρίζουν ελάχιστα για το πώς διεγείρει τον αριθμητικό συλλογισμό σε μεγάλα μοντέλα.

Προηγουμένως, οι σχετικές εξερευνήσεις είχαν επικεντρωθεί κυρίως στην πειραματική παρατήρηση του αντίκτυπου διαφορετικών συστατικών στην άμεση δήλωση CoT στην αριθμητική συλλογιστική επίδραση μεγάλων μοντέλων.

Συγκεκριμένα, προσπαθήστε να αντικαταστήσετε ή να αφαιρέσετε στοιχεία στη δήλωση προτροπής CoT, όπως να αφαιρέσετε το τμήμα λεκτικής αιτιολογίας του δείγματος CoT, αφήνοντας μόνο τους βασικούς μαθηματικούς τύπους και παρατηρήστε το μεγάλο μοντέλο πριν και μετά την αντικατάσταση ή την αφαίρεση στην υπάρχουσα αριθμητική Η διαφορά απόδοσης στη δοκιμή αναφοράς συμπερασμάτων χρησιμοποιείται για να προσδιοριστεί εάν το εξάρτημα αντικατάστασης ή αφαίρεσης έχει σημαντική συμβολή στην τόνωση της ικανότητας αριθμητικής συλλογιστικής του μεγάλου μοντέλου.

Αν και οι ερευνητές σε αυτόν τον τομέα έχουν ανακαλύψει αρκετά ενδιαφέροντα φαινόμενα από αυτές τις μελέτες, δεν μπορούν ακόμα να εξηγήσουν πώς το CoT διεγείρει την αριθμητική ικανότητα συλλογισμού μεγάλων μοντέλων από τον εσωτερικό μηχανισμό των νευρωνικών δικτύων.

Ταυτόχρονα, αυτές οι μελέτες εγείρουν περισσότερα ερωτήματα. Για παράδειγμα, γιατί διαφορετικά στοιχεία του CoT έχουν διαφορετικές επιπτώσεις στην αριθμητική συλλογιστική των μεγάλων μοντέλων.

Προκειμένου να λύσουν τα παραπάνω προβλήματα, ο καθηγητής Yao Ziyu και η ομάδα του από το Πανεπιστήμιο George Mason στις Ηνωμένες Πολιτείες ξεκίνησαν μια σειρά εξερευνήσεων στο μοντέλο ανοιχτού κώδικα Llama2 από την άποψη της «ερμηνευσιμότητας του μοντέλου» και πρότειναν τη χρήση «ενεργοποίησης νευρώνων» για συστηματική εξήγηση Το φαινόμενο που παρατηρείται στην CoT έχει μελετηθεί.


Φωτογραφία丨Μέλη της ερευνητικής ομάδας (πηγή: ερευνητική ομάδα)

Πρόσφατα, μια σχετική εργασία με τίτλο "An Investigation of Neuron Activation as a Unified Lens to Explain Chain-of-Thought Eliciting Arithmetic Reasoning in Large Language Models" of LLMs) έγινε αποδεκτή από την Ετήσια Συνάντηση του Association for Computational Linguistics (ACL, Annual Συνάντηση Υπολογιστικής Γλωσσολογίας) 2024 [2].

Ο Daking Rai, υποψήφιος διδάκτορας στο Πανεπιστήμιο George Mason, είναι ο πρώτος συγγραφέας και ο Yao Ziyu είναι ο αντίστοιχος συγγραφέας.


Figure丨Σχετικά έγγραφα (Πηγή: ACL 2024)

Στη μελέτη, αρχικά επικεντρώθηκαν στη διερεύνηση του κατά πόσον το στρώμα τροφοδοσίας του μετασχηματιστή είναι ένας νευρώνας που εκφράζει την έννοια της αριθμητικής συλλογιστικής.

Οι σχετικές έννοιες περιλαμβάνουν τις έννοιες των αριθμητικών πράξεων πρόσθεσης, αφαίρεσης, πολλαπλασιασμού και διαίρεσης, τις έννοιες των λογικών συνδέσμων στη διαδικασία αριθμητικής συλλογιστικής (όπως "...έτσι" "...επόμενο") και άλλες έννοιες αριθμητικού υπολογισμού ( όπως "ποσοστό", "αλγόριθμος" και "τύπος").

Επομένως, για να ανακαλύψουν την έννοια που αντιπροσωπεύει κάθε νευρώνας, χαρτογράφησαν τον νευρώνα στο λεξιλογικό χώρο του μεγάλου μοντέλου και συνόψισαν την έννοια του νευρώνα επισημαίνοντας την αναλογία των εννοιών σε κάθε λεξιλόγιο μετά τη χαρτογράφηση νευρώνων.

Η ερευνητική ομάδα πρότεινε τη χρήση του GPT-4 για την ανάγνωση και την κατανόηση της λεξιλογικής χαρτογράφησης των νευρώνων για την αυτοματοποίηση της διαδικασίας σήμανσης και εξόρυξης νευρώνων.

Τα πειράματα δείχνουν ότι υπάρχουν πράγματι νευρώνες στο στρώμα τροφοδοσίας του μετασχηματιστή που αντιπροσωπεύουν αριθμητικές έννοιες. Όταν αυτοί οι νευρώνες καταστραφούν, οι αριθμητικές συλλογιστικές ικανότητες του μεγάλου μοντέλου διακυβεύονται.

Ταυτόχρονα, οι ερευνητές παρατήρησαν επίσης ότι η δραστηριότητα αυτών των νευρώνων συσχετίστηκε θετικά με την αριθμητική συλλογιστική ικανότητα του μεγάλου μοντέλου. Ένας τέτοιος θετικός συσχετισμός εξηγεί γιατί διαφορετικές άμεσες δηλώσεις έχουν διαφορετικά αποτελέσματα στον αριθμητικό συλλογισμό μεγάλων μοντέλων.

Με βάση αυτούς τους νευρώνες, η ομάδα εξήγησε συστηματικά τέσσερα φαινόμενα που σχετίζονται με την CoT που παρατηρήθηκαν σε προηγούμενες μελέτες.

Πρώτον, όταν οι μαθηματικοί τύποι αφαιρεθούν από το δείγμα CoT και απομένουν μόνο τα αποτελέσματα της λειτουργίας, η αριθμητική ικανότητα συλλογισμού του μεγάλου μοντέλου θα μειωθεί.

Δεύτερον, όταν ο λεκτικός συλλογισμός αφαιρείται από το δείγμα CoT και απομένουν μόνο μαθηματικοί τύποι, η ικανότητα του μοντέλου επίσης εξασθενεί.

Τρίτον, όταν τα δείγματα CoT χάνουν λειτουργική ποικιλομορφία, για παράδειγμα, όταν όλα τα δείγματα περιλαμβάνουν μόνο λειτουργίες προσθήκης, η ικανότητα του μοντέλου είναι μειωμένη.

Τέταρτον, όταν το αποτέλεσμα λειτουργίας του δείγματος CoT είναι λανθασμένο αλλά η διαδικασία εξαγωγής συμπερασμάτων είναι σωστή, η ικανότητα του μοντέλου δεν επηρεάζεται σημαντικά.

"Βλέπουμε ότι αυτά τα φαινόμενα μπορούν βασικά να εξηγηθούν από το βαθμό ενεργοποίησης των νευρώνων. Για παράδειγμα, πριν και μετά την αφαίρεση των μαθηματικών τύπων, ο αριθμός των ενεργοποιημένων νευρώνων μειώνεται, εξηγώντας γιατί η αριθμητική ικανότητα του μοντέλου είναι μειωμένη." εξηγημένος δρόμος.

Από την άποψη της εφαρμογής, αυτό το επίτευγμα θα έχει προοπτικές εφαρμογής σε δύο πτυχές.

Πρώτον, η δυνατότητα πρόβλεψης μεγάλων μοντέλων.

Σε πειράματα, οι ερευνητές μπόρεσαν να δουν ότι το επίπεδο ενεργοποίησης των νευρώνων που αντιπροσωπεύουν τον αριθμητικό συλλογισμό συσχετίζεται θετικά με την αριθμητική συλλογιστική ικανότητα του μοντέλου Llama2. Αυτό σημαίνει ότι στο μέλλον, ενδέχεται να μην χρειάζονται σημεία αναφοράς για την άμεση πρόβλεψη των δυνατοτήτων μεγάλων μοντέλων σε συγκεκριμένες εργασίες.

Ταυτόχρονα, επειδή οι δοκιμές αναφοράς απαιτούν πολύ ανθρώπινο δυναμικό και υλικούς πόρους, όπως σχολιασμό συνόλων δεδομένων και υπολογιστικούς πόρους, η δυνατότητα άμεσης πρόβλεψης ενός μεγάλου μοντέλου με την κατανόηση των εγγενών μηχανισμών του βοηθά επίσης στην εξοικονόμηση κόστους.

Επιπλέον, οι επαγγελματίες στον τομέα ελπίζουν ότι τα μεγάλα μοντέλα θα είναι σε θέση να εκτελούν υπεράνθρωπες εργασίες στο εγγύς μέλλον. Αλλά περιορισμένος από τις ανθρώπινες δυνατότητες, δεν υπάρχει τρόπος να δημιουργηθούν σημεία αναφοράς για αυτές τις εργασίες. Αυτό το πρόβλημα μπορεί να αποφευχθεί καλά με την πρόβλεψη των δυνατοτήτων του μοντέλου μέσω του εγγενούς μηχανισμού των μεγάλων μοντέλων.

Δεύτερον, ελέγχοντας τους εσωτερικούς μηχανισμούς μεγάλων μοντέλων, οι δυνατότητες του μοντέλου μπορούν να βελτιωθούν ή να αποδυναμωθούν.

«Πιστεύουμε ότι αυτή η εφαρμογή θα γίνει μία από τις σημαντικές μεθόδους για τη βελτίωση της ασφάλειας των μεγάλων μοντέλων στο μέλλον. Ταυτόχρονα, έχει επίσης τη δυνατότητα να επιτύχει πιο αποτελεσματική εκπαίδευση μεγάλων μοντέλων, όπως ο εντοπισμός νευρώνων μέσω μικρών δεδομένων και. μετά τον έλεγχο της ενεργοποίησης των νευρώνων Ο σκοπός της εκπαίδευσης μοντέλων.» είπε η ερευνητική ομάδα.

Στην πραγματικότητα, το δεύτερο εξάμηνο του 2023, το OpenAI πρότεινε μια πρόταση «υπερευθυγράμμισης» [3], με στόχο να βοηθήσει τους ανθρώπους να επιβλέπουν και να ελέγχουν υπεράνθρωπα μοντέλα τεχνητής νοημοσύνης, ενθαρρύνοντας την επιστημονική ερευνητική καινοτομία. Οι δυνατότητες του μοντέλου πρόβλεψης και ελέγχου είναι δύο σημαντικά καθήκοντα για την επίτευξη αυτού του στόχου.

"Αυτό το αποτέλεσμα είναι η προκαταρκτική μας εξερεύνηση προς αυτή την κατεύθυνση. Ελπίζουμε ότι εμείς ή άλλοι ερευνητές μπορούμε να συνεχίσουμε να εξερευνούμε προς αυτήν την κατεύθυνση στο μέλλον", είπε η ομάδα. Αυτή η έρευνα εμπνεύστηκε την «ερμηνευτικότητα του μηχανισμού».

Αυτό είναι ένα υποπεδίο της ερμηνευσιμότητας των μοντέλων που έχει εμφανιστεί γρήγορα και έχει λάβει ευρεία προσοχή τα τελευταία χρόνια. Διαφορετικά από τις προηγούμενες ερμηνεύσιμες μεθόδους, η ερμηνευτικότητα του μηχανισμού προσπαθεί να κατανοήσει τον μηχανισμό συμπεριφοράς του μοντέλου με αντίστροφη μηχανική του νευρωνικού δικτύου.

Επί του παρόντος, αυτός ο τύπος μεθόδου έχει εφαρμοστεί στην εξήγηση της συμπεριφοράς και των δομικών λειτουργιών μεγάλων μοντέλων.

«Μία από τις μελέτες που μας ενέπνευσε πολύ είναι η εξερεύνηση του στρώματος τροφοδοσίας του Transformer από ερευνητές από το Ινστιτούτο Τεχνητής Νοημοσύνης Άλεν στις Ηνωμένες Πολιτείες και το Πανεπιστήμιο Μπαρ-Ιλάν στο Ισραήλ [4].

Αυτή η μελέτη διαπίστωσε ότι στη διαδικασία του μεγάλου μοντέλου που προβλέπει την επόμενη ενότητα λεξιλογίου, το επίπεδο τροφοδοσίας Transformer του μοντέλου θα δημιουργήσει προβλέψεις ενισχύοντας συνεχώς σχετικές έννοιες στον χώρο του λεξιλογίου. Αυτή η ενίσχυση της ιδέας επιτυγχάνεται με την ενεργοποίηση νευρώνων στο στρώμα τροφοδοσίας του μετασχηματιστή.

«Αυτή η ανακάλυψη σε επίπεδο μηχανισμού ενέπνευσε την εικασία μας: Ο λόγος για τον οποίο το CoT μπορεί να διεγείρει την ικανότητα μεγάλων μοντέλων στην αριθμητική συλλογιστική μπορεί να είναι επειδή μπορεί να ενεργοποιήσει αποτελεσματικά νευρώνες που αντιπροσωπεύουν έννοιες αριθμητικής συλλογιστικής στο στρώμα τροφοδοσίας του Transformer και αυτούς τους νευρώνες Βοηθά στην ενίσχυση την αριθμητική συλλογιστική ικανότητα μεγάλων μοντέλων», είπε η ερευνητική ομάδα.

Με βάση αυτό, η ερευνητική ομάδα αναρωτήθηκε εάν υπάρχει μηχανισμός που μπορεί να ενισχύσει άμεσα τις δυνατότητες αριθμητικής συλλογιστικής μεγάλων μοντέλων, ειδικά μοντέλων μικρής κλίμακας.

Η ομάδα σημείωσε: "Αυτό είναι ένα πολύ σημαντικό πράγμα, επειδή τα μοντέλα μικρής κλίμακας μεγάλα απολαμβάνουν μοναδική υπολογιστική απόδοση, οικονομική απόδοση και ασφάλεια."

Επιπλέον, κατά την ίδια περίοδο, είδαν επίσης κάποια έρευνα για τη βελτίωση των ικανοτήτων μεγάλων μοντέλων μικρής κλίμακας σε συγκεκριμένα πεδία ή εργασίες συλλέγοντας δεδομένα υψηλής ποιότητας ή τροποποιώντας τη συνάρτηση στόχου εκπαίδευσης. Ωστόσο, η εφαρμογή της μηχανιστικής ερμηνείας από αυτή την άποψη βρίσκεται ακόμη στο στάδιο της ανάδυσής της.

Παρόλα αυτά, η επιστημονική ερευνητική διαδικασία της ομάδας δεν ήταν ομαλή, και μάλιστα αντιμετώπισαν «κολλήματα» στην αρχή.

Μεταξύ αυτών, η μεγαλύτερη δυσκολία είναι ότι δεν κατανοούν πλήρως τον εσωτερικό μηχανισμό μεγάλων μοντέλων για αριθμητική συλλογιστική και φυσικά δεν μπορούν να επιτύχουν τον επιθυμητό έλεγχο του μοντέλου.

«Ως εκ τούτου, ο μαθητής μου Lai, ο πρώτος συγγραφέας της εργασίας, και εγώ αποφασίσαμε να επικεντρωθούμε στην εξήγηση του αριθμητικού συλλογισμού των μεγάλων μοντέλων πρώτα», είπε ο Yao Ziyu.

Σύντομα όμως συνάντησαν την επόμενη δυσκολία.

Ο «αριθμητικός συλλογισμός» είναι μια άκρως αφηρημένη έννοια και οι προβλέψεις μεγάλων μοντέλων εκτελούνται σε επίπεδο συγκεκριμένων λεξιλογικών μονάδων.

Αν θέλουμε να κατανοήσουμε την αριθμητική συλλογιστική ικανότητα μεγάλων μοντέλων από την προοπτική της «εννοιολογικής ενίσχυσης των νευρώνων στο λεξιλογικό χώρο», πρέπει πρώτα να εφαρμόσουμε αυτήν την εξαιρετικά αφηρημένη έννοια σε συγκεκριμένες έννοιες λεξικού επιπέδου.

Για να γεφυρώσει αυτό το χάσμα, η ερευνητική ομάδα συνόψισε αρχικά μια σειρά από έννοιες χαμηλότερου επιπέδου που σχετίζονται με την αριθμητική συλλογιστική, συμπεριλαμβανομένων των αριθμητικών τελεστών, των λογικών γλωσσικών εκφράσεων στην αριθμητική συλλογιστική και άλλων εννοιών αριθμητικής υπολογισμού.

Και χρησιμοποιώντας το GPT-4 για την αποτελεσματική επισήμανση και αναζήτηση νευρώνων που εκφράζουν αυτές τις έννοιες χαμηλού επιπέδου. Στη συνέχεια, αναφέρθηκαν σε προηγούμενες μελέτες για να επαληθεύσουν αυτούς τους νευρώνες που αναζητήθηκαν.

«Τα πειραματικά αποτελέσματα αποδεικνύουν ότι αυτοί οι νευρώνες παίζουν πράγματι σημαντικό ρόλο στο μεγάλο μοντέλο του πειράματός μας, τον Llama2».

Αυτό τους δίνει επίσης μεγαλύτερη αυτοπεποίθηση για να συνεχίσουν την εξερεύνηση προς αυτή την κατεύθυνση.

Σκέφτηκαν να χρησιμοποιήσουν τις καταστάσεις ενεργοποίησης αυτών των νευρώνων για να εξηγήσουν ομοιόμορφα την επίδραση του CoT στην αριθμητική συλλογιστική ικανότητα μεγάλων μοντέλων, συμπεριλαμβανομένης της εξήγησης πολλών φαινομένων που παρατηρήθηκαν σε προηγούμενη εργασία.

Τα αποτελέσματα επαλήθευσαν βασικά την εικασία τους, δηλαδή, η διεγερτική επίδραση διαφορετικών συστατικών του CoT στην αριθμητική ικανότητα συλλογισμού μεγάλων μοντέλων μπορεί να εξηγηθεί από την ενεργοποίηση σχετικών νευρώνων.

Ωστόσο, η μελέτη επεσήμανε επίσης ότι η νευρωνική ενεργοποίηση δεν εξηγεί όλη την απόδοση αριθμητικής συλλογιστικής του μεγάλου μοντέλου. Ταυτόχρονα, εάν τα ευρήματα των ερευνητών για το Llama2 ισχύουν και για άλλες μεγάλες ομάδες μοντέλων χρειάζεται επίσης περαιτέρω επαλήθευση.

Αναφέρεται επίσης ότι το εργαστήριο του Yao Ziyu έχει επί του παρόντος αρκετές θέσεις διδακτορικού που έχουν απονεμηθεί πλήρως από επιστημονική άποψη για εισαγωγή το φθινόπωρο του 2025. Για λεπτομέρειες, ελέγξτε τον ιστότοπο της ομάδας https://ziyuyao.org/ και ρωτήστε μέσω email.

Βιβλιογραφικές αναφορές:

1.Wei, Jason, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Fei Xia, Ed Chi, Quoc V. Le και Denny Zhou. Η προτροπή της αλυσίδας σκέψης προκαλεί συλλογισμό σε μεγάλα γλωσσικά μοντέλα. Πρόοδοι στα συστήματα επεξεργασίας νευρικών πληροφοριών 35 (2022): 24824-24837.https://doi.org/10.48550/arXiv.2201.11903

2.Daking,Rai,Ziyu,Yao,An Investigation of Neuron Activation as a Unified Lens to Exprein Chain-of-Thought Eliciting Arithmetic Reasoning of LLMs.arXiv:2406.12288.https://doi.682051.

3.OpenAI. Παρουσιάζοντας την Υπερευθυγράμμιση. https://openai.com/index/introducing-superalignment/. 2023.

4.Geva, Mor, Avi Caciularu, Kevin Wang και Yoav Goldberg. Τα στρώματα τροφοδοσίας του μετασχηματιστή δημιουργούν προβλέψεις μέσω της προώθησης εννοιών στο χώρο του λεξιλογίου. 2022.https://arxiv.org/abs/2203.14680

Στοιχειοθέτηση: Chu Jiashi

01/

02/

03/

04/

05/