νέα

Νέα δουλειά από την ομάδα του Tang Jie στο Πανεπιστήμιο Tsinghua: Δημιουργήστε 20.000 λέξεις με μία κίνηση, ανοιχτό βιβλίο μεγάλου μοντέλου και μεγάλη παραγωγή

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Το Mingmin προέρχεται από τον ναό Aofei
Qubits | Δημόσιος λογαριασμός QbitAI

Δημιουργήστε 20.000 λέξεις με μία κίνηση και η μεγάλη έξοδος του μοντέλου είναι επίσης τυλιγμένη!

Η τελευταία έρευνα από την Tsinghua & Zhipu AI αύξησε με επιτυχία το μήκος εξόδου των GLM-4 και Llama-3.1.

Στο ίδιο πρόβλημα, το αποτέλεσμα εξόδου αυξήθηκε απευθείας από 1800 λέξεις σε 7800 λέξεις.4 φορές



Θα πρέπει να γνωρίζετε ότι το μήκος της τρέχουσας γενιάς μεγάλων μοντέλων είναι γενικά κάτω από 2k. Αυτό έχει αντίκτυπο στη δημιουργία περιεχομένου, στην απάντηση ερωτήσεων κ.λπ., γεγονός που μπορεί να οδηγήσει σε ελλιπείς απαντήσεις σε ερωτήσεις από το μοντέλο και μειωμένη δημιουργικότητα.

Συνεπικεφαλής της έρευνας ήταν οι Li Juanzi και Tang Jie, ιδρυτές της Zhipu AI και καθηγητές στο Πανεπιστήμιο Tsinghua.



Το χαρτί και ο κώδικας είναι ανοιχτού κώδικα στο GitHub.

Ορισμένοι χρήστες του Διαδικτύου το έχουν ήδη δοκιμάσει πρώτοι. Το LongWriter-llama3.1-8b μπορεί να δημιουργήσει ένα κείμενο 10.000 λέξεων "The History of the Decline of the Roman Empire", το οποίο μπορεί να εκτελεστεί σε MacBook Pro 2018 (32 GB).

Το περιεχόμενο εξόδου είναι πολύ ακριβές και μπορεί να απονεμηθεί A++.



Το μοντέλο 9B χειρίζεται έξοδο 10.000 λέξεων

Αυτή η έρευνα περιλαμβάνει κυρίως τρεις πτυχές της εργασίας.

  • Αναλύστε περιοριστικούς παράγοντες μήκους δημιουργίας κειμένου
  • προτεινόμενοAgentWrite
  • Επέκταση του μεγέθους παραθύρου εξόδου LLM

Αρχικά, οι ερευνητές κατασκεύασαν ένα εργαλείο δοκιμών, το LongWrite-Ruler. Δοκιμάζοντας πολλά μεγάλα μοντέλα, διαπίστωσαν ότι όλα τα μοντέλα δημιουργούσανΠερισσότερες από 2000 λέξειςδυσκολίες με το κείμενο.

Περαιτέρω αναλύοντας τα αρχεία καταγραφής αλληλεπίδρασης χρηστών με μεγάλα μοντέλα, οι ερευνητές διαπίστωσαν ότι μόλις πάνω από το 1% των αιτημάτων των χρηστών αναφέρεται ρητάΓια να δημιουργήσετε περισσότερες από 2000 λέξειςκείμενο.

Για να γίνει αυτό, άλλαξαν το μοντέλο που χρησιμοποιήθηκε στο στάδιο εποπτευόμενης μικρορύθμισης (SFT).Το μέγιστο μήκος εξόδου του συνόλου δεδομένων

Διαπιστώθηκε ότι το μέγιστο μήκος εξόδου του μοντέλου ήταν συνεπές με το μέγιστο μήκος εξόδου στο σύνολο δεδομένων SFT.σημαντική θετική συσχέτιση

Ως εκ τούτου, συνάγεται το συμπέρασμα ότι τα υπάρχοντα μοντέλα είναι περιορισμένα σε μήκος εξόδου κυρίως επειδήΤα μεγάλα δείγματα εξόδου λείπουν στο σύνολο δεδομένων SFT

Ακόμα κι αν το μοντέλο έχει δει μεγαλύτερες ακολουθίες στο στάδιο της προεκπαίδευσης, η έλλειψη δειγμάτων μακροσκελούς κειμένου στο στάδιο SFT θα εξακολουθεί να επηρεάζει το μήκος εξόδου.



Για να ξεπεραστεί αυτός ο περιορισμός, οι ερευνητές πρότεινανAgentWrite

Αυτός είναι ένας αγωγός που βασίζεται σε πράκτορες.



Επιτρέπει την αποσύνθεση πολύ μεγάλων εργασιών δημιουργίας κειμένου σε πολλαπλές δευτερεύουσες εργασίες, καθεμία από τις οποίες χειρίζεται ένα τμήμα του.

Η συγκεκριμένη διαδικασία είναι ότι το AgentWrite αναπτύσσει πρώτα ένα λεπτομερές σχέδιο γραφής με βάση τις οδηγίες χρήστη Το σχέδιο περιλαμβάνει τα κύρια σημεία περιεχομένου και τον αριθμό λέξεων-στόχων για κάθε παράγραφο. Σύμφωνα με το σχέδιο, το AgentWrite προτρέπει διαδοχικά το μοντέλο να δημιουργήσει το περιεχόμενο κάθε παραγράφου.



Με βάση το AgentWrite, η ομάδα χρησιμοποίησε το GPT-4o για να δημιουργήσει 6.000 μεγάλα δεδομένα SFT εξόδου, με το μήκος εξόδου να κυμαίνεται από 2k έως 32k λέξεις, σχηματίζοντας το σύνολο δεδομένων LongWriter-6k. και προσθέστε αυτά τα δεδομένα στη διαδικασία εκπαίδευσης.

Προκειμένου να επαληθευτεί η αποτελεσματικότητα της μεθόδου, η ομάδα πρότεινε επίσης ένα LongBench-Write. Περιέχει μια ποικιλία οδηγιών γραφής χρήστη και οι προδιαγραφές μήκους εξόδου είναι 0-500 λέξεις, 500-2000 λέξεις, 2000-4000 λέξεις και περισσότερες από 4000 λέξεις.

Τα αποτελέσματα της αξιολόγησης δείχνουν ότι το μήκος εξόδου του μοντέλου αυξάνεται σημαντικά μετά τη χρήση του AgentWrite.



Μέσω της βελτιστοποίησης άμεσης προτίμησης (DPO), το GLM-4-9B επιτυγχάνει την καλύτερη απόδοση μεταξύ των μοντέλων.



Οι χρήστες του Διαδικτύου με γρήγορα χέρια έχουν ήδη πρωτοστατήσει στη δοκιμή του.

Ένας διαδικτυακός χρήστης στο Reddit ζήτησε από το LongWriter-llama3.1-8b να δημιουργήσει την ιστορία της παρακμής της Ρωμαϊκής Αυτοκρατορίας Χρειάστηκαν συνολικά 22 λεπτά (ανάλογα με το υλικό) και δημιουργήθηκαν κατά μέσο όρο 3,34 μάρκες ανά δευτερόλεπτο.



Το παραγόμενο περιεχόμενο είναι σχετικά τυποποιημένο και η δομή και ο ρυθμός απάντησης σε διαφορετικές ερωτήσεις είναι παρόμοια.

Όπως και να έχει, είναι μια καλή αρχή και οι βελτιώσεις είναι εμφανείς.



Η ερευνητική ομάδα δήλωσε επίσης ότι θα επεκτείνει περαιτέρω το μήκος και την ποιότητα παραγωγής του μοντέλου στο μέλλον και θα αρχίσει επίσης να μελετά πώς να βελτιώσει την απόδοση χωρίς να θυσιάζει την ποιότητα παραγωγής.

Σύνδεσμοι αναφοράς:
https://github.com/THUDM/LongWriter