Νέα

Κάλυψη φύσης: Η τεχνητή νοημοσύνη εκπαιδεύει την τεχνητή νοημοσύνη, όσο περισσότερο εκπαιδεύεται, τόσο πιο ανόητη γίνεται

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Το Baijiao προέρχεται από τον ναό Aofei
Qubits | Δημόσιος λογαριασμός QbitAI

Εκπαίδευση AI Το AI μπορεί να κάνει το AI ανόητο; !

Ερευνητές από την Οξφόρδη, το Κέμπριτζ και άλλα ιδρύματα ανακάλυψαν πρόσφατα ότι μεγάλα μοντέλα μπορεί να καταρρεύσουν όταν εκπαιδεύονται με συνθετικά δεδομένα.Τα ερευνητικά του αποτελέσματα επιλέχθηκαν ως πιο πρόσφαταΚάλυμμα της φύσης

Απευθείας:ΣΚΟΥΠΙΔΙΑ ΕΞΩ!



Ξέρετε, τα περισσότερα από τα μεγάλα μοντέλα εταιρειών τεχνολογίας χρησιμοποιούν πλέον συνθετικά δεδομένα για να μετριάσουν την «έλλειψη δεδομένων». Αυτό είναι αναμφίβολα ένα κύμα κρύου νερού που χύνεται σε ολόκληρη τη βιομηχανία.

Η ερευνητική ομάδα έδωσε ένα τέτοιο παράδειγμα.

Δοκίμασαν το μοντέλο OPT-125m της Meta και ζήτησαν πληροφορίες για τη μεσαιωνική αρχιτεκτονική.



Κάθε λεπτός συντονισμός εκπαιδεύεται στα δεδομένα που δημιουργήθηκαν την τελευταία φορά. Οι απαντήσεις στους πρώτους γύρους αποδείχθηκαν αρκετά καλές. Ως αποτέλεσμα, την ένατη φορά, άρχισα να λέω βλακείες...

Τι στο διάολο είναι αυτό για τα κουνέλια; !

Ο κύριος συγγραφέας της εργασίας είπε ότι είχαν σκεφτεί ότι τα συνθετικά δεδομένα θα μπορούσαν να εισάγουν σφάλματα σε μεγάλα μοντέλα, αλλά δεν περίμεναν ότι τα μοντέλα θα επιδεινωθούν τόσο γρήγορα.

Τρία σφάλματα προκαλούν την κατάρρευση του μοντέλου

Πρώτα, η ομάδα όρισε τι ήταν η κατάρρευση μοντέλου.

Η κατάρρευση μοντέλου είναι μια διαδικασία υποβάθμισης όπου το περιεχόμενο που δημιουργείται από το μοντέλο μολύνει την επόμενη γενιά συνόλων δεδομένων εκπαίδευσης. Μετά από εκπαίδευση σε μολυσμένα δεδομένα, το μοντέλο νέας γενιάς είναι επιρρεπές στην παρανόηση της πραγματικότητας.

Αυτός ο κύκλος συνεχίζεται και συνεχίζεται, κάθε γενιά γίνεται χειρότερη από την επόμενη.



Σύμφωνα με το πέρασμα του χρόνου, υπάρχουν κυρίως δύο καταστάσεις: πρώιμη κατάρρευση μοντέλου και όψιμη κατάρρευση μοντέλου.

Στην πρώιμη κατάρρευση του μοντέλου, το μοντέλο αρχίζει να χάνει κάποιες πληροφορίες ουράς. (Παρόμοια με ορισμένα γεγονότα χαμηλής πιθανότητας σε μια κατανομή πιθανότητας) Και στην όψιμη κατάρρευση του μοντέλου, το μοντέλο θα συγκλίνει για να μην έχει σχεδόν καμία ομοιότητα με την αρχική κατανομή.

Η εμφάνιση αυτής της διαδικασίας σχετίζεται με το σχεδιασμό του μοντέλου, τη διαδικασία μάθησης και την ποιότητα των δεδομένων που χρησιμοποιούνται.

Ειδικά για τη θεωρία, περιλαμβάνει κυρίως την απόκλιση του μεγάλου μοντέλου από το αρχικό μοντέλο που προκαλείται από αυτά τα τρία σφάλματα.

  • σφάλμα στατιστικής προσέγγισης . Αυτός είναι ο κύριος τύπος σφάλματος που προκύπτει λόγω περιορισμένου μεγέθους δείγματος και εξαφανίζεται καθώς το μέγεθος του δείγματος πηγαίνει στο άπειρο. Αυτό οφείλεται στο γεγονός ότι οι πληροφορίες μπορεί να χαθούν σε κάθε βήμα της επαναδειγματοληψίας, με μη μηδενική πιθανότητα.
  • σφάλμα εκφραστικότητας λειτουργίας . Αυτό το σφάλμα προκαλείται από την περιορισμένη ικανότητα έκφρασης της προσέγγισης συναρτήσεων. Συγκεκριμένα, τα νευρωνικά δίκτυα είναι μια καθολική προσέγγιση μόνο όταν το μέγεθός τους φτάσει στο άπειρο. Ωστόσο, ελλείψει των άλλων δύο σφαλμάτων, αυτό το σφάλμα θα εμφανιζόταν μόνο στην πρώτη γενιά.
  • σφάλμα προσέγγισης συνάρτησης . Προκαλείται κυρίως από περιορισμούς της μαθησιακής διαδικασίας, όπως δομικές προκαταλήψεις στη στοχαστική κλίση κάθοδος ή την επιλογή στόχων. Αυτό το σφάλμα μπορεί να θεωρηθεί ως το σφάλμα που προκύπτει στην περίπτωση άπειρων δεδομένων και τέλειας εκφραστικής δύναμης σε κάθε γενιά.
Αντίκτυπος στα γλωσσικά μοντέλα

Στη συνέχεια, οι ερευνητές αξιολόγησαν τον αντίκτυπο της κατάρρευσης του μοντέλου στο γλωσσικό μοντέλο. Δεδομένου ότι η εκπαίδευση ενός μεγάλου μοντέλου από την αρχή είναι πολύ δαπανηρή, επέλεξαν να αξιολογήσουν την πιο κοινή ρύθμιση για μοντέλα γλώσσας:Βελτιώστε τις ρυθμίσεις

Κάθε κύκλος εκπαίδευσης ξεκινά με ένα προεκπαιδευμένο μοντέλο με τα πιο πρόσφατα δεδομένα. Τα δεδομένα εκπαίδευσης προέρχονται από ένα άλλο βελτιωμένο προεκπαιδευμένο μοντέλο.

Χρησιμοποίησαν το μοντέλο αιτιώδους γλώσσας Meta OPT-125m, το οποίο βελτιώθηκε στο wikitext2.

Για να δημιουργήσει δεδομένα από το εκπαιδευμένο μοντέλο, η ομάδα χρησιμοποίησε αναζήτηση δέσμης πέντε κατευθύνσεων. Έθεσαν την ακολουθία εκπαίδευσης σε μήκος 64 μάρκες, στη συνέχεια για κάθε ακολουθία σημείων στο σετ εκπαίδευσης, ζητήθηκε από το μοντέλο να προβλέψει τις επόμενες 64 μάρκες.

Περνούν από όλα τα αρχικά σύνολα δεδομένων εκπαίδευσης και δημιουργούν ένα τεχνητό σύνολο δεδομένων ίδιου μεγέθους.Εάν το σφάλμα του μοντέλου είναι 0, δημιουργεί το αρχικό σύνολο δεδομένων wikitext2.

Για να αισθανθούν περαιτέρω τη διαφορά, χρησιμοποίησαν δύο διαφορετικές ρυθμίσεις: η μία ομάδα εκτός από την αρχική εκπαίδευση, δεν υπάρχουν πρωτότυπα δεδομένα εκπαίδευσης στην επόμενη διαδικασία, η άλλη ομάδα διατηρεί το 10% των αρχικών δεδομένων.



Τα αποτελέσματα έδειξαν ότι τα σφάλματα που παράγονται από το μοντέλο αυξήθηκαν με την πάροδο του χρόνου. Αναγκάζει επίσης το μοντέλο να ξεχάσει τα γεγονότα χαμηλής πιθανότητας στο σύνολο δεδομένων και τα αποτελέσματα τους να γίνουν πιο ομοιογενή, πριν το μοντέλο καταρρεύσει εντελώς. Στο τέλος εμφανίστηκε το φαινόμενο της αρχής.

Επιπλέον, παρόμοια φαινόμενα κατάρρευσης μοντέλων έχουν παρατηρηθεί σε μοντέλα VAE και GMM.





Η καθηγήτρια Emily Wenger από το Πανεπιστήμιο Duke είπε ότι ο μετριασμός του προβλήματος δεν ήταν εύκολος μέχρι στιγμής.

Κορυφαίες εταιρείες τεχνολογίας έχουν αναπτύξει μια τεχνολογία που ενσωματώνει "υδατογραφήματα" -

Επισημάνετε περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη για εξαίρεση από δεδομένα εκπαίδευσης. Η δυσκολία έγκειται στο ότι αυτό απαιτεί συντονισμό μεταξύ των εταιρειών τεχνολογίας και επομένως είναι λιγότερο βιώσιμο εμπορικά.

Με αυτόν τον τρόπο, οι εταιρείες που λαμβάνουν δεδομένα από το Διαδίκτυο μπορούν να εκπαιδεύσουν μοντέλα που είναι πιο αντιπροσωπευτικά του πραγματικού κόσμου. Ως εκ τούτου, το αρχικό κύμα μεγάλων μοντέλων είχε ένα πλεονέκτημα πρώτης κίνησης.

Πώς σας φαίνεται αυτή η άποψη;

Σύνδεσμοι αναφοράς:
[1]https://www.nature.com/articles/d41586-024-02420-7
[2]https://www.nature.com/articles/d41586-024-02355-z
[3]https://www.nature.com/articles/s41586-024-07566-y