Τα στοιχεία επικοινωνίας μου
Ταχυδρομείο[email protected]
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Αναφορά Machine Heart
Τμήμα Σύνταξης Machine Heart
Οι συντελεστές κέρδισαν πολλά από αυτό το συνέδριο ACL.
Το εξαήμερο ACL 2024 διεξάγεται στην Μπανγκόκ της Ταϊλάνδης.
Το ACL είναι το κορυφαίο διεθνές συνέδριο στον τομέα της υπολογιστικής γλωσσολογίας και της επεξεργασίας φυσικής γλώσσας που διοργανώνεται από τη Διεθνή Ένωση Υπολογιστικής Γλωσσολογίας και πραγματοποιείται κάθε χρόνο. Το ACL κατείχε πάντα την πρώτη θέση στην ακαδημαϊκή επιρροή στον τομέα του NLP και είναι επίσης ένα συνέδριο που προτείνεται για το CCF-A.
Το φετινό συνέδριο ACL είναι το 62ο και έχει λάβει περισσότερα από 400 έργα αιχμής στον τομέα του NLP. Χθες το απόγευμα, το συνέδριο ανακοίνωσε την καλύτερη εργασία και άλλα βραβεία. Αυτή τη φορά, απονεμήθηκαν 7 Βραβεία Καλύτερης Χαρτιού (δύο αδημοσίευτα), 1 Βραβείο Καλύτερης Θεματικής Χαρτιού και 35 Βραβεία Εξαίρετων Χαρτιού.
Το συνέδριο απένειμε επίσης 3 βραβεία πόρων, 3 βραβεία κοινωνικού αντίκτυπου και 2 βραβεία Time Test.
Επιπλέον, το Βραβείο Lifetime Achievement σε αυτό το συνέδριο απονεμήθηκε στον Ralph Grishman, καθηγητή στο Τμήμα Επιστήμης Υπολογιστών στο Πανεπιστήμιο της Νέας Υόρκης.
Ακολουθούν συγκεκριμένες πληροφορίες για το βραβείο.
καλύτερο χαρτί
Paper 1: Mission: Impossible Language Models
Εισαγωγή στην εργασία: Ο Chomsky και άλλοι πιστεύουν ότι η μαθησιακή ικανότητα των μεγάλων γλωσσικών μοντέλων (LLM) είναι η ίδια για γλώσσες που μπορεί ή όχι να μάθουν οι άνθρωποι. Ωστόσο, υπάρχουν ελάχιστα δημοσιευμένα πειραματικά στοιχεία που να υποστηρίζουν αυτόν τον ισχυρισμό.
Η μελέτη ανέπτυξε ένα σύνολο συνθετικών γλωσσών ποικίλης πολυπλοκότητας, καθεμία σχεδιασμένη με συστηματική τροποποίηση αγγλικών δεδομένων χρησιμοποιώντας αφύσικη σειρά λέξεων και γραμματικούς κανόνες, με στόχο τη σύνθεση γλωσσών που θα ήταν αδύνατο να μάθουν οι άνθρωποι.
Η μελέτη διεξήγαγε εκτεταμένα πειράματα αξιολόγησης για να αξιολογήσει την ικανότητα του μικρού μοντέλου GPT-2 να μάθει αυτές τις «αδύνατες γλώσσες» και διεξήγαγε αυτές τις αξιολογήσεις σε διαφορετικά στάδια κατά τη διάρκεια της εκπαίδευσης για να συγκρίνει τη διαδικασία εκμάθησης για κάθε γλώσσα. Το βασικό εύρημα της μελέτης είναι ότι το GPT-2 είναι δύσκολο να μάθει κανείς «αδύνατες γλώσσες» σε σύγκριση με τα αγγλικά, αμφισβητώντας τους ισχυρισμούς του Τσόμσκι και άλλων.
Το πιο σημαντικό, η μελέτη ελπίζει ότι η προσέγγισή της θα ανοίξει μια γόνιμη γραμμή έρευνας, επιτρέποντας τη δοκιμή διαφορετικών αρχιτεκτονικών LLM σε μια ποικιλία "αδύνατων γλωσσών" για να κατανοηθεί πώς το LLM μπορεί να χρησιμοποιηθεί ως γνωστικό και τυπολογικό εργαλείο έρευνας.
Κείμενο 2: Γιατί οι ευαίσθητες λειτουργίες είναι δύσκολες για τους μετασχηματιστές;
Περίληψη: Πειραματικές μελέτες έχουν εντοπίσει μια σειρά από προκαταλήψεις και περιορισμούς εκμάθησης μετασχηματιστών, όπως η επίμονη δυσκολία στην εκμάθηση υπολογισμού απλών επίσημων γλωσσών όπως η PARITY, και μια προκατάληψη προς συναρτήσεις χαμηλού βαθμού. Ωστόσο, η θεωρητική κατανόηση παραμένει περιορισμένη και οι υπάρχουσες θεωρίες αναπαράστασης είτε υπερεκτιμούν είτε υποτιμούν τις ρεαλιστικές ικανότητες μάθησης.
Αυτή η μελέτη καταδεικνύει ότι στην αρχιτεκτονική του μετασχηματιστή, το τοπίο απώλειας περιορίζεται από την ευαισθησία του χώρου εισόδου: οι μετασχηματιστές των οποίων οι έξοδοι είναι ευαίσθητες σε πολλά μέρη της συμβολοσειράς εισόδου βρίσκονται σε απομονωμένα σημεία του χώρου παραμέτρων, με αποτέλεσμα χαμηλή πόλωση ευαισθησίας. γενίκευση .
Αυτή η μελέτη δείχνει θεωρητικά και πειραματικά ότι η θεωρία ενοποιεί εκτενείς πειραματικές παρατηρήσεις σχετικά με τις ικανότητες μάθησης και τις προκαταλήψεις του μετασχηματιστή, όπως η προκατάληψη γενίκευσής τους σε χαμηλή ευαισθησία και βαθμός και η δυσκολία γενίκευσης μήκους ισοτιμίας. Αυτό υποδηλώνει ότι η κατανόηση των επαγωγικών προκαταλήψεων ενός μετασχηματιστή απαιτεί τη μελέτη όχι μόνο της εκφραστικότητάς του στην αρχή αλλά και του τοπίου της λειτουργίας απώλειας.
Paper 3: Deciphering Oracle Bone Language with Diffusion Models
Εισαγωγή στην εργασία: Το Oracle Bone Script (OBS) προέρχεται από τη δυναστεία Σανγκ της Κίνας πριν από περίπου 3.000 χρόνια. Παρόλο που έχουν ανακαλυφθεί χιλιάδες επιγραφές, ένας μεγάλος αριθμός οστών του μαντείου παραμένει άγνωστος, καλύπτοντας αυτή την αρχαία γλώσσα με ένα σάβανο μυστηρίου. Η εμφάνιση της σύγχρονης τεχνολογίας AI έχει ανοίξει νέα πεδία για την αποκρυπτογράφηση της Oracle, θέτοντας προκλήσεις στις παραδοσιακές μεθόδους NLP που βασίζονται σε μεγάλο βαθμό σε μεγάλα σώματα κειμένου.
Αυτή η εργασία εισάγει μια νέα μέθοδο που χρησιμοποιεί τεχνολογία δημιουργίας εικόνας για την ανάπτυξη ενός μοντέλου διάχυσης βελτιστοποιημένο για την αποκρυπτογράφηση Oracle, το Oracle Bone Script Decipher (OBSD). Χρησιμοποιώντας τη στρατηγική διάχυσης υπό όρους, το OBSD δημιούργησε σημαντικές ενδείξεις για την αποκρυπτογράφηση της Oracle και άνοιξε μια νέα κατεύθυνση για ανάλυση αρχαίων γλωσσών με τη βοήθεια AI. Για να επαληθεύσουν την αποτελεσματικότητα, οι ερευνητές διεξήγαγαν εκτεταμένα πειράματα στο σύνολο δεδομένων Oracle και τα ποσοτικά αποτελέσματα απέδειξαν την αποτελεσματικότητα του OBSD.
Εργασία 4: Αιτιώδης εκτίμηση των προφίλ απομνημόνευσης
Εισαγωγή στην εργασία: Η κατανόηση της μνήμης στα γλωσσικά μοντέλα έχει πρακτικές και κοινωνικές επιπτώσεις, όπως η μελέτη της δυναμικής εκπαίδευσης των μοντέλων ή η πρόληψη της παραβίασης πνευματικών δικαιωμάτων. Προηγούμενη έρευνα ορίζει τη μνήμη ως την αιτιώδη σχέση μεταξύ της «εκπαίδευσης με χρήση ενός στιγμιότυπου» και της «ικανότητας του μοντέλου να προβλέψει αυτό το παράδειγμα». Αυτός ο ορισμός βασίζεται σε ένα αντίθετο: την ικανότητα να παρατηρήσει κανείς τι θα είχε συμβεί αν το μοντέλο δεν είχε δει το παράδειγμα. Οι υπάρχουσες μέθοδοι αγωνίζονται να παρέχουν υπολογιστικά αποτελεσματικές και ακριβείς εκτιμήσεις τέτοιων αντιπαραστατικών. Επιπλέον, αυτές οι μέθοδοι συνήθως εκτιμούν τη μνήμη της αρχιτεκτονικής του μοντέλου παρά τη μνήμη συγκεκριμένων παρουσιών του μοντέλου.
Αυτό το έγγραφο καλύπτει ένα σημαντικό κενό προτείνοντας μια νέα, βασισμένη σε αρχές και αποτελεσματική προσέγγιση για την εκτίμηση της μνήμης που βασίζεται σε έναν οικονομετρικό σχεδιασμό διαφοράς στη διαφορά. Με αυτή τη μέθοδο, οι ερευνητές παρατηρούν τη συμπεριφορά του μοντέλου μόνο σε έναν μικρό αριθμό περιπτώσεων κατά τη διάρκεια ολόκληρης της εκπαιδευτικής διαδικασίας για να περιγράψουν το προφίλ μνήμης του μοντέλου, δηλαδή την τάση μνήμης του κατά τη διάρκεια της εκπαιδευτικής διαδικασίας. Σε πειράματα που χρησιμοποιούν τη σουίτα μοντέλων Pythia, βρήκαν ότι η μνήμη (i) είναι ισχυρότερη και πιο επίμονη σε μεγαλύτερα μοντέλα, (ii) καθορίζεται από τη σειρά δεδομένων και τον ρυθμό εκμάθησης και (iii) είναι σταθερή σε διαφορετικά μεγέθη μοντέλων Οι μνήμες στο μεγαλύτερο μοντέλο μπορούν να προβλεφθούν από το μικρότερο μοντέλο.
Paper 5: Aya Model: An Instruction Finetuned Open-Access Multilingual Language Model
Εισαγωγή στην εργασία: Πρόσφατες ανακαλύψεις στα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν επικεντρωθεί σε έναν μικρό αριθμό γλωσσών με πλούσια δεδομένα. Πώς μπορούν οι δρόμοι για ανακαλύψεις να επεκταθούν πέρα από άλλες γλώσσες; Η έρευνα εισάγει το Aya, ένα μεγάλης κλίμακας πολύγλωσσο παραγωγικό γλωσσικό μοντέλο που ακολουθεί οδηγίες για 101 γλώσσες, περισσότερο από το 50% των οποίων θεωρούνται χαμηλών πόρων. Η Aya ξεπερνά τα mT0 και BLOOMZ στις περισσότερες εργασίες, ενώ καλύπτει διπλάσιες γλώσσες.
Επιπλέον, η έρευνα εισάγει μια εκτενή σειρά νέων αξιολογήσεων, επεκτείνοντας την τελευταία λέξη της τεχνολογίας στην πολύγλωσση αξιολόγηση σε 99 γλώσσες. Τέλος, η μελέτη παρέχει μια λεπτομερή διερεύνηση της βέλτιστης σύνθεσης του μείγματος, του κλαδέματος δεδομένων και της τοξικότητας, της μεροληψίας και της ασφάλειας του μοντέλου.
Paper 6: Semisupervised Neural Proto-Language Reconstruction
Λόγος για το βραβείο: Αυτή η πρωτοποριακή έρευνα στοχεύει να ημι-αυτοματοποιήσει το έργο της ανακατασκευής πρωτότυπης γλώσσας στην ιστορική γλωσσολογία, προτείνοντας μια νέα ημι-εποπτευόμενη αρχιτεκτονική. Αυτή η μέθοδος υπερέχει των προηγούμενων εποπτευόμενων μεθόδων εισάγοντας μια διαδικασία προβληματισμού "πρωτότυπο-μητρική γλώσσα" στην ανακατασκευή "μητρική γλώσσα-πρωτότυπο". Αυτή η εργασία είναι ένα καλό παράδειγμα του πώς τα σύγχρονα υπολογιστικά μοντέλα, όπως οι νευρωνικοί κωδικοποιητές και οι αποκωδικοποιητές, μπορούν να συμβάλουν στη γλωσσολογία.
Κείμενο 7: Ικανότητα φυσικής γλώσσας: Εξερεύνηση της κατανομής προβλήματος και αξιολόγηση μοντέλων γλώσσας που βασίζονται σε μετασχηματιστές (αδημοσίευτο)
Λόγος για το βραβείο: Αυτό το έγγραφο περιγράφει ξεκάθαρα ένα συνθετικό σύνολο δεδομένων αξιολόγησης για λογικά συμπεράσματα. Αυτό είναι ένα καλό συμπλήρωμα σε μεγάλα σύνολα δεδομένων συμπερασμάτων όπου δεν είναι σαφές ποιες ικανότητες μετρώνται. Θεωρητικά, υπάρχουν πράγματι λόγοι να αναμένουμε ότι ορισμένα υποσύνολα είναι πιο δύσκολα από άλλα, και αυτές οι προσδοκίες επικυρώνονται στο έγγραφο. Σε κάθε κατηγορία, οι συγγραφείς δίνουν ιδιαίτερη προσοχή στη δειγματοληψία αυτών των πραγματικά απαιτητικών περιπτώσεων.
Βραβείο Time Tested
Το ACL Time Test Award επιβραβεύει τις τιμητικές εργασίες που είχαν μακροπρόθεσμο αντίκτυπο στους τομείς της επεξεργασίας φυσικής γλώσσας και της υπολογιστικής γλωσσολογίας απονέμονται δύο εργασίες κάθε χρόνο.
Paper 1: GloVe: Global Vectors for Word Representation
Εισαγωγή: Οι μέθοδοι για την εκμάθηση αναπαραστάσεων διανυσματικού χώρου λέξεων ήταν επιτυχείς στη σύλληψη λεπτομερών σημασιολογικών και συντακτικών κανόνων χρησιμοποιώντας διανυσματική αριθμητική, αλλά οι συντακτικοί κανόνες παραμένουν αδιαφανείς. Αυτή η μελέτη αναλύει και διευκρινίζει ποιες ιδιότητες πρέπει να έχει το μοντέλο προκειμένου να εμφανίζονται συντακτικοί κανόνες στα διανύσματα λέξεων.
Αυτή η μελέτη προτείνει ένα νέο παγκόσμιο μοντέλο λογαριθμικής γραμμικής παλινδρόμησης - GloVe, σχεδιασμένο να μαθαίνει διανυσματικές αναπαραστάσεις λέξεων. Αυτό το μοντέλο συνδυάζει τα πλεονεκτήματα της παραγοντοποίησης καθολικού πίνακα και των μεθόδων παραθύρου τοπικού περιβάλλοντος.
Το GloVe πέτυχε την καλύτερη απόδοση 75% στην εργασία αναλογίας λέξεων και ξεπέρασε τα σχετικά μοντέλα στην εργασία ομοιότητας λέξεων και στην αναγνώριση οντοτήτων με όνομα.
Λόγος για το βραβείο: Οι ενσωματώσεις λέξεων ήταν ο ακρογωνιαίος λίθος των μεθόδων βαθιάς εκμάθησης για την επεξεργασία φυσικής γλώσσας (NLP) από το 2013 έως το 2018 και συνεχίζουν να ασκούν σημαντική επιρροή. Όχι μόνο ενισχύουν την απόδοση των εργασιών NLP, αλλά έχουν επίσης σημαντικό αντίκτυπο στην υπολογιστική σημασιολογία, όπως η ομοιότητα λέξεων και η αναλογία. Οι δύο μέθοδοι ενσωμάτωσης λέξεων με τη μεγαλύτερη επιρροή είναι πιθανώς το skip-gram/CBOW και το GloVe. Σε σύγκριση με το skip-gram, το GloVe προτάθηκε αργότερα. Το σχετικό του πλεονέκτημα έγκειται στην εννοιολογική του απλότητα, τη βελτιστοποίηση της ομοιότητας του διανυσματικού χώρου απευθείας με βάση τα χαρακτηριστικά κατανομής μεταξύ των λέξεων, και όχι έμμεσα ως ένα σύνολο παραμέτρων από μια απλουστευμένη προοπτική μοντελοποίησης γλώσσας.
Εισήγηση 2: Μέτρα ομοιότητας κατανομής
Εισαγωγή εργασίας: Ο συγγραφέας μελετά μέτρα ομοιότητας κατανομής με στόχο να βελτιώσει τις εκτιμήσεις πιθανοτήτων αόρατων συμβάντων συνεμφάνισης. Η συμβολή τους είναι τριπλή: μια εμπειρική σύγκριση ενός ευρέος φάσματος μετρήσεων με βάση τις πληροφορίες που περιέχουν και την εισαγωγή μιας νέας συνάρτησης που είναι ανώτερη στην αξιολόγηση των υποκείμενων κατανομών.
Βραβείο Lifetime Achievement
Το βραβείο Lifetime Achievement ACL απονεμήθηκε στον Ralph Grishman. Ο Ralph Grishman είναι καθηγητής στο Τμήμα Επιστήμης Υπολογιστών στο Πανεπιστήμιο της Νέας Υόρκης, με επίκεντρο την έρευνα στον τομέα της επεξεργασίας φυσικής γλώσσας (NLP). Είναι ο ιδρυτής του Proteus Project, το οποίο έχει συμβάλει σημαντικά στην εξαγωγή πληροφοριών (IE) και έχει προωθήσει την ανάπτυξη του πεδίου.
Ανέπτυξε επίσης το Java Extraction Toolkit (JET), ένα ευρέως χρησιμοποιούμενο εργαλείο εξαγωγής πληροφοριών που παρέχει στοιχεία ανάλυσης πολλαπλών γλωσσών, όπως τμηματοποίηση προτάσεων, σχολιασμό ονομαστικών οντοτήτων, σχολιασμό και κανονικοποίηση χρονικής έκφρασης, επισήμανση μέρους του λόγου, ανάλυση μερών και συν- ανάλυση Αναφέρεται στην ανάλυση. Αυτά τα στοιχεία μπορούν να συνδυαστούν σε αγωγούς σύμφωνα με διαφορετικές εφαρμογές, οι οποίες μπορούν να χρησιμοποιηθούν για διαδραστική ανάλυση μεμονωμένων προτάσεων ή ανάλυση παρτίδων ολόκληρων εγγράφων. Επιπλέον, το JET παρέχει απλά εργαλεία για σχολιασμό και εμφάνιση εγγράφων και περιλαμβάνει μια πλήρη διαδικασία εξαγωγής οντοτήτων, σχέσεων και συμβάντων σύμφωνα με την προδιαγραφή ACE (Αυτόματη εξαγωγή περιεχομένου).
Το έργο του καθηγητή Grishman καλύπτει πολλαπλά βασικά ζητήματα του NLP και είχε βαθύ αντίκτυπο στη σύγχρονη τεχνολογία επεξεργασίας γλώσσας.
35 εξαιρετικές εργασίες
Βραβείο καλύτερης θεματικής εργασίας
Διατριβή: OLMo: Accelerating the Science of Language Models
Αναφορά: Αυτή η εργασία είναι ένα σημαντικό βήμα προς τη διαφάνεια και την αναπαραγωγιμότητα στην εκπαίδευση μεγάλων γλωσσικών μοντέλων, ένα βήμα προς τα εμπρός στις προσπάθειες της κοινότητας να σημειώσει πρόοδο (ή τουλάχιστον να δώσει τη δυνατότητα σε άλλους ερευνητές που δεν είναι γίγαντες του κλάδου να συνεισφέρουν επειγόντως).
Βραβείο Resource Paper
3 εργασίες κέρδισαν το Βραβείο Resource Paper.
Paper 1: Latxa: An Open Language Model and Evaluation Suite for Basque
Ίδρυμα: Πανεπιστήμιο της Χώρας των Βάσκων, Ισπανία
Λόγοι για το βραβείο: Αυτή η εργασία περιγράφει λεπτομερώς τις λεπτομέρειες της συλλογής corpus και της αξιολόγησης συνόλων δεδομένων. Αν και σχετίζεται με την έρευνα της βασκικής γλώσσας, αυτή η μεθοδολογία μπορεί να επεκταθεί στην κατασκευή μεγάλων μοντέλων για άλλες γλώσσες χαμηλών πόρων.
Ανακοίνωση 2: Ντόλμα: Ανοιχτό σώμα τριών τρισεκατομμυρίων σημείων για έρευνα προεκπαίδευσης γλωσσικών μοντέλων
Λόγος απονομής: Αυτό το έγγραφο καταδεικνύει τη σημασία της διαχείρισης δεδομένων κατά την προετοιμασία συνόλων δεδομένων για την εκπαίδευση μεγάλων γλωσσικών μοντέλων. Αυτό παρέχει πολύτιμες γνώσεις σε ένα ευρύ φάσμα ατόμων εντός της κοινότητας.
Paper 3: AppWorld: A Controllable World of Apps and People for Benchmarking Interactive Coding Agents
Λόγοι για το βραβείο: Αυτή η έρευνα είναι μια πολύ σημαντική και εκπληκτική εργασία για τη δημιουργία προσομοίωσης και αξιολόγησης διαδραστικού περιβάλλοντος. Θα ενθαρρύνει όλους να παράγουν πιο σκληρά δυναμικά σημεία αναφοράς για την κοινότητα.
Βραβείο Social Impact
3 εργασίες κέρδισαν το Social Impact Award.
论文 1: Πώς μπορεί ο Johnny να πείσει τους LLMs να τους κάνουν Jailbreak: Επανεξετάζοντας την πειθώ για να αμφισβητήσετε την ασφάλεια της τεχνητής νοημοσύνης με εξανθρωπισμό των LLMs
Λόγος για το βραβείο: Αυτό το άρθρο διερευνά το θέμα της ασφάλειας AI - jailbreaking, μελετώντας μια μέθοδο που αναπτύχθηκε στον τομέα της έρευνας των κοινωνικών επιστημών. Η έρευνα είναι πολύ ενδιαφέρουσα και έχει τη δυνατότητα να έχει σημαντικό αντίκτυπο στην κοινότητα.
Paper 2: DIALECTBENCH: A NLP Benchmark for Dialects, Varieties, and Closely-Related Languages
Λόγος του βραβείου: Η παραλλαγή διαλέκτου είναι ένα φαινόμενο που δεν έχει μελετηθεί καθόλου στους τομείς του NLP και της τεχνητής νοημοσύνης. Ωστόσο, από τη σκοπιά της γλώσσας και της κοινωνίας, η έρευνά της είναι εξαιρετικά μεγάλης αξίας και έχει σημαντικές επιπτώσεις για τις εφαρμογές. Αυτό το έγγραφο προτείνει ένα πολύ νέο σημείο αναφοράς για τη μελέτη αυτού του προβλήματος στην εποχή του LLM.
Βιβλίο 3: Καταναλώνοντας μπύρα μετά την προσευχή;
Λόγοι για το βραβείο: Αυτό το άρθρο καταδεικνύει ένα σημαντικό ζήτημα στην εποχή του LLM: πολιτισμική προκατάληψη. Αυτή η εργασία μελετά τον αραβικό πολιτισμό και το γλωσσικό περιβάλλον και τα αποτελέσματα δείχνουν ότι πρέπει να λάβουμε υπόψη τις πολιτισμικές διαφορές κατά το σχεδιασμό LLM. Επομένως, η ίδια μελέτη μπορεί να αναπαραχθεί και σε άλλους πολιτισμούς για να γενικευτεί και να αξιολογηθεί εάν και άλλοι πολιτισμοί επηρεάζονται από αυτό το πρόβλημα.