Informasi kontak saya
Surat[email protected]
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Laporan Jantung Mesin
Departemen Editorial Jantung Mesin
Kontributor memperoleh banyak manfaat dari konferensi ACL ini.
ACL 2024 yang berlangsung selama enam hari diadakan di Bangkok, Thailand.
ACL adalah konferensi internasional terkemuka di bidang linguistik komputasi dan pemrosesan bahasa alami. ACL diselenggarakan oleh Asosiasi Internasional untuk Linguistik Komputasi dan diadakan setiap tahun. ACL selalu menduduki peringkat pertama dalam pengaruh akademis di bidang NLP, dan juga merupakan konferensi yang direkomendasikan CCF-A.
Konferensi ACL tahun ini merupakan yang ke-62 dan telah menampung lebih dari 400 karya mutakhir di bidang NLP. Kemarin sore, konferensi mengumumkan makalah terbaik dan penghargaan lainnya. Kali ini, diberikan 7 Penghargaan Kertas Terbaik (dua tidak diterbitkan), 1 Penghargaan Kertas Tema Terbaik, dan 35 Penghargaan Kertas Luar Biasa.
Konferensi ini juga memberikan 3 Penghargaan Sumber Daya, 3 Penghargaan Dampak Sosial, dan 2 Penghargaan Tes Waktu.
Selain itu, Lifetime Achievement Award pada konferensi ini dianugerahkan kepada Ralph Grishman, seorang profesor di Departemen Ilmu Komputer di New York University.
Berikut ini adalah informasi penghargaan spesifik.
kertas terbaik
Makalah 1: Misi: Model Bahasa yang Mustahil
Pengantar makalah: Chomsky dan yang lainnya percaya bahwa kemampuan belajar model bahasa besar (LLM) adalah sama untuk bahasa yang mungkin dipelajari oleh manusia atau tidak. Namun, hanya ada sedikit bukti eksperimental yang dipublikasikan untuk mendukung klaim ini.
Studi ini mengembangkan serangkaian bahasa sintetik dengan kompleksitas yang berbeda-beda, masing-masing dirancang dengan mengubah data bahasa Inggris secara sistematis menggunakan urutan kata dan aturan tata bahasa yang tidak wajar, dengan tujuan mensintesis bahasa yang tidak mungkin dipelajari manusia.
Studi ini melakukan eksperimen evaluasi ekstensif untuk mengevaluasi kemampuan model kecil GPT-2 dalam mempelajari "bahasa yang mustahil" ini dan melakukan evaluasi ini pada tahapan yang berbeda selama pelatihan untuk membandingkan proses pembelajaran setiap bahasa. Temuan inti dari penelitian ini adalah bahwa GPT-2 sulit dipelajari sebagai "bahasa yang mustahil" dibandingkan dengan bahasa Inggris, sehingga menantang klaim Chomsky dan lainnya.
Lebih penting lagi, penelitian ini berharap bahwa pendekatannya akan membuka jalur penyelidikan yang bermanfaat, memungkinkan arsitektur LLM yang berbeda diuji pada berbagai "bahasa yang mustahil" untuk memahami bagaimana LLM dapat digunakan sebagai alat penyelidikan kognitif dan tipologis.
Makalah 2: Mengapa Fungsi Sensitif Sulit untuk Transformer?
Abstrak: Studi eksperimental telah mengidentifikasi berbagai bias pembelajaran dan keterbatasan transformator, seperti kesulitan yang terus-menerus dalam belajar menghitung bahasa formal sederhana seperti PARITY, dan bias terhadap fungsi tingkat rendah. Namun, pemahaman teoretis masih terbatas, dan teori representasi yang ada melebih-lebihkan atau meremehkan kemampuan pembelajaran realistis.
Studi ini menunjukkan bahwa dalam arsitektur transformator, lanskap kerugian dibatasi oleh sensitivitas ruang masukan: transformator yang keluarannya sensitif terhadap banyak bagian rangkaian masukan ditempatkan pada titik-titik terisolasi dalam ruang parameter, sehingga menghasilkan bias sensitivitas rendah dalam generalisasi.
Studi ini menunjukkan secara teoritis dan eksperimental bahwa teori tersebut menyatukan pengamatan eksperimental yang luas tentang kemampuan dan bias pembelajaran transformator, seperti bias generalisasinya hingga sensitivitas dan derajat rendah, dan kesulitan generalisasi panjang paritas. Hal ini menunjukkan bahwa memahami bias induktif transformator memerlukan studi tidak hanya ekspresi prinsipnya tetapi juga lanskap fungsi kerugiannya.
Makalah 3: Menguraikan Bahasa Oracle Bone dengan Model Difusi
Pengantar makalah: Oracle Bone Script (OBS) berasal dari Dinasti Shang Tiongkok sekitar 3.000 tahun yang lalu. Ini adalah landasan sejarah bahasa dan mendahului banyak sistem penulisan yang sudah mapan. Meskipun ribuan prasasti telah ditemukan, sejumlah besar tulang ramalan masih belum terpecahkan, sehingga menyelimuti bahasa kuno ini dengan selubung misteri. Munculnya teknologi AI modern telah membuka bidang baru untuk penguraian Oracle, sehingga menimbulkan tantangan terhadap metode NLP tradisional yang sangat bergantung pada corpora teks besar.
Makalah ini memperkenalkan metode baru menggunakan teknologi pembuatan gambar untuk mengembangkan model difusi yang dioptimalkan untuk penguraian Oracle, Oracle Bone Script Decipher (OBDS). Memanfaatkan strategi difusi bersyarat, Obsd menghasilkan petunjuk penting untuk penguraian kode Oracle dan membuka arah baru untuk analisis bahasa kuno yang dibantu AI. Untuk memverifikasi keefektifannya, para peneliti melakukan eksperimen ekstensif pada kumpulan data Oracle, dan hasil kuantitatif membuktikan keefektifan ABSD.
Makalah 4: Estimasi Kausal dari Profil Memori
Pengantar makalah: Memahami memori dalam model bahasa memiliki implikasi praktis dan sosial, seperti mempelajari dinamika pelatihan model atau mencegah pelanggaran hak cipta. Penelitian sebelumnya mendefinisikan memori sebagai hubungan sebab akibat antara "pelatihan menggunakan sebuah instance" dan "kemampuan model untuk memprediksi instance tersebut". Definisi ini bergantung pada kontrafaktual: kemampuan untuk mengamati apa yang akan terjadi jika model tidak melihat kejadiannya. Metode-metode yang ada saat ini kesulitan untuk memberikan perkiraan kontrafaktual yang efisien dan akurat secara komputasi. Selain itu, metode ini biasanya memperkirakan memori arsitektur model daripada memori contoh model tertentu.
Makalah ini mengisi kesenjangan penting dengan mengusulkan pendekatan baru, berprinsip dan efisien untuk memperkirakan memori berdasarkan desain perbedaan-dalam-perbedaan ekonometrik. Dengan metode ini, peneliti hanya mengamati perilaku model pada sejumlah kecil contoh selama keseluruhan proses pelatihan untuk menggambarkan profil memori model, yaitu tren memorinya selama proses pelatihan. Dalam eksperimen yang menggunakan rangkaian model Pythia, mereka menemukan bahwa memori (i) lebih kuat dan lebih persisten dalam model yang lebih besar, (ii) ditentukan oleh urutan data dan kecepatan pembelajaran, dan (iii) stabil di berbagai ukuran model ingatan dalam model yang lebih besar dapat diprediksi dari model yang lebih kecil.
Makalah 5: Model Aya: Model Bahasa Multibahasa Akses Terbuka yang Diselaraskan dengan Instruksi
Pengantar makalah: Terobosan terbaru dalam model bahasa besar (LLM) berfokus pada sejumlah kecil bahasa yang kaya data. Bagaimana peluang terobosan dapat diperluas melampaui bahasa lain? Penelitian ini memperkenalkan Aya, model bahasa generatif multibahasa berskala besar yang mengikuti instruksi untuk 101 bahasa, lebih dari 50% di antaranya dianggap sumber daya rendah. Aya mengungguli mT0 dan BLOOMZ pada sebagian besar tugas sambil mencakup dua kali lebih banyak bahasa.
Selain itu, penelitian ini memperkenalkan serangkaian penilaian baru yang luas, memperluas penilaian multibahasa yang canggih ke dalam 99 bahasa. Terakhir, studi ini memberikan investigasi mendetail tentang komposisi campuran yang disesuaikan secara optimal, pemangkasan data, dan toksisitas model, bias, dan keamanan.
Makalah 6: Rekonstruksi Bahasa Proto Saraf Semisupervisi
Alasan pemberian penghargaan: Penelitian inovatif ini bertujuan untuk mengotomatiskan tugas rekonstruksi bahasa prototipe dalam linguistik sejarah, mengusulkan arsitektur semi-supervisi baru. Metode ini mengungguli metode pengawasan sebelumnya dengan memperkenalkan proses refleksi "prototipe-bahasa asli" ke dalam rekonstruksi "prototipe-bahasa asli". Makalah ini adalah contoh bagus tentang bagaimana model komputasi modern, seperti neural encoder dan decoder, dapat berkontribusi pada linguistik.
Makalah 7: Kepuasan Bahasa Alami: Menjelajahi Distribusi Masalah dan Mengevaluasi Model Bahasa Berbasis Transformator (tidak dipublikasikan)
Alasan penghargaan: Makalah ini dengan jelas menjelaskan kumpulan data evaluasi sintetik untuk inferensi logis. Ini adalah pelengkap yang baik untuk kumpulan data inferensi besar yang tidak jelas kemampuan mana yang diukur. Secara teoritis, memang ada alasan untuk memperkirakan beberapa subset lebih sulit dibandingkan yang lain, dan ekspektasi ini divalidasi dalam makalah. Dalam setiap kategori, penulis memberikan perhatian khusus pada pengambilan sampel kasus-kasus yang benar-benar menantang.
Penghargaan yang Telah Teruji Waktu
ACL Time Test Award memberikan penghargaan kepada makalah kehormatan yang memiliki dampak jangka panjang di bidang pemrosesan bahasa alami dan linguistik komputasi. Penghargaan ini dibagi menjadi dua penghargaan: 10 tahun lalu (2014) dan 25 tahun lalu (1999). dari dua makalah diberikan setiap tahun.
Makalah 1: GloVe: Vektor Global untuk Representasi Kata
Pendahuluan: Metode untuk mempelajari representasi ruang vektor dari kata-kata telah berhasil menangkap aturan semantik dan sintaksis yang terperinci menggunakan aritmatika vektor, tetapi aturan sintaksis masih buram. Studi ini menganalisis dan mengklarifikasi properti apa saja yang perlu dimiliki model agar aturan sintaksis muncul dalam vektor kata.
Studi ini mengusulkan model regresi linier logaritmik global baru - GloVe, yang dirancang untuk mempelajari representasi vektor kata-kata. Model ini menggabungkan keunggulan metode faktorisasi matriks global dan jendela konteks lokal.
GloVe mencapai performa terbaik sebesar 75% pada tugas analogi kata dan mengungguli model terkait pada tugas kesamaan kata dan pengenalan entitas bernama.
Alasan pemberian penghargaan: Penyematan kata adalah landasan metode pembelajaran mendalam untuk pemrosesan bahasa alami (NLP) dari tahun 2013 hingga 2018 dan terus memberikan pengaruh yang signifikan. Mereka tidak hanya meningkatkan kinerja tugas-tugas NLP, tetapi juga memiliki dampak yang signifikan pada semantik komputasi, seperti kesamaan kata dan analogi. Dua metode penyematan kata yang paling berpengaruh mungkin adalah skip-gram/CBOW dan GloVe. Dibandingkan dengan skip-gram, GloVe diusulkan lebih belakangan. Keuntungan relatifnya terletak pada kesederhanaan konseptualnya, mengoptimalkan kesamaan ruang vektor secara langsung berdasarkan karakteristik distribusi antar kata, bukan secara tidak langsung sebagai sekumpulan parameter dari perspektif pemodelan bahasa yang disederhanakan.
Makalah 2: Ukuran Kesamaan Distribusi
Pendahuluan makalah: Penulis mempelajari ukuran kesamaan distribusi dengan tujuan meningkatkan perkiraan probabilitas peristiwa kejadian bersamaan yang tidak terlihat. Kontribusi mereka ada tiga: perbandingan empiris dari berbagai ukuran; klasifikasi fungsi kesamaan berdasarkan informasi yang dikandungnya; dan pengenalan fungsi baru yang lebih unggul dalam menilai distribusi agen yang mendasarinya.
Penghargaan Prestasi Seumur Hidup
Penghargaan Prestasi Seumur Hidup ACL diberikan kepada Ralph Grishman. Ralph Grishman adalah profesor di Departemen Ilmu Komputer di Universitas New York, dengan fokus penelitian di bidang pemrosesan bahasa alami (NLP). Dia adalah pendiri Proyek Proteus, yang telah memberikan kontribusi signifikan terhadap ekstraksi informasi (IE) dan mendorong pengembangan bidang tersebut.
Dia juga mengembangkan Java Extraction Toolkit (JET), alat ekstraksi informasi yang banyak digunakan yang menyediakan berbagai komponen analisis bahasa seperti segmentasi kalimat, anotasi entitas bernama, anotasi dan normalisasi ekspresi temporal, penandaan part-of-speech, parsing bagian, dan co- analisis. Mengacu pada analisis. Komponen-komponen ini dapat digabungkan ke dalam saluran sesuai dengan aplikasi yang berbeda, yang dapat digunakan untuk analisis interaktif kalimat tunggal atau analisis batch seluruh dokumen. Selain itu, JET menyediakan alat sederhana untuk anotasi dan tampilan dokumen, dan mencakup proses lengkap untuk mengekstrak entitas, hubungan, dan peristiwa sesuai dengan spesifikasi ACE (Automatic Content Extraction).
Karya Profesor Grishman mencakup berbagai isu inti dalam NLP dan memiliki dampak besar pada teknologi pemrosesan bahasa modern.
35 makalah yang beredar
Penghargaan Kertas Tema Terbaik
Tesis: OLMo: Akselerasi Ilmu Model Bahasa
Kutipan: Pekerjaan ini merupakan langkah penting menuju transparansi dan reproduktifitas dalam pelatihan model bahasa besar, sebuah langkah maju dalam upaya komunitas untuk membuat kemajuan (atau setidaknya untuk memungkinkan peneliti lain yang bukan raksasa industri untuk berkontribusi. Sangat diperlukan).
Penghargaan Makalah Sumber Daya
3 makalah memenangkan Resource Paper Award.
Makalah 1: Latxa: Model Bahasa Terbuka dan Rangkaian Evaluasi untuk Basque
Institusi: Universitas Basque Country, Spanyol
Alasan pemberian penghargaan: Makalah ini menjelaskan secara rinci rincian pengumpulan korpus dan evaluasi kumpulan data. Meskipun relevan dengan penelitian bahasa Basque, metodologi ini dapat diperluas ke konstruksi model besar untuk bahasa sumber daya rendah lainnya.
Makalah 2: Dolma: Korpus Terbuka Tiga Triliun Token untuk Penelitian Pra-Pelatihan Model Bahasa
Alasan penghargaan: Makalah ini menunjukkan pentingnya pengelolaan data saat menyiapkan kumpulan data untuk melatih model bahasa besar. Hal ini memberikan wawasan yang sangat berharga bagi banyak orang di masyarakat.
Makalah 3: AppWorld: Dunia Aplikasi dan Orang yang Dapat Dikontrol untuk Membandingkan Agen Pengkodean Interaktif
Alasan pemberian penghargaan: Penelitian ini merupakan karya yang sangat penting dan menakjubkan dalam membangun simulasi dan evaluasi lingkungan interaktif. Hal ini akan mendorong semua orang untuk menghasilkan tolok ukur dinamis yang lebih mendasar bagi masyarakat.
Penghargaan Dampak Sosial
3 makalah memenangkan Social Impact Award.
Bab 1: Bagaimana Johnny Dapat Membujuk LLM untuk Melakukan Jailbreak: Memikirkan Kembali Persuasi untuk Menantang Keamanan AI dengan Memanusiakan LLM
Alasan penghargaan: Artikel ini membahas topik keamanan AI - jailbreaking, mempelajari metode yang dikembangkan dalam bidang penelitian ilmu sosial. Penelitian tersebut sangat menarik dan berpotensi memberikan dampak signifikan bagi masyarakat.
Makalah 2: DIALECTBENCH: Tolok Ukur NLP untuk Dialek, Variasi, dan Bahasa yang Berhubungan Dekat
Alasan pemberian penghargaan: Variasi dialek adalah fenomena yang belum banyak dipelajari di bidang NLP dan kecerdasan buatan. Namun, dari sudut pandang bahasa dan masyarakat, penelitiannya mempunyai nilai yang sangat tinggi dan mempunyai implikasi penting bagi penerapannya. Makalah ini mengusulkan tolok ukur yang sangat baru untuk mempelajari masalah ini di era LLM.
Makalah 3: Minum Bir Setelah Sholat? Mengukur Bias Budaya dalam Model Bahasa Besar
Alasan pemberian penghargaan: Artikel ini menunjukkan isu penting di era LLM: bias budaya. Makalah ini mempelajari budaya Arab dan lingkungan bahasa dan hasilnya menunjukkan bahwa kita perlu mempertimbangkan perbedaan budaya ketika merancang LLM. Oleh karena itu, penelitian yang sama dapat direplikasi di budaya lain untuk menggeneralisasi dan menilai apakah budaya lain juga terkena dampak masalah ini.