2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Koneen sydänraportti
Machine Heart -toimitusosasto
Osallistujat saivat paljon tästä ACL-konferenssista.
Kuusipäiväinen ACL 2024 järjestetään Bangkokissa, Thaimaassa.
ACL on laskennallisen lingvistiikan ja luonnollisen kielen prosessoinnin alan huippukonferenssi. Sen järjestää International Association for Computational Linguistics ja se järjestetään vuosittain. ACL on aina ollut ensimmäisellä sijalla akateemisessa vaikuttamisessa NLP:n alalla, ja se on myös CCF-A:n suosittelema konferenssi.
Tämän vuoden ACL-konferenssi on 62. ja se on vastaanottanut yli 400 huipputyötä NLP:n alalla. Konferenssi julkisti eilen iltapäivällä parhaan paperin ja muut palkinnot. Tällä kertaa jaettiin 7 Best Paper Awards -palkintoa (kaksi julkaisematonta), 1 Best Theme Paper Award -palkinto ja 35 Outstanding Paper Awards -palkintoa.
Konferenssissa myönnettiin myös 3 Resource Awards -palkintoa, 3 Social Impact Awards -palkintoa ja 2 Time Test Awards -palkintoa.
Lisäksi tämän konferenssin Lifetime Achievement Award -palkinto myönnettiin Ralph Grishmanille, New Yorkin yliopiston tietojenkäsittelytieteen laitoksen professorille.
Seuraavassa on erityisiä palkintotietoja.
paras paperi
Paperi 1: Mission: Impossible Language Models
Johdatus artikkeliin: Chomsky ja muut uskovat, että suurten kielimallien (LLM) oppimiskyky on sama kielillä, joita ihmiset voivat oppia tai eivät. Tämän väitteen tueksi on kuitenkin vain vähän julkaistuja kokeellisia todisteita.
Tutkimuksessa kehitettiin joukko vaihtelevan monimutkaisia synteettisiä kieliä, joista jokainen on suunniteltu muuttamalla systemaattisesti englanninkielistä dataa käyttämällä luonnotonta sanajärjestystä ja kielioppisääntöjä tavoitteenaan syntetisoida kieliä, joita ihmisten olisi mahdotonta oppia.
Tutkimuksessa suoritettiin laajoja arviointikokeita, joilla arvioitiin GPT-2-pienen mallin kykyä oppia näitä "mahdottomia kieliä", ja suoritettiin nämä arvioinnit eri vaiheissa koko koulutuksen ajan vertaillakseen kunkin kielen oppimisprosessia. Tutkimuksen ydinhavainto on, että GPT-2:lla on vaikea oppia "mahdottomia kieliä" englanniin verrattuna, mikä haastaa Chomskyn ja muiden väitteet.
Vielä tärkeämpää on, että tutkimus toivoo, että sen lähestymistapa avaa hedelmällisen tutkimuslinjan, joka mahdollistaa erilaisten LLM-arkkitehtuurien testaamisen useilla "mahdottomilla kielillä" ymmärtääkseen, kuinka LLM:tä voidaan käyttää kognitiivisena ja typologisena tutkimustyökaluna.
Paperi 2: Miksi herkät toiminnot ovat vaikeita muuntajille?
Tiivistelmä: Kokeellisissa tutkimuksissa on tunnistettu lukuisia muuntajien oppimisen vääristymiä ja rajoituksia, kuten jatkuvat vaikeudet oppia laskemaan yksinkertaisia muodollisia kieliä, kuten PARITY, ja harha matalan asteen funktioita kohtaan. Teoreettinen ymmärrys on kuitenkin edelleen rajallista, ja nykyiset esitysteoriat joko yli- tai aliarvioivat realistisia oppimiskykyjä.
Tämä tutkimus osoittaa, että muuntajaarkkitehtuurissa häviömaisemaa rajoittaa tulotilan herkkyys: muuntajat, joiden lähdöt ovat herkkiä monille tulojonon osille, sijaitsevat eristetyissä pisteissä parametriavaruudessa, mikä johtaa alhaiseen herkkyyspoikkeamiseen. yleistäminen.
Tämä tutkimus osoittaa teoreettisesti ja kokeellisesti, että teoria yhdistää laajat kokeelliset havainnot muuntajien oppimiskyvyistä ja harhoista, kuten niiden yleistysharhasta matalaan herkkyyteen ja asteeseen sekä pariteettipituuden yleistyksen vaikeudesta. Tämä viittaa siihen, että muuntajan induktiivisten harhojen ymmärtäminen vaatii paitsi sen periaatteellisen ilmeisyyden myös sen häviöfunktiomaiseman tutkimista.
Paperi 3: Oracle Bone Language -kielen purkaminen diffuusiomalleilla
Johdatus paperiin: Oracle Bone Script (OBS) syntyi Kiinan Shang-dynastian aikana noin 3000 vuotta sitten. Se on kielihistorian kulmakivi ja edeltää monia vakiintuneita kirjoitusjärjestelmiä. Vaikka tuhansia kirjoituksia on löydetty, suuri määrä oraakkeliluita on jäänyt salaamatta, mikä peittää tämän muinaisen kielen mysteerin verholla. Nykyaikaisen tekoälytekniikan ilmaantuminen on avannut uusia kenttiä Oracle-salauksen tulkinnalle, mikä on asettanut haasteita perinteisille NLP-menetelmille, jotka ovat vahvasti riippuvaisia suurista tekstikappaleista.
Tässä artikkelissa esitellään uusi menetelmä, jossa käytetään kuvan generointiteknologiaa Oraclen tulkintaan optimoidun diffuusiomallin, Oracle Bone Script Decipher (OBSD) kehittämiseksi. Ehdollista diffuusiostrategiaa hyödyntäen OBSD loi tärkeitä vihjeitä Oracle-selvitykseen ja avasi uuden suunnan muinaisten kielten tekoälyavusteiselle analyysille. Tehokkuuden todentamiseksi tutkijat suorittivat laajoja kokeita Oraclen tietojoukolla, ja kvantitatiiviset tulokset osoittivat OBSD:n tehokkuuden.
Paperi 4: Ulkoamisprofiilien syy-arvio
Johdatus artikkeliin: Muistin ymmärtämisellä kielimalleissa on käytännön ja sosiaalisia vaikutuksia, kuten mallien koulutusdynamiikan tutkiminen tai tekijänoikeusloukkausten ehkäisy. Aiemmat tutkimukset määrittelevät muistin syy-suhteeksi "instanssia käyttävän koulutuksen" ja "mallin kyvyn ennustaa tuo ilmentymä" välillä. Tämä määritelmä perustuu kontrafaktuaaliin: kykyyn tarkkailla, mitä olisi tapahtunut, jos malli ei olisi nähnyt tapausta. Nykyisillä menetelmillä on vaikeuksia tarjota laskennallisesti tehokkaita ja tarkkoja arvioita tällaisista kontrafaktuaaleista. Lisäksi nämä menetelmät tyypillisesti arvioivat malliarkkitehtuurin muistia tiettyjen malliinstanssien muistin sijaan.
Tämä artikkeli täyttää tärkeän aukon ehdottamalla uutta, periaatteellista ja tehokasta muistin estimointitapaa, joka perustuu ekonometriseen ero-eron-malliin. Tällä menetelmällä tutkijat tarkkailevat mallin käyttäytymistä vain harvoissa tapauksissa koko harjoitusprosessin aikana kuvaamaan mallin muistiprofiilia, eli sen muistitrendiä harjoitusprosessin aikana. Kokeissa, joissa käytettiin Pythia-mallisarjaa, he havaitsivat, että muisti (i) on vahvempi ja kestävämpi suuremmissa malleissa, (ii) määräytyy datajärjestyksen ja oppimisnopeuden mukaan ja (iii) on vakaa eri mallien kokojen välillä Suuremman mallin muistot voidaan ennustaa pienemmästä mallista.
Paperi 5: Aya-malli: Ohjeen hienosäätöinen avoimen monikielisen kielimalli
Johdatus paperiin: Viimeaikaiset läpimurrot suurissa kielimalleissa (LLM) ovat keskittyneet pieneen määrään runsaasti dataa sisältäviä kieliä. Miten läpimurtojen mahdollisuuksia voidaan laajentaa muiden kielten ulkopuolelle? Tutkimus esittelee Ayan, laajan monikielisen generatiivisen kielimallin, joka noudattaa ohjeita 101 kielelle, joista yli 50 % katsotaan vähäresurssiksi. Aya toimii paremmin kuin mT0 ja BLOOMZ useimmissa tehtävissä ja kattaa kaksi kertaa niin monta kieltä.
Lisäksi tutkimuksessa esitellään laaja valikoima uusia arviointeja, jotka laajentavat monikielisen arvioinnin huipputason 99 kielelle. Lopuksi tutkimus tarjoaa yksityiskohtaisen tutkimuksen optimaalisesta hienosäädetystä seoksen koostumuksesta, tietojen karsimisesta ja mallin toksisuudesta, harhasta ja turvallisuudesta.
Paperi 6: Puolivalvottu hermoston protokielen rekonstruktio
Syy palkinnolle: Tämän uraauurtavan tutkimuksen tavoitteena on puoliautomaattinen prototyyppikielen rekonstruktiotehtävä historiallisessa kielitieteessä ja ehdottaa uutta puolivalvottua arkkitehtuuria. Tämä menetelmä ylittää aiemmat valvotut menetelmät ottamalla käyttöön "prototyyppi-natiivikieli" -heijastusprosessin "äidinkieli-prototyyppi" -rekonstruktioon. Tämä artikkeli on hyvä esimerkki siitä, kuinka nykyaikaiset laskennalliset mallit, kuten neurokooderit ja dekooderit, voivat edistää kielitiedettä.
Paperi 7: Luonnollisen kielen tyytyväisyys: Ongelman jakautumisen tutkiminen ja muuntajapohjaisten kielimallien arviointi (julkaisematon)
Syy palkinnolle: Tässä artikkelissa kuvataan selkeästi synteettinen arviointitietosarja loogista päättelyä varten. Tämä on hyvä täydennys suurille päätelmätietosarjoille, joissa ei ole selvää, mitä kykyjä mitataan. Teoreettisesti on todellakin syytä odottaa joidenkin osajoukkojen olevan kovempia kuin toiset, ja nämä odotukset vahvistetaan asiakirjassa. Jokaisessa kategoriassa kirjoittajat kiinnittävät erityistä huomiota todella haastaviin tapauksiin.
Aika testattu palkinto
ACL Time Test Award palkitsee kunniapaperit, jotka ovat vaikuttaneet pitkään luonnollisen kielen käsittelyn ja laskennallisen lingvistiikan aloilla vuosittain myönnetään kaksi paperia.
Paperi 1: Glove: Global Vectors for Word Representation
Johdanto: Sanojen vektoriavaruusesitysten oppimismenetelmät ovat onnistuneet sieppaamaan hienojakoisia semanttisia ja syntaktisia sääntöjä vektoriaritmetiikkaa käyttäen, mutta syntaktiset säännöt ovat edelleen läpinäkymättömiä. Tässä tutkimuksessa analysoidaan ja selvennetään, mitä ominaisuuksia mallilla pitää olla, jotta syntaktiset säännöt esiintyisivät sanavektoreissa.
Tämä tutkimus ehdottaa uutta globaalia logaritmista lineaarista regressiomallia - GloVe, joka on suunniteltu oppimaan sanojen vektoriesitystä. Tämä malli yhdistää globaalin matriisifaktoroinnin ja paikallisen kontekstiikkunamenetelmien edut.
GloVe saavutti parhaan suorituskyvyn, 75 %, sanaanalogiatehtävässä ja ylitti siihen liittyvät mallit sanan samankaltaisuustehtävässä ja nimettyjen entiteettien tunnistuksessa.
Syy palkinnolle: Sanojen upotukset olivat luonnollisen kielen käsittelyn (NLP) syväoppimismenetelmien kulmakivi vuosina 2013–2018, ja niillä on edelleen merkittävä vaikutus. Ne eivät ainoastaan paranna NLP-tehtävien suorituskykyä, vaan niillä on myös merkittävä vaikutus laskennalliseen semantiikkaan, kuten sanojen samankaltaisuuteen ja analogiaan. Kaksi vaikutusvaltaisinta sanan upotusmenetelmää ovat luultavasti skip-gram/CBOW ja GloVe. Verrattuna skip-grammiin GloVe ehdotettiin myöhemmin. Sen suhteellinen etu on sen käsitteellinen yksinkertaisuus, sillä se optimoi vektoriavaruuden samankaltaisuuden suoraan sanojen välisten jakautumisominaisuuksien perusteella, eikä epäsuorasti parametrien joukkona yksinkertaistetun kielen mallinnuksen näkökulmasta.
Paperi 2: Jakauman samankaltaisuuden mittarit
Paperin esittely: Kirjoittaja tutkii jakauman samankaltaisuusmittauksia tavoitteenaan parantaa todennäköisyysestimaattia näkymättömille tapahtumille. Niiden panos on kolmiosainen: useiden mittareiden empiirinen vertailu niiden sisältämien tietojen perusteella ja uuden funktion käyttöönotto, joka on parempi taustalla olevien agenttijakaumien arvioinnissa;
Elämäntyöpalkinto
ACL:n Lifetime Achievement Award -palkinto myönnettiin Ralph Grishmanille. Ralph Grishman on New Yorkin yliopiston tietojenkäsittelytieteen laitoksen professori, joka keskittyy luonnollisen kielen käsittelyn (NLP) tutkimukseen. Hän on perustanut Proteus-projektin, joka on edistänyt merkittävästi tiedonhankintaa (IE) ja edistänyt alan kehitystä.
Hän kehitti myös Java Extraction Toolkitin (JET), laajasti käytetyn tiedonpoimintatyökalun, joka tarjoaa useita kielianalyysikomponentteja, kuten lauseen segmentoinnin, nimettyjen entiteettien merkinnän, ajallisen ilmaisun merkinnän ja normalisoinnin, puheen osan taggauksen, osan jäsentämisen ja yhteiskäytön. analyysi. Nämä komponentit voidaan yhdistää eri sovellusten mukaan putkiksi, joita voidaan käyttää yksittäisten lauseiden interaktiiviseen analysointiin tai kokonaisten asiakirjojen eräanalyyseihin. Lisäksi JET tarjoaa yksinkertaisia työkaluja asiakirjojen huomautuksiin ja näyttämiseen, ja se sisältää täydellisen prosessin kokonaisuuksien, suhteiden ja tapahtumien poimimiseksi ACE (Automatic Content Extraction) -määrityksen mukaisesti.
Professori Grishmanin työ kattaa useita NLP:n ydinkysymyksiä ja sillä on ollut syvällinen vaikutus nykyaikaiseen kielenkäsittelytekniikkaan.
35 erinomaista paperia
Parhaan teemapaperin palkinto
Opinnäytetyö: OLMo: Kielimallien tieteen nopeuttaminen
Lainaus: Tämä työ on tärkeä askel kohti läpinäkyvyyttä ja toistettavuutta suurten kielimallien koulutuksessa, askel eteenpäin yhteisön pyrkimyksissä edistyä (tai ainakin antaa muille tutkijoille, jotka eivät ole alan jättiläisiä) osallistua.
Resurssipaperipalkinto
3 paperia voitti Resource Paper Award -palkinnon.
Paperi 1: Latxa: Open Language Model and Evaluation Suite for Basque
Laitos: Baskimaan yliopisto, Espanja
Palkinnon perusteet: Tässä artikkelissa kuvataan yksityiskohtaisesti korpuskeräyksen ja aineiston arvioinnin yksityiskohdat. Vaikka tämä menetelmä on olennainen baskikielen tutkimuksen kannalta, sitä voidaan laajentaa laajojen mallien rakentamiseen muille vähän resursseja käyttäville kielille.
Paperi 2: Dolma: Kolmen biljoonan tokenin avoin korpus kielimallien esikoulutustutkimukseen
Palkinnon syy: Tämä artikkeli osoittaa tiedonhallinnan tärkeyden valmisteltaessa tietojoukkoja suurten kielimallien koulutukseen. Tämä tarjoaa erittäin arvokkaita oivalluksia laajalle joukolle ihmisiä yhteisön sisällä.
Paperi 3: AppWorld: Sovellusten ja ihmisten hallittava maailma interaktiivisten koodausagenttien vertailuun
Syyt palkinnolle: Tämä tutkimus on erittäin tärkeä ja hämmästyttävä työ interaktiivisen ympäristön simulaation ja arvioinnin rakentamisessa. Se rohkaisee kaikkia tuottamaan enemmän jyrkkiä dynaamisia vertailuarvoja yhteisölle.
Sosiaalisen vaikutuksen palkinto
3 paperia voitti sosiaalisen vaikutuksen palkinnon.
论文 1: Kuinka Johnny voi saada LLM:t vankilaan: Taivuttelun uudelleenarviointi tekoälyn turvallisuuden haastamiseksi humanisoimalla LLM:itä
Palkinnon syy: Tämä artikkeli käsittelee tekoälyn turvallisuutta - jailbreaking -aihetta, tutkien yhteiskuntatieteellisen tutkimuksen alalla kehitettyä menetelmää. Tutkimus on erittäin mielenkiintoinen ja sillä voi olla merkittävä vaikutus yhteisöön.
Paperi 2: DIALECTPENCH: NLP-vertailu murteille, lajikkeille ja läheisesti liittyville kielille
Syy palkinnolle: Murrevaihtelu on alitutkittu ilmiö NLP:n ja tekoälyn aloilla. Kielen ja yhteiskunnan näkökulmasta sen tutkimus on kuitenkin erittäin arvokasta ja sillä on merkittäviä vaikutuksia sovelluksiin. Tämä artikkeli ehdottaa hyvin uutta vertailukohtaa tämän ongelman tutkimiseksi LLM-aikakaudella.
Paperi 3: oluen nauttiminen rukouksen jälkeen?
Syyt palkinnolle: Tämä artikkeli osoittaa LLM-aikakauden tärkeän asian: kulttuurisen ennakkoluulon. Tämä artikkeli tutkii arabialaista kulttuuria ja kieliympäristöä, ja tulokset osoittavat, että meidän on otettava huomioon kulttuurierot LLM:itä suunniteltaessa. Siksi sama tutkimus voidaan toistaa muissa kulttuureissa yleistämiseksi ja arvioimiseksi, vaikuttaako tämä ongelma myös muihin kulttuureihin.