Le mie informazioni di contatto
Posta[email protected]
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Rapporto sul cuore della macchina
Dipartimento editoriale di Machine Heart
Suonare l'allarme o procedere verso la chiusura?
"ACL non è una conferenza sull'intelligenza artificiale (ACL non è una conferenza sull'intelligenza artificiale)", all'ACL 2024 tenutasi a Bangkok, Tailandia, il presidente dell'ACL di quest'anno Emily M. Bender è giunta a una conclusione molto controversa.
La Conferenza ACL è la principale conferenza internazionale nel campo della linguistica computazionale e dell'elaborazione del linguaggio naturale. È organizzata dall'Associazione internazionale per la linguistica computazionale e si tiene ogni anno. La conferenza ACL è sempre stata al primo posto in termini di influenza accademica nel campo della PNL ed è anche una conferenza consigliata dalla CCF-A.
Negli ultimi anni, poiché il deep learning e altri metodi sono diventati la corrente principale della ricerca sulla PNL, sempre più persone considerano questa conferenza come una conferenza sull’intelligenza artificiale e la maggior parte delle proposte sono legate all’intelligenza artificiale. Emily M. Bender sembra vedere alcuni aspetti negativi di questa tendenza.
Nel suo discorso ha sottolineato che ACL è l'incontro annuale dell'Associazione per la Linguistica Computazionale, il cui nucleo non è l'intelligenza artificiale, ma più focalizzato sulla tecnologia linguistica e sulla linguistica computazionale.
Bender ha chiarito che non usa l'intelligenza artificiale (intelligenza artificiale) come sinonimo di ML (apprendimento automatico). Lei ritiene che l’apprendimento automatico (incluso il deep learning) fornisca molte tecniche utili per la tecnologia linguistica e la linguistica computazionale, ma sorgono problemi quando l’attenzione si sposta sull’intelligenza artificiale.
La linguistica computazionale e l'elaborazione del linguaggio naturale (CL/NLP) si concentrano su somiglianze/differenze linguistiche, su come le informazioni sono rappresentate nel linguaggio, su come costruire tecnologia per facilitare la trascrizione, traduzione, riepilogo, acquisizione di informazioni, ecc. in diverse lingue e su come valutare queste tecniche, quali rappresentazioni intermedie sono utili per queste tecniche, quanto sono efficaci le diverse tecniche ML per compiti diversi e come le tecniche linguistiche interagiscono con i sistemi di potere esistenti.
I problemi nel campo dell’intelligenza artificiale includono come costruire macchine pensanti in grado di eseguire ragionamenti simili a quelli umani, come fare in modo che queste macchine superino gli esseri umani nei compiti cognitivi, come automatizzare i metodi scientifici e come automatizzare i compiti creativi.
Il campo dell'intelligenza artificiale solleva anche alcune idee, come ad esempio che il destino dell'umanità è fondersi con le macchine per diventare sovrumani, che l'arrivo della singolarità è inevitabile e che l'intelligenza artificiale (in realtà macchine con testo sintetico) può sostituire i servizi che dovremmo fornire a ciascuno. altro (istruzione, medicina, rappresentanza legale).
Esistono molteplici problemi nel campo dell’intelligenza artificiale, compreso un intenso interesse da parte di venture capital e miliardari.
Bender ha anche criticato alcune cattive pratiche di ricerca nel campo dell'intelligenza artificiale, come l'uso inappropriato di benchmark, i requisiti per la valutazione comparativa con i modelli chiusi di SOTA e set di dati eccessivamente grandi con conseguente mancanza di dati conservati. Bender ha detto che se la tua domanda di ricerca si concentra su "Come posso dimostrare che la mia macchina è intelligente?", allora questo focus può distorcere la pratica della ricerca.
Ha inoltre osservato che l'attenzione all'intelligenza artificiale ha portato a pratiche di revisione inadeguate, in modo tale che gli articoli che non utilizzano modelli linguistici di grandi dimensioni (LLM) o che non forniscono risultati LLM di dimensioni SOTA possono essere considerati poco interessanti.
In contrasto con le cattive pratiche nel campo dell’intelligenza artificiale, le migliori pratiche di ricerca nel campo CL/NLP includono l’applicabilità della tecnologia, la comprensione del comportamento del linguaggio umano, valutazioni ben definite, valutazioni intrinseche ed estrinseche, solide linee di base, dati di test conservati e dettagliati analisi degli errori.
Bender ha affermato che la ricerca CL/NLP si basa sulla comprensione dei dati, inclusa la conoscenza di come funziona il linguaggio (cioè la linguistica) e la documentazione del set di dati.
In termini di replicabilità e riproducibilità, Bender ha sottolineato che la scienza consiste nel costruire sulla base della ricerca precedente, non solo nel cercare di arrivarci.
In termini di impatto sociale, la ricerca CL/NLP si concentra sull’impatto della sua tecnologia sulla società, compresa l’etica e la storia della ricerca sulla PNL, nonché sulla comprensione di chi linguaggio e tecnologia verranno utilizzati da, per chi e per chi, e che potrebbero essere esclusi o inclusi ed essere danneggiati.
Bender ritiene che l'ACL dovrebbe essere un luogo incentrato sulla tecnologia linguistica, una comunità che promuove la ricerca interdisciplinare, un campo di ricerca che si prende cura dei gruppi linguistici e uno spazio in cui possiamo discutere razionalmente l'impatto della nostra ricerca e tecnologia sulla società.
Questa visione ha causato grandi polemiche sulle piattaforme social.
Alcuni sostengono che questo sia un segno di non essere abbastanza inclusivi: “I momenti migliori nella storia della PNL si sono verificati quando le persone erano aperte alle idee di altre discipline: imparavano metodi statistici da ricercatori linguistici, imparavano a pensare da scienziati sociali. Queste diapositive mi fanno pensare che alcune persone vogliano che chiudiamo."
Altri ritengono che questa separazione sia del tutto inutile perché i due sono organicamente integrati.
Tuttavia, alcuni hanno espresso la loro comprensione. Dopo tutto, l'intelligenza artificiale è troppo popolare Una volta che una conferenza viene "appaltata" dai documenti sull'intelligenza artificiale, la ricerca in altri campi verrà inevitabilmente tralasciata, il che farà perdere alla conferenza il suo interesse originario.
Riguardo al segnale inviato da questo discorso, tutti hanno cominciato a speculare: questo significa che l'ACL non accoglie i documenti dell'AI?
Cosa ne pensi di questo?
Link di riferimento: https://faculty.washington.edu/ebender/papers/ACL_2024_Presidential_Address.pdf