uutiset

"AI Kummisetä" Bengio sanoi: Ihmiset eivät ehkä pysty ratkaisemaan tekoälyn riskejä ja politiikan valvontaan liittyviä kysymyksiä 10 vuodessa

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Titanium Media App -uutisia 24. elokuutaYoshua Bengio, kanadalainen tietojenkäsittelytieteilijä, joka tunnetaan nimellä "AI-kummisetä", syväoppimisteknologian edelläkävijä ja vuoden 2018 Turing Award -palkinnon voittaja, totesi julkisesti, että ChatGPT:n julkaisun myötä tekoälyteknologian riskien aika on lyhentynyt. .Valitettavasti emme voi käyttää kymmentä vuotta tekoälyriskien ja politiikan valvontaan liittyvien ongelmien ratkaisemiseen, vaan lyhyempää aikaa, joten alan on toimittava nyt nopeuttaakseen tekoälyn turvallisuuspolitiikan täytäntöönpanoa.

"Politiikan kehittäminen vie paljon aikaa, kestää vuosia erimielisyyksien ratkaiseminen, tällaisen lainsäädännön voimaan saattaminen kestää vuosia, on prosesseja, jotka on otettava käyttöön, kestää vuosia tehdä tämä oikein", Bengio kertoi Bloombergille. Nyt huolehdi siitä, että ei ehkä ole paljon aikaa "saada se oikein".Ja mikä pahinta on, että tekoälyriskit eivät ole vain sääntelykysymys, se on kansainvälinen sopimus, ja meidän on ratkaistava tämä ongelma maailmanlaajuisesti.

On raportoitu, että Bengio syntyi Pariisissa ja kasvoi Kanadassa. Hän asuu nyt Montrealissa, Kanadassa ja toimii professorina Montrealin yliopiston tietojenkäsittelytieteen ja tietojenkäsittelyn laitoksella. Hän valmistui tietojenkäsittelytieteen tohtoriksi McGill Universitystä Kanadasta vuonna 1991. Bengion päätutkimusalueet ovat syväoppiminen ja luonnollisen kielen käsittely.

Yli 30 vuotta kestäneen syväoppimisen tutkijauransa aikana Bengio on julkaissut yli 300 akateemista artikkelia ja häntä on siteerattu yli 138 000 kertaa. Ng Enda sanoi kerran, että Bengion monet teoreettiset opinnot ovat inspiroineet häntä suuresti.

Vuonna 2018 hän, Geoffrey Hinton, "hermoverkkojen isä", ja Yann LeCun, "konvoluutioverkkojen isä", voittivat "Turing-palkinnon" syvän oppimisen teorian uranuurtajista. Heitä kolmea kutsutaan myös nimellä ". Tekoäly", tekoälyteollisuuden. "Big Three", "Big Three of Deep Learning", "Three Godfathers of AI".

Bengio, yksi "Syvän oppimisen kolmesta jättiläisestä", huomautti kerran, että tekoälyä käytetään väärin Itse asiassa ei ole vielä olemassa älykästä kokonaisuutta, joka olisi verrattavissa ihmisen älykkyyteen. Tietenkin hän rakastaa edelleen tekoälyä teknologiana.

Bengio sanoi, että ennen ChatGPT:n syntymistä vuoden 2022 lopussa hän uskoi, että todelliset tekoälyriskit eivät ilmene ainakaan vuosikymmeniin. Oli aika, jolloin hän ei ollut kovin huolissaan tekoälyn turvallisuusongelmista ja uskoi, että ihmiset olivat kaukana Ihmisiä kilpailevan teknologian kehittämisestä Vaikka tekoälytekniikka on vielä "vuosikymmenien päässä", hän olettaa, että voimme "hyötyä tekoälyn eduista" vuosia ennen kuin kohtaamme riskit.

Mutta nyt ChatGPT:n käynnistäminen on muuttanut hänen mielensä täysin. Hän ei ollut enää niin varma. Hänen oletuksensa tekoälyn kehityksen nopeudesta – ja mahdollisista uhista, joita teknologia aiheuttaa yhteiskunnalle –Se kaatui sen jälkeen, kun OpenAI julkaisi ChatGPT:n vuoden 2022 lopussa, koska ihmistason tekoälytekniikka on saapunut.

"Muutin mieleni täysin, koska meillä oli vihdoin koneet, jotka pystyivät puhumaan meille (ChatGPT), "Meillä on nyt tekoälykoneet, jotka ymmärtävät kieltä. Emme odottaneet sen tapahtuvan niin pian. En usko, että kukaan todella odottanut tätä, eivät edes ihmiset, jotka rakensivat näitä järjestelmiä. Voit nähdä, että voi mennä vuosia, vuosikymmeniä tai jopa kauemmin ennen kuin saavutamme ihmistason älykkyyden - älykkyystasolla, on vaikea ennustaa mitä tapahtuu - päädymmekö johonkin todella, todella hyvään vai johonkin todella, todella huonoon, ja on paljon epävarmuutta siitä, mitä aiomme tehdä asialle ohjaa nykyistä työtäni tieteen ja politiikan alalla."

Sen jälkeen kun ChatGPT herätti maailmanlaajuisen keskustelun tekoälyn riskeistä, Bengio alkoi käyttää enemmän energiaa tekoälyn säätelyn puolustamiseen, ja yhdessä akateemisen ja tekoälyn pioneerin Geoffrey Hintonin kanssa hän tuki julkisesti kiistanalaista Kalifornian tekoälyn turvallisuuslakia SB1047. asettaa yritykset vastuuseen tekoälymalliensa aiheuttamista katastrofaalisista haitoista ilman turvatoimia.

Bengio uskoo, että tämä on "toiseksi tärkein käsiteltävänä oleva ehdotus", toiseksi vain EU:n tekoälylaki.

15. elokuuta paikallista aikaa Kalifornian kiistanalainen Frontier AI Model Safety Innovation Act (myöhemmin tunnettiin nimellä California AI Safety Act SB 1047) hyväksyi lopulta Kalifornian edustajainhuoneen määrärahojen komitean arvioinnin heikentyään merkittävästi asiaankuuluvia säännöksiä.

SB 1047 pyrkii estämään kyberturvallisuushäiriöitä, joissa suuret tekoälyjärjestelmät tappavat suuren määrän ihmisiä tai aiheuttavat yli 500 miljoonan dollarin tappioita saattamalla kehittäjät vastuuseen. Hyväksyttyään tarkastelun tämä tarkoittaa, että lakiesitys on ottanut tärkeän askeleen kohti muodollista lakia ja asetusta, ja se on myös tärkeä askel tekoälyn valvonnassa Yhdysvalloissa.

Kalifornian tekoälyn turvallisuuslaki on kuitenkin ollut kiistanalainen. Stanfordin yliopiston professori Li Feifei, Metan päätutkija Yang Likun ja muut uskovat, että lakiehdotus vahingoittaa lopulta Kalifornian ja jopa Yhdysvaltojen johtavaa asemaa tekoälyn alalla laitos a16z on perustanut verkkosivuston, jossa käsitellään kuusi rikostapausta.

Jopa Yhdysvaltain edustajainhuoneen entinen puhemies Nancy Pelosi antoi lausunnon, jossa vastustettiin tätä lakia, ja hän uskoo, että Kalifornian tekoälyn turvallisuuslakiehdotuksella on hyvät aikeet, mutta siitä puuttuu täysi ymmärrys hyvä.

Viimeisin Kalifornian tekoälylakia vastustanut on OpenAI. OpenAI julkaisi tällä viikolla asiakirjan, jossa todetaan, että lainsäädäntö vahingoittaa tekoälyinnovaatioita ja sillä voi olla "laajalle levinnyt ja merkittävä" vaikutus Yhdysvaltojen kilpailukykyyn tekoälyn ja kansallisen turvallisuuden alalla.

Bengio kuitenkin sanoi, että Kalifornian tekoälyn turvallisuuslaki välttää liiallista määräämistä ja sen sijaan käyttää vastuuta varmistaakseen, että tekoälyyritykset eivät jätä huomiotta turvatoimia, "jotka järkevä asiantuntija tekisi". "Se luo kannustimen yrityksille, jotta niistä ei tule luokan huonointa oppilasta."

Bengio totesi, että riskipääomasijoittajat ja yritykset, jotka haluavat hyötyä teknologiasta, voivat vaikuttaa tekoälyn sääntelyä koskeviin keskusteluihin. "Voit vetää analogioita ilmastonmuutokseen, fossiilisten polttoaineiden yrityksiin ja niin edelleen", hän sanoi.

"Se ei ole sitä, se on päinvastoin. Se ei ole niin sitova. Sillä ei ole paljon vaikutusta. Se vain sanoo: Jos aiheutat miljardeja dollareita vahinkoa, olet vastuussa. Vuosikymmeniä koko laskelma kenttä on ollut jonkin verran sääntelemätön, mielestäni (oppositio) olen todella huolissani aulan vallasta ja biljoonista ja jopa kvadrillioista, joita Ai tuo mukanaan Kalifornian yliopisto, Berkeley ja Center for Artificial Intelligence Systems -keskuksen perustaja) motivoivat yrityksiä vastustamaan kaikkia säädöksiä", Bengio sanoi.

Mitä tulee riskien hallintaan, Bengio totesi: "Olen kuullut paljon hyviä perusteita siitä, että meitä älykkäämpi tekoäly voi olla erittäin vaarallista jo ennen kuin he ovat meitä älykkäämpiä Ihmiset käyttävät niitä demokratialle äärimmäisen vaarallisilla tavoilla. Jokainen, joka sanoo tietävänsä, on liian itsevarma, koska itse asiassa tiede ei pysty vastaamaan siihen todistettavalla tavalla. Mutta jos olet agnostikko ja kun ajattelet politiikkaa, sinun on suojeltava yleisöä todella pahoilta asioilta. Sitä hallitus on tehnyt niin monilla muilla aloilla.

Bengio korosti toistuvasti, ettei hän odottanut ihmisten hallitsevan keskustelun tekoälypuheteknologiaa niin nopeasti ja että se on saavuttanut ainakin riittävän inhimillisen tason.

"Mielestäni halu innovoida nopeasti vaarallisissa asioissa ei ole viisasta. Kun biologiassa tutkijat havaitsivat, että vaarallisia viruksia voidaan tehdä niin sanotun käyttövoittotutkimuksen avulla, he päättivät kollektiivisesti, että no, emme tee. Pyydä hallitusta asettamaan säännöt, jotta jos teet tämän, ainakin jos sitä ei valvota, joudut vankilaan", Bengio sanoi. "Olen varma, että tiedät synteettisen lapsipornografian, ehkä et niin haastavaa, mutta enemmän Tärkeää on, että samat syväväärennökset vääristävät yhteiskuntaa. Uusi Sveitsiläinen tutkimus verrattiin GPT-4:ää ihmisiin nähdäkseen, kuka pystyisi vakuuttamaan ihmiset, joilla ei selvästikään ollut aavistustakaan Ihmiselle tai koneelle puhuva henkilö muuttaa mieltään jostakin.

Bengio huomautti, että "meidän pitäisi omaksua samanlainen varovaisuusperiaate tekoälyn suhteen."

Katse tulevaisuuteen,Bengio korosti,Kaikki tekoälyteknologian sovellukset muuttavat edelleen ihmisten elämäntapoja terveellisillä tavoilla.Esimerkiksi biologian osalta tekoäly ymmärtää kehon ja kunkin solun toiminnan, mikä voi mullistaa esimerkiksi lääketieteen ja lääketutkimuksen ja -kehityksen ilmaston kannalta, se voi auttaa luomaan parempia akkuja, parempaa hiilidioksidin talteenottoa, ja parempi energian varastointi.

"Se ei vielä tapahdu, mutta mielestäni nämä ovat loistavia teknologiatuotteita, joita voimme tehdä tekoälyllä. Ja muuten, nämä sovellukset - useimmat niistä eivät ole vaarallisia. Joten meidän pitäisi tarkastella näitä asioita, jotka voivat tietysti auttaa yhteiskuntaa panostaa enemmän sen haasteisiin vastaamiseen”, Bengio sanoi keskustelun lopussa.