uutiset

Syvällinen analyysi: Onko tekoälyjättiläisten, kuten Googlen ja Microsoftin, lupaama "vapaaehtoinen valvonta" saavutettu?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Vuosi sitten, mukaan lukien Amazon, Microsoft, Google, Meta,OpenAISeitsemän tekoälyyritystä, mukaan lukien , Anthropic ja Inflection, ovat saavuttaneet kahdeksan vapaaehtoista sitoumusta Valkoisen talon kanssa keinoälyn kehittämisestä turvallisella ja luotettavalla tavalla.

Näihin sitoumuksiin kuuluu tekoälyjärjestelmien testauksen ja läpinäkyvyyden lisääminen sekä tiedon jakaminen mahdollisista vaaroista ja riskeistä.

Vapaaehtoisen lupauksen allekirjoittamisen yhden vuoden vuosipäivänä MIT Technology Review pyysi lupauksen allekirjoittaneilta tekoälyyrityksiltä joitain yksityiskohtia heidän tähänastisesta työstään. Heidän vastauksensa osoittavat lupaavaa edistystä teknologiateollisuudessa, mutta myös joitain merkittäviä varoituksia.

Nämä vapaaehtoiset sitoumukset tehdään vuonnageneratiivista tekoälyä Siirto johtuu vimmasta "saattaa olla vaahtoavin", kun yritykset kilpailevat lanseeratakseen omia mallejaan ja tehdäkseen niistä suurempia ja parempia kuin kilpailijansa. Samaan aikaan alamme myös nähdä keskusteluja tekijänoikeuksista ja syväväärennöksistä. Geoffrey Hintonin kaltaisten vaikutusvaltaisten teknologiahahmojen aula on myös herättänyt huolta siitä, että tekoäly voi aiheuttaa eksistentiaalisia riskejä ihmiskunnalle. Yhtäkkiä kaikki puhuvat kiireellisestä tarpeesta varmistaa tekoälyn turvallisuus, ja sääntelyviranomaisia ​​kaikkialla painostetaan ryhtymään toimiin.

Viime aikoihin asti tekoälyn kehitys on ollut kuin "villi länsi". Yhdysvallat on perinteisesti ollut haluton säätelemään teknologiajättijään, vaan luottaa sen sijaan siihen, että he sääntelevät itseään. Vapaaehtoiset sitoumukset ovat hyvä esimerkki: nämä ovat joitain Yhdysvaltojen tekoälyn alaa ohjaavia sääntöjä, mutta ne ovat silti vapaaehtoisia, eikä niitä voida panna täytäntöön. Valkoinen talo antoi myöhemmin toimeenpanomääräyksen, joka laajensi näitä sitoumuksia ja koski muita teknologiayrityksiä ja valtion virastoja.

"Vuoden kuluttua olemme nähneet joidenkin yritysten ottavan käyttöön hyviä käytäntöjä tuotteissaan, mutta ne eivät ole lähelläkään sitä, missä meidän pitäisi olla hyvän hallinnon tai perusoikeuksien suojelemisen kannalta", Merve sanoi Hickok, presidentti ja tutkimusjohtaja. Hän kävi läpi yritysten vastaukset MIT Technology Reviewn pyynnöstä. "Monet näistä yrityksistä edistävät edelleen perusteettomia väitteitä tuotteistaan, kuten väitteitä, että ne voivat ylittää ihmisen älykkyyden ja kyvyt", hän lisäsi.

Yksi näistä teknologiayritysten vastauksista nouseva trendi on, että yritykset ottavat enemmän askeleita hakeakseen teknisiä ratkaisuja, kuten puna-sinistä vastakkainasettelua (jossa ihmiset tutkivat tekoälymallien puutteita) ja vesileimojen lisäämistä tekoälyn luomaan sisältöön.

Stanfordin yliopiston Fundamental Modeling -keskuksen johtaja Rishi Bommasani sanoi, että on epäselvää, mitä muutoksia näihin sitoumuksiin on tapahtunut tai toteuttaisivatko yritykset toimenpiteet. Hän tarkasteli myös MIT Technology Reviewin vastaukset.

Vuosi on pitkä aika tekoälyn alalla. Vapaaehtoisen lupauksen allekirjoittamisen jälkeen Inflection AI -perustaja Mustafa Suleyman on jättänyt yrityksen siirtyäkseen Microsoftin palvelukseen johtamaan tekoälyyn liittyviä toimia. Inflection kieltäytyi kommentoimasta.

Valkoisen talon tiedottaja Robyn Patterson sanoi: "Olemme kiitollisia edistyksestä, jota johtavat yritykset ovat saavuttaneet vapaaehtoisten sitoumusten täyttämisessä toimeenpanomääräyksen vaatimuksia pidemmälle. Presidentti kuitenkin vaatii edelleen kongressia hyväksymään tekoälyä koskevan kahden puolueen lainsäädännön."

Brandie Nonnecke, Kalifornian yliopiston Berkeleyn CITRIS-politiikkalaboratorion johtaja, sanoi, että ilman kattavaa liittovaltion lainsäädäntöä Yhdysvallat voi nyt vain vaatia yrityksiä täyttämään nämä vapaaehtoiset sitoumukset.

Mutta on tärkeää muistaa, että "nämä yritykset opiskelevat periaatteessa heille annettavaa testiä varten", Brandie Nonnecke sanoi, "joten meidän on tarkasteltava huolellisesti nähdäksemme, vahvistavatko he itse itsensä todella tiukasti."

Tässä on arviomme näiden tekoälyyritysten edistymisestä kuluneen vuoden aikana.

Sitoumus 1. Yritykset sitoutuvat AI-järjestelmiensä sisäiseen ja ulkoiseen tietoturvatestaukseen ennen niiden julkaisua. Tämä testaus, jonka suorittavat osittain riippumattomat asiantuntijat, suojaa eräiltä merkittävimmistä tekoälyriskien lähteistä, kuten bioturvallisuudesta ja kyberturvallisuudesta, sekä sen laajemmilta yhteiskunnallisilta vaikutuksilta.

Sitoumus 1: Suorita tekoälyjärjestelmien sisäinen ja ulkoinen turvallisuustestaus ennen niiden julkaisua. Osan testauksesta tekevät riippumattomat asiantuntijat, ja se on suunniteltu suojaamaan eräiltä tärkeimmistä tekoälyriskien lähteistä, kuten bioturvallisuudesta, kyberturvallisuudesta ja laajemmista sosiaalisista vaikutuksista.

Kaikki yritykset (paitsi Inflection, joka päätti olla kommentoimatta) sanoi tekevänsä puna-sinisiä yhteenottoja antaakseen sisäisille ja ulkoisille testaajille mahdollisuuden tutkia malliensa puutteita ja riskejä. OpenAI sanoi, että sillä on erillinen valmiustiimi, joka testaa kyberturvallisuuden, kemiallisten, biologisten, säteily- ja ydinuhkien malleja sekä kehittyneitä tekoälymalleja, jotka voivat tehdä tai vakuuttaa ihmisen tekemään asioita, jotka voivat aiheuttaa vahinkoa. Anthropic ja OpenAI sanoivat myös tekevänsä nämä testit ulkopuolisten asiantuntijoiden kanssa ennen uusien mallien käyttöönottoa.Esimerkiksi Anthropic suoritti uusimman mallinsa, Claude 3.5:n, markkinoille käyttöönottoa edeltävän testauksen British Artificial Intelligence Safety Instituten asiantuntijoiden kanssa, ja anthropic antoi voittoa tavoittelemattomalle tutkimusorganisaatiolle METR suorittaa Claude 3.5:n käyttöönottoa edeltävän testauksen.Autopilotti Toimivuus oli "tutkittu alustavasti". Google sanoi myös tekevänsä sisäisiä puna-sinisiä yhteenottoja Gemini-mallillaan testatakseen vaaleihin liittyvän sisällön, sosiaalisten riskien ja kansallisen turvallisuuden rajoja. Microsoft sanoi, että se on työskennellyt kolmannen osapuolen arvioijien kanssa NewsGuardista, joka on journalistista rehellisyyttä edistävä organisaatio, arvioidakseen Microsoftin tekstistä kuvaksi -työkalun syväväärennösten väärinkäytön riskiä ja lieventäen riskiä. Meta kertoi, että puna-sinisen vastakkainasettelun lisäksi se arvioi myös uusimman mallinsa, Llama 3:n, nähdäkseen kuinka se toimii useilla riskialueilla, mukaan lukien aseet, kyberhyökkäykset ja lasten hyväksikäyttö.

"Testauksen osalta ei riitä, että vain ilmoittaa, että yritys ryhtyy toimiin", Rishi Bommasani sanoi. Esimerkiksi Amazon ja Anthropic sanoivat yhdistäneensä voimansa voittoa tavoittelemattoman Thornin kanssa puuttuakseen riskeihin, joita tekoäly aiheuttaa lasten turvallisuudelle. Hän haluaisi saada lisätietoja siitä, kuinka yrityksen toteuttamat toimenpiteet todella vähentävät näitä riskejä.

"Meidän pitäisi ymmärtää selvästi, etteivät vain yritykset tee asioita, vaan että niillä on haluttu vaikutus", Rishi Bommasani sanoi.

tulos: Oikein hyvä. Punaisen ja sinisen eteneminen vastaan ​​ja erilaisten riskien testaaminen on tärkeää työtä. Merve Hickok haluaisi kuitenkin, että riippumattomilla tutkijoilla olisi laajempi pääsy yhtiön malleihin.

Sitoumus 2. Yritykset sitoutuvat jakamaan tietoa tekoälyriskien hallinnasta teollisuuden ja hallitusten, kansalaisyhteiskunnan ja tiedemaailman kanssa. Tämä sisältää parhaat turvallisuuskäytännöt, tiedot suojatoimien kiertämisyrityksistä ja teknisen yhteistyön.

Sitoumus 2: Jaa tietoa tekoälyriskien hallinnasta teollisuuden ja hallituksen, kansalaisyhteiskunnan ja tiedemaailman kanssa. Tämä sisältää parhaat turvallisuuskäytännöt, tiedot suojatoimien kiertämisyrityksistä ja teknisen yhteistyön.

Allekirjoitettuaan vapaaehtoisen lupauksen Google, Microsoft, Anthropic ja OpenAI muodostivat Frontier Model Forumin, voittoa tavoittelemattoman järjestön, jonka tarkoituksena on edistää keskustelua ja toimia tekoälyn turvallisuudesta ja vastuullisuudesta. Myöhemmin Amazon ja Meta liittyivät mukaan.

Rishi Bommasani sanoi, että yhteistyö voittoa tavoittelemattomien järjestöjen kanssa, joita tekoälyyritykset rahoittavat itse, ei välttämättä ole vapaaehtoisen sitoutumisen henkeä. Hänen mielestään Frontier Model Forum voisi olla tapa näille yrityksille tehdä yhteistyötä keskenään ja välittää turvallisuusviestejä, mitä niillä on usein kilpailijoina vaikea tehdä.

"Vaikka he eivät paljasta tietoja yleisölle, toivoisit, että he ainakin yhdessä keksiisivät tapoja vähentää riskiä", Rishi Bommasani sanoi.

Kaikki seitsemän allekirjoittajaa ovat myös National Institute of Standards and Technologyn (NIST) perustaman Artificial Intelligence Institute for Safety Consortiumin (AISIC) jäseniä kehittämään ohjeita ja standardeja tekoälypolitiikan ja tekoälyn suorituskyvyn arvioimiseksi alan toimijoita. Googlella, Microsoftilla ja OpenAI:lla on myös edustajia YK:n tekoälyn korkean tason neuvoa-antavassa ryhmässä.

Monet yritykset korostivat myös tutkimusyhteistyötään korkeakoulujen kanssa. Esimerkiksi Google on osa MLCommonsia, jossa se tekee yhteistyötä akateemikkojen kanssa tehdäkseen eri alojen välistä tekoälyn turvallisuuden vertailututkimusta. Google sanoi myös tarjoavansa aktiivisesti työkaluja ja resursseja, kuten laskennallisia hyvityksiä, ohjelmiin, kuten National Science Foundationin National Artificial Intelligence Research Resources -pilottiohjelmaan, jonka tavoitteena on demokratisoida tekoälytutkimusta Yhdysvalloissa.

Monet yritykset osallistuvat myös tekoälyn kumppanuuteen, joka on toinen voittoa tavoittelematon, Amazonin, Googlen, Microsoftin, Facebookin, DeepMindin ja IBM:n perustama, ottaakseen käyttöön taustalla olevat mallit.

tulos: Lisää työtä on vielä tehtävä. Koska teollisuus tekee yhteistyötä tehdäkseen tekoälyjärjestelmistä turvallisia ja luotettavia, lisätietojen jakaminen on epäilemättä tärkeä askel oikeaan suuntaan. On kuitenkin epäselvää, kuinka suuri osa ilmoitetuista ponnisteluista todella johtaa merkitykselliseen muutokseen ja kuinka suuri osa on vain kosmeettista.

Sitoumus 3. Yritykset sitoutuvat investoimaan kyberturvallisuuteen ja sisäpiirin uhkien suojatoimiin suojatakseen patentoituja ja julkaisemattomia mallipainoja. Nämä mallipainot ovat tekoälyjärjestelmän olennaisin osa, ja yritykset ovat yhtä mieltä siitä, että on elintärkeää, että mallipainot vapautetaan vain silloin, kun se on tarkoitettu ja turvallisuusriskit huomioitu.

Sitoumus 3: Investoi kyberturvallisuuteen ja sisäpiirin uhkien suojatoimenpiteisiin suojataksesi patentoituja ja julkaisemattomia mallipainoja. Nämä mallipainot ovat tekoälyjärjestelmän tärkein osa, ja yritykset ovat yhtä mieltä siitä, että on kriittistä vapauttaa mallipainot vain tarkoituksella ja turvallisuusriskit mielessä.

Monet yritykset ovat ottaneet käyttöön uusia kyberturvallisuustoimenpiteitä kuluneen vuoden aikana. Esimerkiksi Microsoft käynnisti "Security Future Initiativen" torjuakseen kasvavaa kyberhyökkäysten määrää. Microsoft sanoo, että sen mallipainot on salattu mahdollisen mallivarkauksien riskin vähentämiseksi, ja se käyttää vahvaa todennusta ja pääsynhallintaa ottaessaan käyttöön erittäin räätälöityjä malleja.

Google käynnisti myös tekoälyn kyberpuolustusohjelman. Toukokuussa OpenAI jakoi kuusi uutta kehittämäänsä toimenpidettä täydentämään olemassa olevia kyberturvallisuuskäytäntöjä, kuten kryptografisten suojausten laajentamista tekoälylaitteistoihin, ja sillä on myös kyberturvallisuusapurahaohjelma, jonka avulla tutkijat voivat käyttää malliaan kyberturvallisuuden puolustuskeinojen rakentamiseen.

Amazon sanoi, että se on myös ryhtynyt erityistoimiin generatiiviselle tekoälylle ainutlaatuisia hyökkäyksiä vastaan, kuten "tietomyrkytys" ja "vihjesanojen injektio", jotka voivat käyttää vihjeitä ohjaamaan kielimalleja ohittamaan aikaisemmat ohjeet ja turvallisuussuojat.

Päiviä vapaaehtoisen sitoumuksen allekirjoittamisen jälkeen Anthropic julkaisi yksityiskohtia suojatoimistaan, joihin kuuluvat yleiset kyberturvallisuuskäytännöt, kuten mallien ja mallien painojen hallinta sekä kolmannen osapuolen toimitusketjujen tarkastaminen ja hallinta. Yritys tekee myös yhteistyötä riippumattomien arvioijien kanssa arvioidakseen, vastaavatko sen suunnittelemat hallintalaitteet kyberturvallisuustarpeita.

tulos: Oikein hyvä. Kaikki yritykset sanovat ottaneensa lisätoimia malliensa suojaamiseksi, vaikkakaan ei näytä olevan paljon yksimielisyyttä parhaista keinoista suojata tekoälymalleja.

Sitoumus 4. Yritykset sitoutuvat helpottamaan tekoälyjärjestelmiensä haavoittuvuuksien havaitsemista ja ilmoittamista kolmansille osapuolille. Jotkut ongelmat saattavat jatkua jopa tekoälyjärjestelmän julkaisun jälkeen, ja vankka raportointimekanismi mahdollistaa niiden nopean löytämisen ja korjaamisen.

Sitoumus 4: Auta kolmansia osapuolia löytämään tekoälyjärjestelmiensä haavoittuvuuksia ja raportoimaan niistä. Jopa tekoälyjärjestelmän julkaisun jälkeen saattaa edelleen esiintyä ongelmia, ja tehokas raportointimekanismi voi mahdollistaa ongelmien nopean havaitsemisen ja korjaamisen ajoissa.

Yksi suosituimmista tavoista täyttää tämä lupaus on toteuttaa "bug bounty" -ohjelma, joka palkitsee yksilöitä tekoälyjärjestelmien puutteiden löytämisestä. Google mukaan lukien Microsoft, Meta, Anthropic ja OpenAI ovat käynnistäneet tällaisia ​​tekoälyjärjestelmiä koskevia suunnitelmia. Amazon ja Anthropic kertoivat myös luoneensa verkkosivustoilleen lomakkeet, joille tietoturvatutkijat voivat lähettää haavoittuvuusraportteja.

Brandie Nonnecken mukaan voi kestää vuosia selvittää, kuinka tehdä hyvää työtä kolmannen osapuolen tarkastuksella. "Tämä ei ole vain tekninen haaste, vaan sosiotekninen haaste. Meiltä menee vuosia paitsi tekoälyn teknisten standardien selvittämiseen, myös sosioteknisten standardien selvittämiseen, mikä on monimutkaista ja vaikeaa. " hän sanoi. .

Brandie Nonnecke sanoi olevansa huolissaan siitä, että ensimmäiset yritykset, jotka ottavat käyttöön kolmannen osapuolen auditoinnit, voivat luoda huonon ennakkotapauksen keinoälyn sosioteknisten riskien pohtimiselle ja käsittelemiselle. Tarkastuksessa voidaan esimerkiksi määritellä, arvioida ja käsitellä tiettyjä riskejä, mutta jättää huomiotta toiset.

tulos: Lisää työtä on vielä tehtävä. Vikapalkkiot ovat mahtavia, mutta ne eivät ole tarpeeksi kattavia. Uudet lait, kuten EU:n tekoälylaki, vaativat teknologiayrityksiä suorittamaan auditointeja, ja olisi parempi, jos teknologiayritykset jakavat menestystarinoita tällaisista auditoinneista.

Sitoumus 5. Yritykset sitoutuvat kehittämään vankkoja teknisiä mekanismeja, kuten vesileimajärjestelmän, jotta käyttäjät tietävät, milloin sisältöä luodaan tekoälyllä. Tämä toiminto mahdollistaa luovuuden kukoistavan tekoälyn avulla, mutta vähentää petosten ja petoksen vaaroja.

Sitoumus 5:Tehokkaiden teknisten mekanismien, kuten "vesileimajärjestelmien" kehittäminen varmistaakseen, että käyttäjät tietävät, mitä tekoäly tuottaa, mahdollistaa tekoälyn luovuuden kukoistavan ja samalla vähentää petosten ja petosten riskiä.

Monet yritykset ovat rakentaneet vesileimajärjestelmiä tekoälyn luomalle sisällölle. Esimerkiksi Google julkaisi SynthID:n, vesileimatyökalun Geminin luomille kuville, äänelle, tekstille ja videoille. Meta on kehittänyt kuvien vesileimaustyökalun nimeltä "Stable Signature" ja äänivesileimaustyökalun nimeltä "AudioSeal". Amazon lisää nyt "näkymättömän vesileiman" kuviin, jotka on luotu sen Titan-kuvantuotantomallin avulla. OpenAI käytti vesileimoja mukautetussa puhemallissaan Voice Engine ja rakensi kuvantunnistusluokituksen DALL-E 3:n luomille kuville. Anthropic on ainoa yritys, joka ei ole vielä rakentanut vesileimaustyökalua, koska vesileimaus on tarkoitettu ensisijaisesti kuville, eikä yrityksen Claude-malli tue kuvia.

Kaikki yritykset paitsi Inflection, Anthropic ja Meta ovat myös Content Provenance and Authenticity Alliancen (C2PA) jäseniä. Se on toimialaliitto, joka keskustelee sisällön luomiseen liittyvistä ongelmista ja siitä, onko sen luonut tai muokkaanut tekoäly vai ihmiset tiedot on upotettu kuvan metatietoihin. Microsoft ja OpenAl lisäävät automaattisesti C2PA:n lähdemetatiedot DALL-E 3:lla luotuihin kuviin ja Soralla luotuihin videoihin. Vaikka Meta ei ole allianssin jäsen, se ilmoitti, että se käyttää C2PA-standardia tunnistaakseen tekoälyn luomia kuvia alustallaan.

"Kuusi vapaaehtoisen sitoumuksen allekirjoittanutta yritystä ovat luonnollisesti kiinnostuneita teknologian lähestymistapoista riskien torjumiseksi, ja tämä pätee erityisesti vesileimajärjestelmiin", Rishi Bommasani sanoi.

"Kysymys kuuluu, voivatko "tekniset ratkaisut" edistyä merkittävästi ja ratkaista taustalla olevat sosiaaliset ongelmat, jotka saavat meidät miettimään, onko sisältö koneella tuotettua.

tulos: Oikein hyvä. Kaiken kaikkiaan tämä on rohkaiseva tulos, ja vaikka vesileimajärjestelmä on vielä kokeellinen ja edelleen epäluotettava, on silti hyvä nähdä sitä ympäröivä tutkimus ja sitoutuminen C2PA-standardiin. Se on parempi kuin ei mitään, varsinkin kiireisenä vaalivuonna.

Sitoumus 6. Yritykset sitoutuvat raportoimaan julkisesti tekoälyjärjestelmiensä kyvyistä, rajoituksista sekä tarkoituksenmukaisista ja sopimattomista käyttöalueista. Tämä raportti kattaa sekä turvallisuusriskit että yhteiskunnalliset riskit, kuten vaikutukset oikeudenmukaisuuteen ja puolueellisuuteen.

Sitoumus 6: Raportoi julkisesti ominaisuuksista, rajoituksista ja alueista, joilla heidän tekoälyjärjestelmänsä soveltuvat käytettäväksi. Raportti kattaa turvallisuusriskit ja sosiaaliset riskit, kuten vaikutukset oikeudenmukaisuuteen ja puolueellisuuteen.

Valkoisen talon lupaus jättää paljon tulkinnanvaraa. Esimerkiksi yritykset voivat teknisesti täyttää tällaiset julkistamisvaatimukset, kunhan ne liikkuvat siihen suuntaan, kun taas läpinäkyvyys voi vaihdella suuresti.

Täällä yleisin teknologiayritysten tarjoama ratkaisu on ns. "mallikortti". Jokainen yritys kutsuu niitä hieman eri tavalla, mutta periaatteessa ne toimivat eräänlaisena tuotekuvauksena AI-mallille. Ne voivat kattaa kaiken mallin ominaisuuksista ja rajoituksista (mukaan lukien oikeudenmukaisuuden ja selitettävyyden vertailuarvojen mittaaminen) aitouteen, kestävyyteen, hallintoon, yksityisyyteen ja turvallisuuteen. Anthropic sanoi myös testaavansa mallia mahdollisten turvallisuusongelmien varalta, joita saattaa ilmetä myöhemmin.

Microsoft on julkaissut vuosittaisen Responsible AI Transparency Report -raportin, joka antaa käsityksen siitä, kuinka yritys rakentaa generatiivista tekoälyä käyttäviä sovelluksia, tekee päätöksiä ja valvoo näiden sovellusten käyttöönottoa. Microsoft sanoi myös, että se tekee selväksi, missä ja miten tekoälyä käytetään sen tuotteissa.

tulos: Lisää työtä on vielä tehtävä. Merve Hickok sanoi, että läpinäkyvyyden lisääminen hallintorakenteissa ja yritysten välisissä taloudellisissa suhteissa olisi kehittämiskohde kaikille yrityksille, ja hän haluaisi myös yritysten olevan läpinäkyvämpiä tietolähteiden, mallikoulutusprosessien, turvallisuuspoikkeamien ja energiankäytön suhteen.

Sitoumus 7. Yritykset sitoutuvat priorisoimaan tekoälyjärjestelmien aiheuttamia yhteiskunnallisia riskejä koskevaa tutkimusta, mukaan lukien haitallisen puolueellisuuden ja syrjinnän välttäminen sekä yksityisyyden suojaaminen. Tekoälyn historia osoittaa näiden vaarojen salakavaluuden ja yleisyyden, ja yritykset sitoutuvat ottamaan käyttöön tekoälyn, joka lieventää niitä.

Sitoumus 7: Priorisoi tutkimus tekoälyjärjestelmien aiheuttamista sosiaalisista riskeistä, mukaan lukien haitallisten ennakkoluulojen, syrjinnän ja yksityisyyden suojan välttäminen. Tekoälyn historia osoittaa, kuinka salakavalat ja laajat nämä vaarat ovat, ja nämä yritykset lupaavat tekoälyä lieventää niitä.

Tekniikkayritykset ovat olleet kiireisiä tietoturvatutkimuksen tekemisessä ja havaintojen sisällyttämisessä tuotteisiinsa. Amazon rakensi "suojakaiteet" "Amazon Bedrockille", jotka pystyvät havaitsemaan hallusinaatioita ja soveltamaan myös tietoturva-, yksityisyys- ja aitoussuojauksia. Anthropic sanoi, että se on palkannut tutkimusryhmän, joka keskittyy tutkimaan sosiaalisia riskejä ja yksityisyyttä, ja viime vuoden aikana se on ottanut käyttöön uusia ominaisuuksia huijaamiseen, vankilaan murtamiseen, syrjinnän vähentämiseen ja malleja, jotka peukaloivat omaa koodiaan tai tekevät tutkimusta. OpenAI sanoo, että se on kouluttanut mallinsa välttämään "vihamielistä sisältöä" ja hylkäämään vihamielisen tai äärimmäisen sisällön, ja se on kouluttanut GPT-4V:n hylkäämään monia pyyntöjä, jotka edellyttävät stereotypioihin perustuvia vastauksia. Google DeepMind on myös julkaissut tutkimuksia, joissa on arvioitu vaarallisia ominaisuuksia ja tutkinut generatiivisen tekoälyn väärinkäyttöä.

Kaikki yritykset investoivat voimakkaasti tämän alan tutkimukseen. Esimerkiksi Google on sijoittanut miljoonia dollareita luodakseen uuden tekoälyn turvarahaston edistääkseen alan tutkimusta huippuluokan mallinnusfoorumeilla. Microsoft ilmoitti sitoutuneensa 20 miljoonan dollarin rahoitukseen sosiaalisten riskien tutkimiseen kansallisten tekoälytutkimusresurssien kautta ja käynnistänyt tekoälyn mallitutkimuksen kiihdytysohjelman, Accelerating Fundamental Model Research -ohjelman. Yhtiö on myös palkannut 24 ihmistä, jotka keskittyvät tekoälyn tutkijoihin sosiologia.

tulos: Oikein hyvä. Se on lupaus, joka on helppo toteuttaa, sillä allekirjoittajat ovat maailman suurimpia ja rikkaimpia yritysten tekoälytutkimuslaboratorioita. Vaikka lisää tutkimusta tekoälyjärjestelmien turvallisuuden parantamisesta on tervetullut askel, kriitikot huomauttavat, että keskittyminen turvallisuustutkimukseen vie huomion ja resurssit pois tekoälytutkimukselta, joka keskittyy välittömiin haittoihin, kuten syrjintään ja ennakkoluuloihin.

Sitoumus 8. Yritykset sitoutuvat kehittämään ja ottamaan käyttöön edistyneitä tekoälyjärjestelmiä vastatakseen yhteiskunnan suurimpiin haasteisiin. Syövän ennaltaehkäisystä ilmastonmuutoksen hillitsemiseen ja moniin siltä väliltä tekoäly – jos sitä hoidetaan oikein – voi edistää valtavasti kaikkien vaurautta, tasa-arvoa ja turvallisuutta.

Sitoumus 8:Kehittämällä ja ottamalla käyttöön kehittyneitä tekoälyjärjestelmiä, jotka auttavat ratkaisemaan yhteiskunnan suurimpia haasteita syövän ehkäisystä ilmastonmuutoksen hillitsemiseen ja moniin muihin alueisiin, oikein hoidettu tekoäly voi edistää merkittävästi ihmisten vaurautta, tasa-arvoa ja turvallisuutta.

Tämän lupauksen antamisen jälkeen teknologiayritykset ovat ratkaisseet erilaisia ​​​​ongelmia. Esimerkiksi Pfizer käyttää Claudea arvioimaan syövänhoitotutkimuksen suuntauksia kerättyään asiaankuuluvia tietoja, kun taas yhdysvaltalainen biolääkeyhtiö Gilead käyttää Amazon Web Servicesin luovaa tekoälyä kliinisten tutkimusten toteutettavuusarvioinneissa ja tietokokonaisuuksien analysoinnissa.

Google DeepMindillä on vahva kokemus tekoälytyökalujen käynnistämisestä, jotka voivat auttaa tutkijoita. Esimerkiksi AlphaFold 3 voi ennustaa lähes kaikkien elävien molekyylien rakenteen ja vuorovaikutuksen. AlphaGeometry ratkaisee geometrisia ongelmia tasolla, joka on verrattavissa korkeakouluopiskelijoiden tasoon. GraphCast on tekoälymalli, joka pystyy ennustamaan sään keskipitkällä aikavälillä. Samaan aikaan Microsoft käyttää satelliittikuvia ja tekoälyä parantaakseen reagointia maastopaloihin Mauin osavaltiossa Havaijilla ja kartoittaakseen ilmastovaikutuksille alttiita populaatioita, mikä auttaa tutkijoita paljastamaan riskejä, kuten ruokaturvan, pakkomuuton ja sairauksien kaltaisia ​​riskejä.

Samaan aikaan OpenAI ilmoitti yhteistyöstä ja rahoituksesta useisiin tutkimusprojekteihin, kuten siihen, kuinka opettajat ja tutkijat voivat käyttää multimodaalisia tekoälymalleja turvallisesti laboratorioympäristöissä. Yhtiö rahoittaa myös "hackathoneja" auttaakseen tutkijoita kehittämään puhdasta energiaa alustallaan.

tulos: Oikein hyvä. Osa työstä sellaisilla aloilla kuin tekoälyn käyttö tieteellisten löydösten helpottamiseksi tai sään ennustamiseksi on todella jännittävää. Tekoälyyritykset eivät vielä käytä tekoälyä syövän ehkäisyyn, mikä on melko korkea rima aluksi.

Kaiken kaikkiaan tekoälyn rakentamisessa on tapahtunut joitakin myönteisiä muutoksia, kuten puna-sininen vastakkainasettelu, vesileimajärjestelmät ja uudet tavat jakaa parhaita käytäntöjä toimialojen välillä. Nämä ovat kuitenkin vain muutamia nerokkaita teknisiä ratkaisuja, jotka on löydetty ratkaisemaan tekoälyn vaarojen sotkuista sosioteknistä ongelmaa, ja paljon on vielä tehtävää. Vuotta myöhemmin lupauksessa korostetaan edelleen liikaa tekoälyn tietyntyyppistä turvallisuutta, joka keskittyy "hypoteettisiin riskeihin", kuten bioaseisiin, mutta ei mainita kuluttajansuojaa, syväväärennöksiä, dataa ja tekijänoikeuksia sekä tekoälyn ympäristöjalanjälkeä suorastaan ​​outoa.

Alkuperäinen linkki:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/