uutiset

Altmania syytettiin epärehellisyydestä OpenAI-tietoturvatyössä

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 3. elokuuta, ulkomaisten raporttien mukaan sen jälkeen, kun ilmiantaja väitti Yhdysvaltain arvopaperi- ja pörssiviranomaiselle (SEC), että tekoälyyhtiö OpenAI:n luottamuksellisuussopimus esti laittomasti työntekijöitä paljastamasta suuria turvallisuuskysymyksiä lainsäätäjille, OpenAI joutuu kohtaamaan lisääntyvän paineen. Tulee suurempi paine todistaa, ettei se piilota tekoälyn riskejä.

Eilen OpenAI:lle lähettämässään kirjeessä senaattori Chuck Grassley (R-Iowa) pyysi todisteita siitä, että OpenAI ei enää vaadi allekirjoituksia, mikä voi estää sen työntekijöitä lähettämästä pyyntöjä viranomaisille.

Tarkemmin sanottuna Grassley pyysi OpenAI:ta tarjoamaan nykyiset työllisyys-, irtisanomis-, halveksunta- ja luottamuksellisuussopimukset varmistaakseen kongressin, että sopimukset eivät estä paljastamista.

Grassley sanoi, että tämä on ratkaisevan tärkeää, jotta voimme luottaa ilmiantajiin, jotka paljastavat uusia uhkia ja auttavat kehittämään tehokkaita tekoälykäytäntöjä, jotka suojaavat olemassa olevilta teknologian kehityksestä johtuvilta tekoälyriskeiltä.

Grassleyn kirje sanoi, että hän ilmeisesti pyysi OpenAI:lta näitä tietueita kahdesti, mutta ei saanut vastausta.

Grassleyn tiedottaja Clare Slattery kertoi The Washington Postille, että OpenAI ei ole toistaiseksi vastannut sen uusimpaan asiakirjapyyntöön.

"Ei riitä, että sanotte, että teit päivityksen", Grassley sanoi Arsille toimitetussa lausunnossa. "Faktat puhuvat enemmän kuin sanat. Altmanin on toimitettava tiedot ja vastattava valvontapyyntööni, jotta kongressi voi arvioida tarkasti, suojaako OpenAI riittävästi työntekijöitään ja käyttäjiään."

Sen lisäksi, että Grassley pyysi OpenAI:ta päivittämään työntekijäsopimuksensa äskettäin, Grassley myös kehotti OpenAI:ta olemaan avoimempi liittovaltion tiedottamista koskevien työntekijöiden pyyntöjen kokonaismäärästä vuodesta 2023 lähtien.

Senaattorit halusivat tietää, mitä tietoja työntekijät halusivat paljastaa viranomaisille ja onko OpenAI todella hyväksynyt heidän pyyntönsä.

Samoin Grassley pyysi OpenAI:ta vahvistamaan, kuinka monta SEC-tutkimusta se on aloittanut vuoden 2023 jälkeen.

Yhdessä asiakirjat paljastavat, ovatko OpenAI-työntekijät edelleen kiellettyjä liittovaltion ilmoituksista, minkä tyyppiset ilmoitukset OpenAI kiistää ja missä määrin SEC valvoo OpenAI:ta turvallisuusriskien piilottamiseksi.

Grassley kirjoitti kirjeessä: OpenAI:n on varmistettava, että sen työntekijät voivat tarjota suojattuja ilmoituksia ilman laittomia rajoituksia.

Hän on pyytänyt OpenAI:ta vastaamaan 15. elokuuta mennessä, jotta kongressi voi suorittaa objektiivisen ja riippumattoman valvonnan OpenAI:n tietoturvaprotokollia ja luottamuksellisuussopimuksia varten.

OpenAI ei vastannut välittömästi Arsin kommenttipyyntöön.

Päällä .

Hän vahvisti myös, että OpenAI haluaa nykyisten ja entisten työntekijöiden tuntevan olonsa mukavaksi ilmaistakseen huolensa.

"Tämä on kriittistä kaikille yrityksille, mutta erityisesti meille, missä se on tärkeä osa tietoturvaohjelmaamme", Altman kirjoitti. Toukokuussa poistimme nykyisten ja entisten työntekijöiden ei-alennuksesta johtuvan varauksen sekä varauksen, joka antoi OpenAI:lle oikeuden peruuttaa sidottu pääoma (vaikka sitä ei koskaan käytetty). Olemme tehneet lujasti töitä tämän korjaamiseksi.

Heinäkuussa ilmiantaja kertoi arvopaperi- ja pörssitoimikunnalle, että OpenAI:n olisi vaadittava toimittamaan paitsi nykyiset työntekijäsopimukset myös kaikki luottamuksellisuussopimukset sisältävät sopimukset sen varmistamiseksi, että OpenAI ei ole peitellyt historiallisia tai nykyisiä tekoälyn tietoturvariskien peittämiskäytäntöjä. He haluavat, että kaikille nykyisille ja entisille työntekijöille ilmoitetaan kaikista sopimuksista, jotka sisältävät laittomia salassapitosopimuksia, ja OpenAI:n sakottavan jokaisesta laittomasta sopimuksesta.

Sam Altmania syytettiin tekoälyn turvallisuuteen liittyvien kysymysten vähättelystä

Mutta OpenAI:n vaatimukset avoimuuden lisäämisestä eivät rajoitu lainsäätäjiin. Päivää ennen Grassleyn avointa kirjettä OpenAI:n toimitusjohtaja Sam Altman julkaisi X:stä lausunnon väittäen, että OpenAI oli käyttänyt riittävästi resursseja tietoturvatoimiin viime heinäkuusta lähtien, mutta X faktantarkistaja sanoi kommenteissaan Lausunto oli harhaanjohtava ja herätti julkista kohua.

Altman kirjoitti: Kuten sanoimme viime heinäkuussa, olimme sitoutuneet osoittamaan vähintään 20 % laskentaresursseistamme koko yrityksen tietoturvatoimiin, mikä herätti yhteisössä huolta, jonka monet puolueelliset X-lukijat ajattelivat. Tämä tarjoaa enemmän kontekstia.

Yhteisön muistiinpanossa huomautetaan, että Altman viittasi heinäkuun blogiin, joka vahvisti nimenomaisesti, että OpenAI jakoi 20% laskentaresursseista Super Alignment -tiimilleen. Kun tiimi on nyt hajotettu ja Hyper-Alignmentista vastaava päätutkija jättää yrityksen, X-kommentaattorit sanovat, että Altmanin väitteet johdattivat yleisöä harhaan siitä, mitä laskentaresursseja OpenAI todellisuudessa varaa nyt epämääräisesti määriteltyihin tietoturvatoimiinsa.

Jotkut X-kommentoijat pyysivät lisätietoja OpenAI:n nykyisistä tietoturvatoimista. 31. heinäkuuta lähettämässään kirjeessä, joka vastasi viidelle muulle senaattorille tekoälyn turvallisuuskysymyksistä, OpenAI selitti tietoturvatoimiaan yksityiskohtaisemmin. Yritys myös selvensi Altmanin lausuntoa, jonka mukaan X oli merkinnyt sen vaativan "lisää kontekstia", kirjoittaen, että blogissa mainittujen laskentaresurssien ei pitäisi millään tavalla viitata vain Super Alignment -tiimiin.

OpenAI sanoi senaattoreille lähettämässään kirjeessä: Edistääksemme tietoturvatutkimuksemme asialistaamme viime heinäkuussa sitoutuimme osoittamaan vähintään 20 % laskentaresursseista tekoälyn tietoturvaan usean vuoden aikana. Tämä sitoumus koskee aina koko yrityksen tietoturvatyötä, ei vain tiettyä tiimiä.

Tämä hämmentää joitain ihmisiä, koska OpenAI:n blogi sanoo selvästi, että OpenAI käyttää 20% tähän mennessä hankkimistamme laskentaresursseista superälykkyyden koordinointiongelman ratkaisemiseen seuraavan neljän vuoden aikana. Tuolloin OpenAI sanoi, että sen tärkein perustutkimuspanos oli sen entinen superorkesteroitu tiimi, joka "tarvitsee laskentaresursseja, koska sen tekeminen hyvin on tärkeää tehtävämme saavuttamiseksi".

Yksi

OpenAI ei ole vielä vastannut meemitiliin, mutta on aiemmin sanonut, että super-linjaiset tiimit ovat kriittisiä tekoälyn turvallisuudelle, koska yhteiskunta tarvitsee tieteellisiä ja teknologisia läpimurtoja ohjatakseen ja ohjatakseen meitä älykkäämpiä tekoälyjärjestelmiä.

OpenAI kertoo tietoturvaaloitteista

OpenAI:n kirjeessä senaattoreille strategiapäällikkö Jason Kwon kertoi lainsäätäjille, että OpenAI suojaa riskeiltä tekemällä yhteistyötä ulkopuolisten asiantuntijoiden kanssa arvioidakseen ja ryhmittääkseen mallimme. Tähän sisältyi konsultointi yli 100 ulkopuolisen asiantuntijan kanssa, jotka auttoivat arvioimaan uusimpaan malliimme, GPT-4o, liittyviä riskejä.

Kwon kirjoittaa: Punaisen tiimin testaamisesta saadut havainnot ja turvallisuuskevennykset ovat julkisesti saatavilla mallien mukana toimitetuissa järjestelmäkorteissa, ja OpenAI on julkaissut asiakirjan "Tekoälyjärjestelmiin liittyvien kemiallisten, biologisten, radiologisten ja ydinvoimariskien mittaaminen "Tutkimus, joka arvioi, missä määrin kielimallit voivat vaikuttaa eri ammatteihin ja toimialoihin, arvioi kielimallien vaikutusta toimintaan ja selittää tekoälyjärjestelmän päätösten tulkittavuutta.

Tekoälyn turvallisuuden varmistamiseksi Kwon sanoi, että OpenAI toteuttaa iteratiivisen käyttöönoton, julkaisemalla ensin uusia ominaisuuksia, kuten Sora-videomallin tai puhemoottorin, rajoitetulle ryhmälle ja julkaisemalla sen sitten laajasti yleisölle.

Kwon kirjoitti: Tämän strategian avulla voimme saada palautetta OpenAI:n ulkopuolelta, päivittää turvakaiteitamme tarpeen mukaan ja kertoa yleisölle tulevista tekoälyominaisuuksista ennen kuin avaamme mallimme kokonaan.

Uusia ominaisuuksia tai malleja kehittäville työntekijöille, jotka edelleen pelkäävät kostoa turvallisuushuolien herättämisestä, Kwon sanoi, että OpenAI käynnisti eheyden vihjelinjan maaliskuussa. Tämän kanavan avulla työntekijät voivat ilmoittaa ongelmista anonyymisti, jos heillä on epämukavaa ottaa esille ongelmia muiden olemassa olevien kanavien kautta.

Vaikka OpenAI sanoo, että työntekijät voivat vapaasti puhua kaikista huolenaiheistaan, on selvää, että jos OpenAI pitää tiettyjä tietoja turvallisuusriskinä, niitä ei silti voida jakaa.

Kwon kirjoittaa: OpenAI tekee edelleen eron huolen herättämisen ja yrityksen liikesalaisuuksien vuotamisen välillä. Jälkimmäinen (suojattu oikeus paljastaa) on edelleen kielletty nykyisten ja entisten työntekijöiden kanssa tehdyissä salassapitosopimuksissa. Uskomme, että tämä kielto on erityisen tärkeä, kun otetaan huomioon teknologiamme vaikutus Yhdysvaltain kansalliseen turvallisuuteen.

Koska tämä poikkeus sallii OpenAI:n evätä joitain liittovaltion ilmoituksia, Grassley halusi todennäköisesti selvittää, olisiko OpenAI voinut evätä tiedot väärin suojellakseen liikesalaisuuksia.

Grassleyn kirje teki selväksi, että senaattorit olivat huolissaan yritysten itsevalvontaturvallisuuteen kohdistuvista riskeistä.