uutiset

Entinen OpenAI-tutkija varoittaa "vanhaa työnantajaa": sääntelemätön tekoäly aiheuttaa katastrofaalisia vahinkoja

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News 24. elokuuta, Business Insider Beijing Time -lehden tänä aamuna julkaiseman raportin mukaan, sen jälkeen kun OpenAI ilmaisi julkisesti vastustavansa Kalifornian SB 1047 -lakia (AI Safety Act), kaksi entistä OpenAI-tutkijaa tuli puhumaan julkisesti vastustamaan hänen "vanhaansa club" ja antaa varoituksen.

Kalifornian tekoälyn turvallisuuslaki vaatii tekoälyyrityksiä ryhtymään toimenpiteisiin estääkseen malliaan aiheuttamasta "vakavaa haittaa", kuten sellaisten biologisten aseiden kehittäminen, jotka voivat aiheuttaa suuria uhreja tai yli 500 miljoonaa dollaria (IT Home Note: tällä hetkellä noin 3,566 miljardia euroa yuania) taloudellisia tappioita.

Entiset työntekijät kirjoittivat Kalifornian kuvernöörille Gavin Newsomille ja muille lainsäätäjille, että OpenAI:n vastustus lakia kohtaan oli pettymys, mutta ei yllättävää.

Kaksi tutkijaa, William Saunders ja Daniel Cocotailo, kirjoittivat kirjeessä: "Valitsimme (aiemmin) liittyä OpenAI:han, koska halusimme varmistaa, että yritys kehittää" uskomattoman tehokkaita tekoälyjärjestelmiä. "Turvallisuus.Päätimme kuitenkin lähteä, koska se menetti luottamuksemme tekoälyjärjestelmien turvalliseen, rehelliseen ja vastuulliseen kehittämiseen.

Kirjeessä mainittiin myös, että OpenAI:n toimitusjohtaja Altman oli julkisesti tukenut tekoälyn sääntelyä useaan otteeseen, mutta kun varsinaisia ​​sääntelytoimia valmistauduttiin ottamaan käyttöön, he ilmaisivat vastustavansa. "Huippujen AI-mallien kehittäminen ilman riittäviä turvatoimia aiheuttaa ennakoitavissa olevan katastrofaalisen vahingon riskin yleisölle."