Shi Qian ja Xiao Chao rakentavat vankan puolustuslinjan tekoälyn turvallisuusvalvontajärjestelmälle
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Kuvassa Tesla Optimus Prime -robotti. Kuva toimittajamme Yuan Jing
Kiinan kommunistisen puolueen 20. keskuskomitean kolmas täysistunto ehdotti: "Verkon turvajärjestelmän rakentamisen vahvistaminen ja tekoälyn turvallisuusvalvontajärjestelmän perustaminen Tämä on puolueen keskuskomitean tärkeä käyttöönotto koordinoimaan kehitystä." ja vastata aktiivisesti tekoälyn turvallisuusriskeihin. Jotta tekoälyteknologian kehityksestä aiheutuvia riskejä ja tekoälyn soveltamisen todellisia vaikutuksia voidaan ennakoida ja niihin tehokkaasti vastata sekä tekoälyteknologian soveltamista ja kehittämistä tehokkaasti edistää, meidän on analysoitava perusteellisesti. Älykkään teknologian aiheuttamien sosiaalisten riskien uudet ominaisuudet ja odotukset sosiaalisiin riskeihin tarvitaan ennakointia, tieteellistä hillintää ja oikeaa ohjausta, jotta voidaan rakentaa kattava tekoälyn sosiaalisten riskien hallintajärjestelmä, joka ottaa huomioon kehityksen ja turvallisuuden sekä antaa vauhtia parantamiseen. sosiaalisen hallinnon tehokkuutta.
Neljä uutta sosiaalisten riskien ominaisuutta tekoälyn aikakaudella
Tällä hetkellä maailma on siirtynyt "riskiyhteiskunnan" aikakauteen, jossa on suuri epävarmuus Siinä on pääasiassa neljä uutta ominaisuutta: leviäminen, kaskadi, johdannainen ja hystereesi:
Ensinnäkin tekoäly on lisännyt riskitiedon leviämisen nopeutta ja laajuutta, ja sosiaaliset riskit ovat tarttuvia. Tekoälyteknologia vähentää tiedon tuoton vaikeutta ja lisää tiedon leviämisen laajuutta ja syvyyttä Tiedon leviäminen laajentaa riskitapahtumien vaikutusaluetta muodostaen erittäin tarttuvan luonteen. Samaan aikaan tekoäly voi tunnistaa ja vahvistaa käyttäjien tunteita ja käyttäytymistä tunteiden analysoinnin ja käyttäytymisen ennustamisen avulla. Jos tietyntyyppinen riskitapahtuma laukaisee voimakkaita tunnereaktioita, kuten paniikkia ja vihaa, tekoälyjärjestelmä voi antaa etusijalle tämän tyyppisen tiedon suosittelemisen ja levittämisen, mikä pahentaa entisestään julkista mielialaa ja tekee riskitiedosta erittäin tarttuvaa ja tarttuvaa Tehokas valvonta ja valvonta vaikuttavat suuresti sosiaaliturvaan ja yhteiskuntajärjestykseen.
Toiseksi tekoäly hämärtää sosiaalisten järjestelmien virtuaalisia ja todellisia rajoja, ja sosiaaliset riskit kasvavat. Tekoälyteknologia yhdistää ihmiset ja ihmiset, asiat ja asiat toisiinsa. Virtuaalimaailman ja todellisen maailman rajat hämärtyvät muodostaen monimutkaisen verkkojärjestelmän. Monet sosiaaliset toiminnot toteutetaan virtuaalisten alustojen kautta ja upotettuina tosielämän tilanteisiin. Tietovuoto virtuaalimaailmassa voi johtaa identiteettivarkauksiin todellisessa maailmassa . Päinvastoin, tietoturvaloukkaukset reaalimaailmassa vaikuttavat myös virtuaalimaailman turvallisuuteen tiedonsiirron kautta, ja virtuaalisen ja reaalisen vuorovaikutus aiheuttaa sosiaalisten riskien kaskadivaikutuksen. Älykkään teknologian ansiosta erilaiset sosiaaliset järjestelmät ovat vahvasti yhteydessä toisiinsa, ja monet päätöksentekoprosessit ovat automatisoituja. Automatisoitujen järjestelmien virheelliset päätökset voivat kuitenkin laukaista sarjan ketjureaktioita, jotka johtavat riskien peräkkäiseen leviämiseen.
Kolmanneksi tekoäly on käynnistänyt joukon toissijaisia riskejä ja riskiketjuja, ja sosiaaliset riskit ovat johdannaisia. Tekoälyteknologian soveltaminen voi aiheuttaa alkuriskejä, ja riskien ratkaisemisen tai pienentämisen aikana se aiheuttaa edelleen sarjan toissijaisia riskejä, jotka muodostavat monimutkaisen riskiketjun. Riskitapahtumat voivat levitä nopeasti eri alojen välillä ja siirtyä useilla tasoilla muodostaen toissijaisia riskejä. Esimerkiksi kyberhyökkäykset eivät ainoastaan johda tietovuotoon, vaan voivat myös aiheuttaa todellisia onnettomuuksia, kuten liikenneruuhkia ja lääketieteellisten laitteiden vikoja vaikuttamalla esineiden Internetiin. Tietovirheet tai virheelliset algoritmit voivat myös aiheuttaa useita toissijaisia riskejä. Esimerkkinä algoritminen harha. Sen aiheuttama epäreilu päätöksentekomekanismi johtaa usein sosiaaliseen tyytymättömyyteen ja konfliktiin. Riskitapahtumat aiheuttavat yleensä muutoksia julkisessa käyttäytymisessä ja psykologiassa, mikä johtaa edelleen uusia toissijaisia riskejä ja muodostaa riskiketjun.
Neljänneksi tekoäly piilottaa joidenkin riskitapahtumien vaikutuksen, ja sosiaaliset riskit ovat luonteeltaan jäljessä. Tekoälyteknologia luottaa suuriin tietomääriin koulutuksessa ja operaatioissa, ja se perustuu algoritmeihin tietovuodolla tai väärinkäytöllä ei välttämättä ole välitöntä ilmeistä vaikutusta , mutta ajan myötä tietojen väärinkäyttö voi ilmaantua ja algoritmisen harhan kumulatiiviset vaikutukset ilmenevät ajan myötä. Samaan aikaan tekoälyteknologia on myös erittäin riippuvainen teknisestä infrastruktuurista ja automaatiojärjestelmistä. Näitä järjestelmävikoja tai suunnitteluvirheitä ei välttämättä ole helppo havaita lyhyellä aikavälillä, mutta ajan myötä ongelmien asteittainen kasautuminen voi johtaa järjestelmäriskeihin. . Älykkään teknologian soveltamisella on syvällinen vaikutus sosiaaliseen käyttäytymiseen ja psykologiaan. Esimerkiksi älykkäiden suositusjärjestelmien pitkäaikainen käyttö voi johtaa tietokookoniefektiin, joka kaventaa käyttäjän näkemystä ja vaikuttaa siten yhteiskunnan monimuotoisuuteen ja osallisuuteen.
Neljä strategiaa "AI-orientoituneen hallinnon" saavuttamiseksi
Jotta tekoälyteknologian kehityksen mahdollisesti aiheuttamiin sosiaalisiin riskeihin ja uusiin ominaisuuksiin voitaisiin vastata tehokkaasti, perinteistä riskienhallintamallia on muutettava kohdistetusti ja samalla tekoälyteknologiaa tehostaa riskien tunnistaminen ja varhaisvaroitus ja saavuttaa "tekoälyyn perustuvan hallinnon" tavoite. Samalla meidän tulee tehokkaasti ehkäistä ja varoittaa mahdollisista tekoälyteknologian soveltamisen aiheuttamista riskeistä, toteuttaa "tekoälyyn suuntautunut hallinto" ja rakentaa kaksisuuntainen hallintologiikka, jossa "teknologia vahvistaa sosiaalista hallintoa ja hallinto estää teknologian väärinkäyttöä".
Käytä ensin multimodaalista dataa monimutkaisten vuorovaikutteisten suhteiden tunnistamiseen ja riskien tunnistamisen ja varhaisen varoituksen tarkkuuden parantamiseen. Multimodaalinen data viittaa tietoon, joka on saatu eri kentistä tai näkökulmista samalle kuvausobjektille, ja sitä käytetään edustamaan erilaisia tietomuotoja tai saman muodon eri muotoja. Multimodaalinen datafuusioteknologia voi louhia ja hyödyntää täydentävää informaatiota tietojen välillä, karakterisoida kokonaisvaltaisemmin kohteen ominaisuuksia, tunnistaa tai päätellä monimutkaisempia interaktiivisia suhteita ja saavuttaa monimutkaisten sosiaalisten jättiläisten järjestelmien reaaliaikaisen havainnon, korrelaatioanalyysin ja tilanteen ennustamisen voi parantaa riskien tunnistamisen tarkkuutta, rakentaa joustavamman riskinarviointi- ja varhaisvaroituskehyksen, toteuttaa tulevaisuuteen suuntautuvan ja dynaamisen riskinhallinnan ja -hallinnan sekä integroida itsenäiset päätöksentekoprosessit tehokkaasti riskien varoitus- ja reagointiprosessiin. eri päätöksentekokokonaisuuksia Tarjoa perusmenetelmiä ja työkaluja yhteistyöhön. Siksi on mahdollista analysoida kattavasti eri modaliteettien dataa, kuten tekstiä, kuvia, ääntä ja anturidataa integroimalla erilaista modaalitietoa eri aloilta, ja soveltaa teknologioita, kuten koneoppimista ja syväoppimista, tunnistamaan monimutkaisia interaktiivisia datan välisiä suhteita. . Edistää hallitusten, yritysten, sosiaalisten järjestöjen, akateemisten laitosten jne. välistä monen osapuolen yhteistyötä, perustaa osastojen välinen tiedonjakomekanismi, integroida multimodaaliset tietoresurssit, rakentaa reaaliaikainen varhaisvaroitusjärjestelmä ja löytää ajoissa potentiaalia ja varoittaa niistä. riskejä.
Toiseksi, kehittää henkilökohtaisia riskienhallintasuunnitelmia älykkään teknologian kehitys- ja sovellustasoon perustuen riskien stressikeskittymisen estämiseksi. Tekoälyteknologian eri alueiden välisistä eroista taloudellisessa ja sosiaalisessa kehityksessä ja sovellustasoissa, mikä puolestaan johtaa epäjohdonmukaisuuksiin riskien reagointikyvyssä, sosiaalisten riskien alueiden välinen leviäminen ja kehitys on epätasaista. On tarpeen laatia henkilökohtaisia riskienhallintasuunnitelmia todellisen aluekehityksen pohjalta, vähentää paikallista stressiä usean toimijan ja alueellisen yhteistyön avulla ja välttää yhteiskuntajärjestelmän rakenteellisia vaurioita. Siksi tekoälyteknologian riskienhallinnan tulee ensin arvioida tekoälyteknologian sovellustasoa eri alueilla, analysoida riskien reagointivalmiuksia, mukaan lukien hätäresurssit, tekninen infrastruktuuri ja hallintavalmiudet, sekä tunnistaa alueellisen riskienhallinnan vahvuudet ja heikkoudet. Kehitä yksilöllisiä riskienhallintastrategioita eri alueiden erityisolosuhteiden perusteella. Esimerkiksi taloudellisesti kehittyneillä alueilla voidaan keskittyä teknisen turvallisuuden ja tietosuojan vahvistamiseen, kun taas taloudellisesti alikehittyneillä alueilla on parannettava infrastruktuurin rakentamista ja teknologian popularisointia. Politiikan tuella ja pääomasijoituksilla edistämme älykkään teknologian sovellustason parantamista teknologisesti jälkeenjääneillä alueilla ja kavennamme alueiden välistä teknologista kuilua ja riskienhallintakykyä.
Kolmanneksi meidän on tasapainotettava teknologian kehitystä ja riskien sääntelyä, optimoitava riskienhallinnan kokonaiskustannukset ja varmistettava, että digitaalinen älytekniikka on sekä "hallittavaa" että "joustavaa". Tekoälyn riskin hallinnassa on otettava huomioon sekä "turvallisuus" että "kehitys", jotta vältettäisiin hallinnon epäonnistumisen aiheuttamat taloudelliset ja sosiaaliset tappiot, vaan myös liiallisen hallinnon aiheuttamien taloudellisten ja sosiaalisten etujen vähenemisen estämiseksi. Tekoälyn riskienhallinnan kustannukset sisältävät monia kustannustekijöitä, kuten riskien ehkäisykustannukset, kun hallintomekanismi on toiminnassa ja epäonnistuminen, sosiaalisten epäonnistumisten kustannukset ja sosiaalisten hyötyjen menetyskustannukset. Valvonnan intensiteettiä voidaan säätää oikea-aikaisesti teknologian kypsyysasteen ja sovellusskenaarioiden mukaan. Teknologian alkuvaiheessa otetaan käyttöön löysä valvonta innovoinnin edistämiseksi kypsässä teknologiassa, valvontaa vahvistetaan turvallisuuden ja standardoinnin varmistamiseksi. Riskienhallintastrategioita laadittaessa on tarpeen kvantifioida eri kustannustekijät, tehdä kustannus-hyötyanalyysi ja valita optimaalinen hallintosuunnitelma riskien tehokkaaksi hallitsemiseksi ja tarpeettomien hallintokulujen välttämiseksi. Samaan aikaan riskienhallinnan kustannusten tehokkaaksi vähentämiseksi voidaan antaa poliittista ja taloudellista tukea yritysten ja tieteellisten tutkimuslaitosten kannustamiseksi toteuttamaan turvallisuusteknologiainnovaatioita ja samalla kun edistetään tekoälyteknologian innovaatioita, varmistetaan turvatoimien samanaikainen kehittäminen. .
Lopuksi meidän on etukäteen tutkittava ja arvioitava tekoälyteknologian kehityksestä mahdollisesti syntyviä sosiaalisia riskejä sekä muotoiltava oikein tekoälyn sosiaalisten riskien valvontajärjestelmät ja standardit. Tekoälyteknologian nopea kehitys ja iteraatio on usein nopeampaa kuin politiikkojen ja lakien muotoilu ja mukauttaminen, mikä johtaa tiettyyn viiveeseen tekoälyn hallintopolitiikan standardeissa. Siksi on välttämätöntä sisällyttää tekoälyteknologian soveltaminen sosiaaliseen hallintoon, muotoilla asiaankuuluvat turvallisuusvalvontajärjestelmät ja teollisuusstandardit tekoälyn sosiaalisille riskeille ja varmistaa, että politiikat ja lait voivat pysyä teknologian kehityksen tahdissa samalla kun edistetään teknologian rakentamista ja kehittämistä. älykkään teknologian sovellusskenaariot. Tekoälyteknologian kehitystrendejä tulee analysoida säännöllisesti, kattavia arvioita tulee tehdä useilta eri ulottuvuuksilta, kuten teknologia, etiikka, laki, talous ja yhteiskunta, tekoälyn riskien varhaisvaroitusmekanismi tulee perustaa, uusien teknologioiden tuomat mahdolliset riskit on löydettävä. ja ennustetaan ajoissa, ja tutkimusta ja muotoilua tulisi tehdä Joustavat ja tulevaisuuteen suuntautuvat politiikat ja määräykset. Lisäksi meidän tulee aktiivisesti osallistua kansainvälisten standardien ja määräysten muotoiluun, perustaa kansainvälinen yhteistyöfoorumi, edistää yhteistyötä ja vaihtoa maiden välillä tekoälyn hallinnassa sekä vastata yhdessä globaaleihin teknologisiin riskeihin ja haasteisiin.
(Kirjoittajan yhteys: kauppakorkeakoulu, Tongjin yliopisto)
kirjoittaja:
Teksti: Shi Qian Xiao Chao Kuva: Yuan Jing Toimittaja: Chen Yu Toimittaja: Yang Yiqi
Ilmoita lähde, kun painat tämän artikkelin uudelleen.