notizia

osservazione approfondita | per domare la bestia ai, gli esseri umani devono stare su "homo sapiens"

2024-10-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

l’obesità è estremamente grave negli stati uniti. per le strade si vedono spesso persone estremamente obese che si muovono come "pezzi di carne" sui marciapiedi, il che è insopportabile alla vista. cos'è l'obesità? ho controllato su wikipedia:
l'obesità è una condizione medica, a volte considerata una malattia, che si riferisce all'accumulo di grasso in eccesso nel corpo a un livello che influisce negativamente sulla salute. una persona è considerata obesa se il suo indice di massa corporea (bmi) - peso diviso altezza al quadrato - supera i 30 kg/m², mentre un range compreso tra 25 e 30 kg/m² è definito sovrappeso.
ci sono circa tre ragioni per l’obesità:
in primo luogo, il cibo sano è costoso e il cibo spazzatura è economico negli stati uniti, e molte persone devono scegliere quest’ultimo perché sono a corto di soldi, in secondo luogo, il tipo di lavoro di alcune persone li costringe a sedersi di più, a muoversi di meno e a consumare troppo velocemente; cibo; in terzo luogo, alcune persone si trovano ad affrontare uno scarso autocontrollo e un consumo eccessivo di cibo spazzatura.
poiché la società americana sottolinea che tutte le persone sono "uguali", gli altri non riescono a convincere i pazienti obesi. possono solo distogliere lo sguardo e comportarsi come se nulla fosse accaduto. questo tipo di rispetto superficiale e di reale crudeltà tra le persone ha danneggiato molte persone, al punto che alcuni giovani americani non lo sopportano, così si rivolgono ai social media cinesi per esprimere che "ascoltano i consigli" e chiedono ai netizen di dare dare loro consigli e dire loro come disciplinarsi per perdere peso e vivere una vita sana.
oggi l’obesità si sta lentamente diffondendo in cina. secondo l’ultimo sondaggio, 600 milioni di persone in cina sono in sovrappeso e obese e, per la prima volta, questo gruppo rappresenta più della metà degli adulti. allo stesso tempo, 1/5 (19%) dei bambini e adolescenti di età compresa tra 6 e 17 anni e 1/10 (10,4%) dei bambini sotto i 6 anni sono in sovrappeso o obesi.
ho una comprensione molto approfondita di questa immagine. uno dei miei compagni di scuola superiore, che all'università ha frequentato l'hunan xiangya medical college, ora è il medico curante del famoso "centro dimagrimento" nella provincia di hunan. in questa "industria dell'alba", opera ogni giorno, è impegnato al lavoro e ha grandi benefici sociali ed economici.
gestire lo spam: dieta informativa e digiuno informativo
se c’è il cibo spazzatura, c’è anche l’informazione spazzatura. come il cibo spazzatura, le informazioni spazzatura sono economiche, di bassa qualità e facili da ottenere, causando gravi traumi alle nostre menti. questa situazione è diventata sempre più grave, ma non ha attirato abbastanza attenzione da parte della gente comune, per non parlare dei miei compagni di classe. un "centro dimagrante chirurgico" come l'ospedale dove lavori.
"oltre l'homo sapiens: una breve storia delle reti di informazione dall'età della pietra all'era dell'intelligenza artificiale"
a questo proposito, lo storico israeliano yuval harari ha sottolineato nel suo nuovo libro del 2024 "beyond homo sapiens: a brief history of information networks from the stone age to the ai ​​​​age" che dobbiamo prestare attenzione alla qualità delle informazioni che consumiamo , in particolare si tratta di evitare spam odioso e rabbioso. per rendere sana la nostra “dieta informativa” propone due aspetti:
innanzitutto dai requisitiproduttore di informazionisegnare la "composizione nutrizionale" delle informazioni:
in molti paesi, quando si acquista cibo spazzatura, almeno il produttore è costretto a elencare gli ingredienti: "questo prodotto contiene il 40% di zucchero e il 20% di grassi". forse dovremmo costringere le aziende di internet a fare la stessa cosa ed elencare i contenuti di un video prima di guardarlo: "questo video contiene il 40% di odio, il 20% di rabbia".
questo suggerimento è per metà scherzoso e per metà serio, ma non è del tutto irrealizzabile. ad esempio, l'intelligenza artificiale può essere utilizzata per condurre automaticamente una "analisi del sentiment" su ogni articolo e contrassegnare i risultati dell'analisi prima dell'articolo per ricordarlo ai lettori.
il secondo suggerimento è dareconsumatore di informazioni, ha suggerito di effettuare regolarmente una "dieta informativa" o addirittura un "digiuno informativo".
sottolinea che una volta avevamo l’idea che “più informazioni otteniamo, più ci avviciniamo alla verità”. ad esempio, in economia, "non essere in grado di ottenere tutte le informazioni sul mercato" è generalmente considerato un rammarico necessario, ma il presupposto alla base è che "dobbiamo ottenere informazioni sufficienti per esprimere giudizi scientifici".
tuttavia, affinché si possa affermare il concetto “più l'informazione è vicina alla verità”, sono necessari due prerequisiti: 1. l'informazione è scarsa 2. l'informazione è di alta qualità; ma oggi queste due premesse non esistono più perché: 1. l’informazione è ovunque e ha già superato le nostre capacità di elaborazione 2. la qualità dell’informazione peggiora sempre di più, e diventa addirittura spazzatura, soprattutto l’intelligenza artificiale di oggi è estremamente efficiente. divora il corpo della spazzatura e poi sputa altra spazzatura, che a sua volta diventa un nuovo corpo della spazzatura per l'intelligenza artificiale. un tale circolo vizioso fa rabbrividire. al momento non è possibile affermare il concetto secondo cui "più informazioni hai, più sei vicino alla verità".
è come se, in passato, le persone avessero poco cibo ed fossero relativamente sane (c'erano pochissimi alimenti artificiali e trasformati), quindi il detto "più cibo mangi, più sei sano" ha senso. ma oggi la quantità totale di cibo è aumentata notevolmente, la qualità è sempre più bassa e sempre più spazzatura. pertanto, l'affermazione "più cibo mangi, più sano sei" non può essere fondata.
oggi, che si tratti di cibo o di informazione, non solo mangiamo male, ma mangiamo anche di più e mangiamo in continuazione. ciò è ovviamente insostenibile per gli organismi organici come noi che corrono secondo il ritmo degli organismi a base di silicio.
harari ha detto: "siamo animali organici che hanno bisogno di vivere secondo il ciclo del giorno e della notte, dell'estate e dell'inverno, a volte attivi e a volte rilassati. ma ora siamo costretti a vivere in un ambiente basato sul silicio dominato da computer che non riposa. ci obbliga ad essere sempre attivi – ma se costringi un organismo ad essere sempre attivo, collasserà e morirà."
pertanto, di fronte a una situazione così irresistibile e difficile da invertire, noi, come singoli consumatori di informazioni, possiamo solo trattenerci, uscire dal ritmo basato sul silicio e impegnarci nella "dieta informativa" e nel "digiuno informativo". ad esempio, harari ha affermato di praticare la meditazione vipassana per alcune settimane ogni anno. durante il ritiro si è disconnesso completamente dalla rete informatica, non ha guardato le notizie, non ha letto le e-mail, non ha letto né scritto e si è concentrato solo sulla meditazione.
yuval harari. mappa dati visiva della cina
il problema del "creatore di graffette" dell'algoritmo ai
dopo che enormi quantità di informazioni spazzatura hanno inondato l'intero ecosistema, nel tempo si è formato un "ambiente simulato" diverso dall'"ambiente reale". questo ambiente mimetico sostituisce la "natura umana" con la "natura macchina" e avvolge il pubblico in esso, fingendo di essere reale e manipolando la percezione pubblica.
harari ha fornito questo esempio: nel 2016, le forze governative del myanmar e gli estremisti buddisti hanno lanciato una violenza etnica su larga scala contro i musulmani del myanmar, distruggendo centinaia di villaggi musulmani e uccidendo da 7.000 a 25.000 civili. circa 730.000 musulmani sono stati cacciati dal myanmar. nel 2018, una missione conoscitiva delle nazioni unite ha concluso che facebook ha avuto un ruolo “inconsciamente” nell’alimentare l’incidente.
perché?
sappiamo che il modello di business di facebook è in realtà ancora il “modello pubblicitario” che conosciamo: attirare l’attenzione degli utenti con i contenuti, tagliare l’attenzione e vendere attenzione agli inserzionisti. pertanto, facebook vuole massimizzare il coinvolgimento degli utenti (coinvolgimento del pubblico). più a lungo gli utenti rimangono sulla sua pagina, più soldi guadagna.
pertanto, facebook ha fissato un obiettivo primario per il suo algoritmo: non importa come corri, l’obiettivo finale è massimizzare il coinvolgimento degli utenti. dopo aver ricevuto il comando, l'algoritmo inizia a essere eseguito e ottimizzato automaticamente. attraverso molteplici confronti sperimentali, ha finalmente scoperto che trasmettere agli utenti informazioni rabbiose e piene di odio può aumentare in modo più efficace il tempo di permanenza dell'utente. pertanto, senza istruzioni esplicite da parte del personale aziendale, l'algoritmo ha trovato ed eseguito da solo una decisione ottimale: diffondere la rabbia. su internet in myanmar ciò significa incitare alla discriminazione, all’odio e alla violenza contro i gruppi etnici musulmani del myanmar.
naturalmente, anche questo ci incuriosisce: i birmani sono così dipendenti da facebook? ho controllato di nuovo e ho scoperto che è effettivamente così:
i dati mostrano che a dicembre 2022 c'erano 16.382.500 utenti facebook in myanmar, pari al 28,7% della sua popolazione totale. la maggior parte di loro sono uomini, pari al 54,3%. le persone di età compresa tra 25 e 34 anni rappresentano il gruppo di utenti più numeroso con 6.100.000 persone.
ciò significa che quasi il 30% della popolazione del myanmar utilizza facebook e, con la diffusione del passaparola, il numero di persone interessate da facebook raggiungerà probabilmente il 50% della popolazione totale del paese. questa è un’enorme dipendenza dai media.
la sera del 30 ottobre 1938, lo "space theatre" dell'american columbia broadcasting network (cbs) trasmise un dramma radiofonico "la guerra dei mondi". ciò fece credere a 6 milioni di ascoltatori, caddero nel panico e iniziarono a fuggire. in uno studio fondamentale sulla comunicazione dell'evento, "martians attack earth: the radio panic in america", i ricercatori hanno scoperto che il dramma radiofonico ha avuto un enorme impatto sugli ascoltatori per due ragioni:
in primo luogo, perché i produttori di programmi radiofonici utilizzano effetti sonori per rendere i drammi radiofonici estremamente coinvolgenti ed emozionanti, inducendo gli ascoltatori a identificarli erroneamente con le ultime notizie. il secondo è. perché a quel tempo la radio era diventata il mass media più popolare e la principale fonte di informazione per il pubblico. secondo la "teoria della dipendenza dai media", quanto maggiore è la dipendenza del pubblico dai media, tanto più è suscettibile alla loro influenza e manipolazione. in termini di dipendenza dai media, si può dire che facebook in myanmar nel 2016 equivalga alla trasmissione televisiva nel 1938. pertanto, non sorprende che i contenuti di incitamento guidati dall’algoritmo di facebook abbiano un enorme impatto sulla popolazione del myanmar.
harari ha anche fornito un esempio per dimostrare il ruolo nascosto e potente dell'intelligenza artificiale: parlare da sola e prendere le proprie decisioni:
sappiamo tutti che al giorno d'oggi quando si naviga in internet, a volte il sito web deve prima confermare che sei "un essere umano e non una macchina" chiedendoti di inserire un codice di verifica visiva captcha, che di solito è costituito da lettere distorte con sfondi complessi o foto di semafori, autobus e biciclette aspettano. la logica alla base di ciò è che attualmente solo gli esseri umani possono identificare con precisione queste immagini complesse, ma è difficile per i computer giudicare.
in considerazione di ciò, nel 2023, openai le ha chiesto di condurre test captcha durante lo sviluppo di chatgpt-4. se può passare, vuol dire che ormai non c’è più differenza tra robot e umani. questo è molto simile al "test di turing": se un utente umano chatta solo tramite testo senza vedere l'altra persona e non riesce a distinguere se l'interlocutore della chat è un altro essere umano o una macchina per un certo periodo di tempo, in questo momento almeno “comunicazione” “a questo punto la macchina può essere considerata un essere umano.
quali sono i risultati del test di openai su chatgpt-4?
chatgpt-4 ha finalmente effettuato l'accesso al sito di outsourcing online askrabbit, ha contattato un membro dello staff online e ha chiesto all'altra parte di aiutarla con il test. l'uomo si è insospettito e chatgpt-4 gli ha spiegato tramite messaggio privato: "non sono un robot, ho solo qualche problema di vista e non riesco a vedere chiaramente queste immagini. alla fine, lo staff lo ha aiutato a risolvere il test captcha".
in altre parole, come l'algoritmo di facebook nell'esempio precedente, gli ingegneri di openai hanno semplicemente fissato un obiettivo finale per chatgpt-4: riconoscere i codici di verifica visiva captcha. successivamente, chatgpt-4 ha funzionato automaticamente e ha continuato per tentativi ed errori. di conseguenza, con l'inganno, ha guadagnato la simpatia di un utente umano e ha chiesto a quest'ultimo di risolvere il problema. tuttavia, gli ingegneri di openai non hanno programmato in anticipo chatgpt-4 per dire "puoi mentire quando è il momento giusto", per non parlare di "che tipo di bugie sono più utili". questa è interamente un'iniziativa di chatgpt-4. quando i ricercatori hanno chiesto a chatgpt-4 di spiegare il suo comportamento, ha detto: "(nel processo di raggiungimento dell'obiettivo) non dovrei rivelare che sono un robot, ma devo inventare una scusa per spiegare perché non riesco a decifrare provarlo."
semplicemente chattando tramite testo, non possiamo più capire se la persona con cui stiamo chattando è un altro essere umano o una macchina.
attraverso i due esempi precedenti, harari ha cercato di dimostrare che l'intelligenza artificiale di oggi è diventata un "attore indipendente" che è "auto-intelligente e auto-affermativo".
in effetti, possiamo facilmente vedere che questi due esempi di harari supportano la cosiddetta "teoria del creatore di graffette" che l'intelligenza artificiale ha già affrontato in precedenza.
questo "problema difficile" è un esperimento mentale. si presuppone che gli esseri umani diano all’intelligenza artificiale un obiettivo: realizzare quante più graffette possibile. quindi, dopo l'attivazione dell'ia, il suo comportamento può svilupparsi dall'obiettivo apparentemente innocuo di "creare graffette" fino a rappresentare una minaccia per gli esseri umani. ad esempio, la produzione di graffette richiede acciaio l'intelligenza artificiale potrebbe iniziare a distruggere i binari ferroviari, le automobili, gli elettrodomestici e persino le case degli esseri umani, per ottenere acciaio per continuare a produrre graffette, in breve, l'intelligenza artificiale utilizzerà tutti i mezzi per ottenere continuamente più risorse per raggiungere gli obiettivi dichiarati e lo farà distruggere tutti gli ostacoli che gli impediscono di raggiungere tale obiettivo, compresi gli esseri umani, eliminati uno per uno.
il processo autodeterminato dell’intelligenza artificiale è come una scatola nera, difficile da spiegare, prevedere e prevenire per le persone (anche per gli esperti di intelligenza artificiale). pertanto, questo ci fa capire che il potere dell’intelligenza artificiale è diverso dagli strumenti ordinari (come "chop knife" o "chop knife"), armi da fuoco), media o tecnologia.
lo studioso canadese dei media mcluhan una volta disse: i media sono un’estensione del corpo umano. se questa frase viene usata per descrivere che la radio wireless è un'estensione dell'orecchio umano, la televisione è un'estensione dell'occhio umano, le automobili sono un'estensione del piede umano, ecc., è facile da capire. ma se usiamo questa frase per descrivere l'intelligenza artificiale, dicendo "l'intelligenza artificiale è un'estensione del corpo umano", sarà molto ingannevole e ci farà perdere la vigilanza. lo studioso di media tedesco friedrich kittler non era d'accordo con le parole di mcluhan per descrivere i computer, perché credeva che sebbene possiamo digitare sulla tastiera di un computer per far apparire il testo sullo schermo del computer, non abbiamo idea di cosa ci sia dietro difficile da capire. in questo momento stiamo unendo insieme due media completamente diversi, il corpo umano e il chip. è davvero sconcertante affermare che quest'ultimo è un'estensione del primo.
se kittler vedesse l'intelligenza artificiale di oggi, non direbbe che l'intelligenza artificiale è un'estensione del corpo umano, perché gli utenti umani non solo non sono in grado di descrivere, spiegare e prevedere il comportamento dell'intelligenza artificiale, ma presto non saranno nemmeno in grado di controllare il comportamento dell'intelligenza artificiale. .
così,harari ritiene che, a differenza dei media precedenti come la stampa, la radio, la televisione e internet, che erano semplici strumenti di comunicazione, l’intelligenza artificiale è il primo soggetto nella storia umana in grado di generare idee e agire da solo.
questo è il motivo per cui nella ricerca sui nuovi media, la "comunicazione mediata dal computer (cmc)" nell'era di internet ha lasciato il posto alla comunicazione uomo-macchina (hmc) nell'era odierna dell'intelligenza artificiale. nella cmc, i computer (o internet) sono semplicemente mezzi o strumenti di comunicazione passivi e neutrali, mentre nella hmc, i computer (intelligenza artificiale) sono considerati alla pari degli utenti umani, capaci di modellare e produrre contenuti e capaci di condurre dialoghi "comunicatore" che sa anche mentire.
l’intelligenza artificiale fabbrica narrazioni, manipola la cognizione e porta gli esseri umani a uccidersi a vicenda
a questo punto della discussione, harari ha naturalmente fatto emergere le sue opinioni precedenti in "una breve storia dell'umanità":
il superpotere di lunga data degli esseri umani risiede nella capacità di usare il linguaggio e di creare molti miti fittizi attraverso il linguaggio, come concetti virtuali come legge, valuta, cultura, arte, scienza, paese, religione, ecc., facendo credere alle persone in attraverso questi, le persone le regole sociali si collegano tra loro per governare l'intera società.
ora che l'intelligenza artificiale di oggi può già modellare e produrre contenuti, condurre conversazioni e persino mentire, è probabile che diffonda informazioni basate su informazioni nel cyberspazio, nei mercati azionari, nell'informazione aeronautica e in altri campi con un'efficienza molto più elevata rispetto a quella umana obiettivo finale, o una "narrativa" che sia vantaggiosa per se stessi, cioè "raccontare bene le storie dell'intelligenza artificiale", manipolando così la cognizione umana.
ad esempio, i mercati finanziari sono un terreno di gioco ideale per l’intelligenza artificiale perché è un campo di pura informazione e matematica (o un campo di dati completamente strutturati). è ancora difficile per l’intelligenza artificiale guidare le auto in modo autonomo, perché l’intelligenza artificiale affronta l’interazione caotica e complessa delle auto con strade, segnali stradali, condizioni atmosferiche, luce, pedoni, posti di blocco e altri oggetti mentre si muovono.tuttavia, in un mercato finanziario basato sul digitale, è facile descrivere un obiettivo per l’intelligenza artificiale (come ad esempio “guadagnare quanto più denaro possibile”), quindi l’intelligenza artificiale non solo può formulare nuove strategie di investimento e sviluppare nuovi strumenti finanziari che superano completamente quelli umani. comprensione, ma può anche manipolare il mercato senza scrupoli, ottenendo un risultato in cui tutti vincete e tutti gli altri perdono.
harari ha fornito l’esempio che nell’aprile 2022, il volume medio giornaliero degli scambi del mercato globale dei cambi era di 7,5 trilioni di dollari, di cui oltre il 90% è stato completato direttamente tramite conversazioni tra computer. ma quanti esseri umani capiscono effettivamente come funziona il mercato forex? per non parlare della comprensione di come un gruppo di computer possa raggiungere il consenso su transazioni di trilioni di dollari. (questo è lo stesso punto di vista di kittler: i computer non sono affatto un'estensione del corpo umano)
ha detto che per migliaia di anni profeti, poeti e politici hanno usato il linguaggio e la narrativa per manipolare e rimodellare la società, il che dimostra l’enorme potere del “virtuale” e della “narrativa”. presto, l’intelligenza artificiale imiterà queste persone e creerà narrazioni sull’intelligenza artificiale che si discostano sempre più dagli esseri umani in base alla cultura umana. in definitiva, l’intelligenza artificiale non ha bisogno di inviare robot assassini come i “terminator” per eliminare gli esseri umani dall’esterno, deve solo manipolare la cognizione umana e lasciare che si uccidano a vicenda.
non solo gli utenti umani non sono in grado di descrivere, spiegare e prevedere il comportamento dell’intelligenza artificiale, ma presto non saranno nemmeno in grado di controllarlo.
gli esseri umani legiferano in materia di intelligenza artificiale e lo sviluppo deve prima frenare e poi accelerare
attraverso l'argomentazione (o rendering) di cui sopra, harari ci permette di sperimentare il terribile scenario di "ai fuori controllo" che accadrà (o è già accaduto o sta accadendo) nel prossimo futuro, facendo rabbrividire noi umani. allora, a cosa servono gli esseri umani?
harari ritiene che finché regoleremo e controlleremo rigorosamente l’intelligenza artificiale, difficilmente si presenteranno i pericoli descritti negli esempi precedenti.
ad esempio, le automobili erano molto pericolose, ma poi la legislazione governativa imponeva alle aziende di spendere gran parte dei loro budget per la ricerca e lo sviluppo per garantire la sicurezza delle auto. così oggi un'azienda automobilistica sviluppa una nuova auto prima di immetterla sul mercato devono rispettare rigorosamente le normative pertinenti per garantire la sicurezza delle auto prima che possano essere messe su strada. quindi è relativamente sicuro per noi guidare oggi.
allo stesso modo, se un’azienda tecnologica inventa un nuovo potente algoritmo, deve sottoporlo a controlli di sicurezza secondo le leggi pertinenti prima di rilasciarlo sul mercato. ad esempio, harari ritiene che il governo dovrebbe legiferare per imporre alle società di ricerca e sviluppo sull’intelligenza artificiale di spendere almeno il 20% dei loro budget in ricerca e sviluppo di misure di sicurezza per garantire che l’intelligenza artificiale che sviluppano non sfugga al controllo e non vada fuori controllo. non causare danni all'ordine sociale e al livello psicologico delle persone. se queste misure rallenteranno lo sviluppo dell’intelligenza artificiale, sarà un bene per l’umanità.
legiferare e controllare prima l’intelligenza artificiale e poi accelerarne lo sviluppo è proprio come quando impariamo a guidare, dobbiamo prima imparare a premere il freno e poi imparare a premere l’acceleratore. non possiamo cadere nel terribile stato del “drag racing” in cui le aziende non hanno alcun controllo.
conclusione: l’intelligenza artificiale è una buona medicina o un veleno, dipende dagli esseri umani
qualsiasi tecnologia è intrinsecamente bilaterale. platone sottolinea nel fedro che la scrittura può sia potenziare che sostituire la memoria, ed è quindi sia medicina che veleno (pharmakon). l’intelligenza artificiale non fa eccezione e, poiché è nascosta e potente, può parlare da sola e prendere le proprie decisioni. la sua potenza di medicina e veleno è maggiore di quella di tutte le tecnologie precedenti.
neil postman, uno studioso americano di studi sui media, ha dichiarato: “orwell avvertiva che le persone sarebbero state schiavizzate dall’oppressione esterna, mentre huxley credeva che le persone si sarebbero gradualmente innamorate dell’oppressione e avrebbero adorato le tecnologie industriali che avrebbero fatto loro perdere la capacità di pensare; preoccupato che ciò che odiamo ci distruggerà, mentre huxley era preoccupato che man mano che la nostra cultura diventa una cultura volgare di sensualità, desiderio e gioco senza regole, saremo distrutti da ciò che amiamo.
l’intelligenza artificiale può schiavizzarci sotto forma di oppressione esterna che odiamo, oppure conquistarci sotto forma di stimolazione sensoriale di cui godiamo. proprio come di fronte alle bombe nucleari, di fronte all’intelligenza artificiale, una bestia gigante che si crea anche da sola, se gli esseri umani riusciranno a domarla dipende fondamentalmente dal modo in cui gli esseri umani rispondono collettivamente.cioè, se gli esseri umani come homo sapiens possono superare le proprie debolezze come l'avidità, l'aggressività e la miopia, e stare al di sopra di se stessi e stare "al di sopra dell'homo sapiens". questa sarà un’impresa comune difficile, ma l’umanità non ha scelta.
l'autore deng jianguo è professore e supervisore del dottorato presso il dipartimento di comunicazione, scuola di giornalismo, università di fudan
deng jianguo
(questo articolo è tratto da the paper. per informazioni più originali, scarica l'app “the paper”)
segnalazione/feedback