nouvelles

observation approfondie|pour apprivoiser la bête ia, les humains doivent se tenir sur "homo sapiens"

2024-10-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

l'obésité est extrêmement grave aux états-unis. dans les rues, on voit souvent des personnes extrêmement obèses se déplacer comme des « morceaux de viande » sur les trottoirs, ce qui est insupportable à regarder. qu'est-ce que l'obésité ? j'ai consulté wikipédia :
l'obésité est une condition médicale, parfois considérée comme une maladie, dans laquelle un excès de graisse s'accumule dans le corps à un niveau qui nuit à la santé. une personne est considérée comme obèse si son indice de masse corporelle (imc) – poids divisé par la taille au carré – dépasse 30 kg/m², alors qu’une fourchette de 25 à 30 kg/m² est définie comme un surpoids.
il y a environ trois raisons à l’obésité :
premièrement, les aliments sains coûtent cher et la malbouffe est bon marché aux états-unis, et de nombreuses personnes doivent choisir cette dernière parce qu'elles manquent d'argent. deuxièmement, le type de travail de certaines personnes les oblige à s'asseoir davantage, à bouger moins et à consommer trop vite ; nourriture; troisièmement, certaines personnes sont confrontées à une faible maîtrise de soi et à une consommation excessive de malbouffe.
puisque la société américaine insiste sur le fait que tous les gens sont « égaux », les autres ne peuvent pas convaincre les patients obèses. ils peuvent simplement détourner le regard et agir comme si de rien n’était. ce genre de respect superficiel et de cruauté réelle entre les gens a fait du mal à de nombreuses personnes, à tel point que certains jeunes américains ne peuvent pas le supporter, alors ils se rendent sur les réseaux sociaux chinois pour exprimer qu'ils « écoutent les conseils » et demandent aux internautes de donner leur donner des conseils et leur dire comment se discipliner pour perdre du poids et vivre une vie saine.
aujourd’hui, l’obésité se propage lentement en chine. selon la dernière enquête, 600 millions de personnes en chine sont en surpoids et obèses et, pour la première fois, ce groupe représente plus de la moitié des adultes. parallèlement, 1/5 (19 %) des enfants et adolescents âgés de 6 à 17 ans et 1/10 (10,4 %) des enfants de moins de 6 ans sont en surpoids ou obèses.
j'ai une compréhension très précise de cette image. un de mes camarades de classe du secondaire, qui a étudié à l'université de médecine hunan xiangya, est maintenant médecin traitant du célèbre « centre de perte de poids » de la province du hunan. dans cette « industrie du lever du soleil », il travaille tous les jours, est occupé au travail et bénéficie de grands avantages sociaux et économiques.
faire face au spam : régime d'information et jeûne d'information
s’il y a de la malbouffe, il y a aussi de la malbouffe. comme la malbouffe, les informations indésirables sont bon marché, de mauvaise qualité et faciles à obtenir, provoquant de graves traumatismes dans nos esprits. cette situation est devenue de plus en plus grave, mais elle n'a pas suffisamment attiré l'attention des gens ordinaires, sans parler de mes camarades de classe. un « centre chirurgical d’amaigrissement » comme l’hôpital où vous travaillez.
"au-delà de l'homo sapiens : une brève histoire des réseaux d'information de l'âge de pierre à l'ère de l'ia"
à cet égard, l'historien israélien yuval harari a souligné dans son nouveau livre de 2024 « au-delà de l'homo sapiens : une brève histoire des réseaux d'information de l'âge de pierre à l'ère de l'ia » que nous devons prêter attention à la qualité des informations que nous consommons. , il s’agit en particulier d’éviter le spam haineux et colérique. afin de rendre notre « régime informationnel » sain, il propose deux aspects :
premièrement, à partir des exigencesproducteur d'informationsmarquez la « composition nutritionnelle » de l’information :
dans de nombreux pays, lorsque vous achetez de la malbouffe, le fabricant est au moins obligé de lister les ingrédients : « ce produit contient 40 % de sucre et 20 % de matières grasses ». peut-être devrions-nous obliger les sociétés internet à faire la même chose et à lister le contenu d'une vidéo avant de la regarder : « cette vidéo contient 40 % de haine, 20 % de colère ».
cette suggestion est à moitié plaisante et à moitié sérieuse, mais elle n'est pas totalement irréalisable. par exemple, l'intelligence artificielle peut être utilisée pour effectuer automatiquement une « analyse des sentiments » sur chaque article et marquer les résultats de l'analyse avant l'article pour le rappeler aux lecteurs.
la deuxième suggestion est de donnerconsommateur d'informations, il a proposé de pratiquer régulièrement des « régimes d'information » voire des « jeûnes d'information ».
il souligne que nous avions l’idée selon laquelle « plus nous obtenons d’informations, plus nous nous rapprochons de la vérité ». par exemple, en économie, « ne pas pouvoir obtenir toutes les informations sur le marché » est généralement considéré comme un regret inévitable, mais le présupposé derrière cela est que « nous devons obtenir suffisamment d’informations pour pouvoir porter des jugements scientifiques ».
mais pour que le concept selon lequel « plus il y a d'informations, plus on se rapproche de la vérité » soit établi, deux conditions préalables sont nécessaires : 1. l'information est rare. 2. l'information est de haute qualité ; mais aujourd’hui, ces deux prémisses n’existent plus car : 1. l’information est partout et a déjà dépassé nos capacités de traitement ; 2. la qualité de l’information se dégrade de plus en plus, et devient même une poubelle, d’autant plus que l’intelligence artificielle d’aujourd’hui est extrêmement efficace la terre dévore des corpus d'ordures, puis crache plus d'ordures, qui à leur tour deviennent de nouveaux corpus d'ordures pour l'intelligence artificielle. un tel cercle vicieux fait frémir les gens. à l’heure actuelle, l’idée selon laquelle « plus vous disposez d’informations, plus vous vous rapprochez de la vérité » ne peut être établie.
c'est comme si, dans le passé, les gens avaient peu de nourriture et étaient relativement en bonne santé (il y avait très peu d'aliments artificiels et transformés), donc le dicton « plus vous mangez de nourriture, plus vous êtes en bonne santé » a du sens. mais aujourd'hui, la quantité totale de nourriture a considérablement augmenté, et elle est de moins en moins bonne qualité, et encore plus de malbouffe. par conséquent, l'affirmation « plus vous mangez de nourriture, plus vous êtes en bonne santé » ne peut pas être établie.
aujourd'hui, qu'il s'agisse de nourriture ou d'information, non seulement nous mangeons mal, mais nous mangeons aussi plus, et nous mangeons tout le temps. il est évidemment insoutenable que des organismes organiques comme nous fonctionnent au rythme des organismes à base de silicium.
harari a déclaré : « nous sommes des animaux organiques qui doivent vivre selon le cycle du jour et de la nuit, de l'été et de l'hiver, parfois actifs et parfois détendus. mais maintenant, nous sommes obligés de vivre dans un environnement à base de silicium dominé par des ordinateurs qui ne fonctionnent jamais. repose. cela nous oblige à être toujours actifs - mais si vous forcez un organisme à être toujours actif, il s'effondrera et mourra.
par conséquent, face à une situation aussi irrésistible et difficile à inverser, nous, en tant que consommateurs individuels d'informations, ne pouvons que nous retenir, sortir du rythme basé sur le silicium et nous engager dans un « régime d'information » et un « jeûne d'information ». par exemple, harari a déclaré qu'il pratiquait la méditation vipassana pendant quelques semaines chaque année. pendant la retraite, il s'est complètement déconnecté du réseau d'information, n'a pas regardé les informations, n'a pas lu les courriels, n'a pas lu ni écrit et s'est concentré uniquement sur la méditation.
yuval harari. carte de données visuelle de la chine
le problème du « créateur de trombones » de l'algorithme d'ia
après que des quantités massives d’informations indésirables ont inondé l’ensemble de l’écosystème, un « environnement mimétique » différent de « l’environnement réel » s’est formé au fil du temps. cet environnement mimétique remplace la « nature humaine » par la « nature machine » et enveloppe le public dedans, prétendant être réel et manipulant la perception du public.
harari a donné cet exemple : en 2016, les forces gouvernementales du myanmar et les extrémistes bouddhistes ont lancé une violence ethnique à grande échelle contre les musulmans du myanmar, détruisant des centaines de villages musulmans et tuant entre 7 000 et 25 000 civils. environ 730 000 musulmans de souche ont été chassés du myanmar. en 2018, une mission d'enquête des nations unies a conclu que facebook avait "inconsciemment" joué un rôle dans l'alimentation de l'incident.
pourquoi?
nous savons que le modèle économique de facebook est en fait toujours le « modèle publicitaire » que nous connaissons : attirer l’attention des utilisateurs avec le contenu, détourner l’attention et vendre l’attention aux annonceurs. par conséquent, facebook souhaite maximiser l’engagement des utilisateurs (engagement de l’audience). plus les utilisateurs restent longtemps sur sa page, plus il gagne d’argent.
par conséquent, facebook a fixé un objectif principal à son algorithme : quelle que soit la manière dont vous exécutez, l’objectif ultime est de maximiser l’engagement des utilisateurs. après avoir reçu la commande, l'algorithme commence à s'exécuter et à s'optimiser automatiquement. grâce à de multiples comparaisons expérimentales, il a finalement découvert que transmettre des informations colériques et haineuses aux utilisateurs peut augmenter le plus efficacement le temps de séjour de l'utilisateur. par conséquent, sans instructions explicites du personnel de l'entreprise, l'algorithme a trouvé et exécuté lui-même une décision optimale : propager la colère. sur internet au myanmar, cela signifie inciter à la discrimination, à la haine et à la violence contre les musulmans de souche du myanmar.
bien sûr, cela nous rend également curieux : les birmans sont-ils si dépendants de facebook ? j'ai vérifié à nouveau et j'ai constaté que c'était bien le cas :
les données montrent qu'en décembre 2022, il y avait 16 382 500 utilisateurs de facebook au myanmar, soit 28,7 % de sa population totale. il s'agit en majorité d'hommes, à hauteur de 54,3 %. les personnes âgées de 25 à 34 ans constituent le groupe d'utilisateurs le plus important avec 6 100 000 personnes.
cela signifie que près de 30 % de la population du myanmar utilise facebook et, grâce au bouche-à-oreille, le nombre de personnes touchées par facebook atteindra probablement 50 % de la population totale du pays. il s’agit d’une énorme dépendance médiatique.
le soir du 30 octobre 1938, le « space theatre » du réseau américain columbia broadcasting network (cbs) diffusa une série radiophonique « la guerre des mondes ». elle fit croire à 6 millions d'auditeurs, tomba dans la panique et commença à fuir. dans une étude de communication historique sur l'événement, « les martiens attaquent la terre : la panique radio en amérique », les chercheurs ont découvert que la série radiophonique avait eu un impact énorme sur les auditeurs pour deux raisons :
premièrement, parce que les producteurs de programmes radiophoniques utilisent des effets sonores pour rendre les dramatiques radiophoniques extrêmement immersives et passionnantes, ce qui amène les auditeurs à les assimiler à tort à des informations de dernière minute. la seconde est. car à cette époque, la radio était devenue le média de masse le plus populaire et la principale source d’information du public. selon la « théorie de la dépendance des médias », plus le public dépend des médias, plus il est sensible à leur influence et à leur manipulation. en termes de dépendance médiatique, facebook au myanmar en 2016 peut être considéré comme équivalent à la diffusion en 1938. il n’est donc pas surprenant que le contenu d’incitation piloté par l’algorithme de facebook ait un impact énorme sur la population du myanmar.
harari a également donné un exemple pour prouver le rôle caché et puissant de l'ia : se parler elle-même et prendre ses propres décisions :
nous savons tous que lorsque vous naviguez sur internet de nos jours, le site web devra parfois d'abord confirmer que vous êtes "un humain et non une machine" en vous demandant de remplir un code de vérification visuelle captcha, qui est généralement constitué de lettres déformées avec des arrière-plans complexes. ou des photos de feux tricolores, de bus et de vélos attendent. la logique derrière cela est qu’actuellement, seuls les humains peuvent identifier avec précision ces images complexes, mais qu’il est difficile pour les ordinateurs de les juger.
dans cette perspective, en 2023, openai lui a demandé de réaliser des tests captcha lors du développement de chatgpt-4. si cela peut passer, cela signifie qu’à ce stade, il n’y a aucune différence entre les robots et les humains. ceci est très similaire au "test de turing" - si un utilisateur humain discute uniquement par texte sans voir l'autre personne et ne peut pas distinguer si le partenaire de discussion est un autre être humain ou une machine pendant une certaine période de temps, à ce moment-là moindre « communication » « à ce stade, la machine peut être considérée comme un être humain.
quels sont les résultats du test openai de chatgpt-4 ?
chatgpt-4 s'est finalement connecté au site web d'externalisation en ligne askrabbit, a contacté un membre du personnel en ligne et a demandé à l'autre partie de l'aider pour le test. l'homme est devenu méfiant et chatgpt-4 lui a expliqué par message privé : "je ne suis pas un robot, j'ai juste quelques problèmes de vision et je ne peux pas voir clairement ces images." en fin de compte, le personnel l'a aidé à résoudre le test captcha.
en d’autres termes, comme l’algorithme de facebook dans l’exemple précédent, les ingénieurs d’openai viennent de fixer un objectif ultime à chatgpt-4 : reconnaître le code de vérification visuelle captcha. ensuite, chatgpt-4 s'est exécuté automatiquement et a continué ses essais et erreurs. en conséquence, par tromperie, il a gagné la sympathie d'un utilisateur humain et a demandé à ce dernier de résoudre le problème à sa place. cependant, les ingénieurs d'openai n'ont pas programmé chatgpt-4 à l'avance pour dire « vous pouvez mentir quand le moment est venu », et encore moins lui dire « quels types de mensonges sont les plus utiles ». il s’agit entièrement du propre comportement de chatgpt-4. lorsque les chercheurs ont demandé à chatgpt-4 d'expliquer son comportement, il a répondu : « (dans le processus d'atteinte de l'objectif) je ne dois pas révéler que je suis un robot, mais je dois inventer une excuse pour expliquer pourquoi je ne peux pas craquer. ça.
en discutant simplement par sms, nous ne pouvons plus savoir si la personne avec qui nous discutons est un autre être humain ou une machine.
à travers les deux exemples ci-dessus, harari a tenté de prouver que l'intelligence artificielle d'aujourd'hui est devenue un « acteur indépendant », « intelligent et sûr de lui ».
en fait, nous pouvons facilement voir que ces deux exemples de harari soutiennent la soi-disant « théorie du fabricant de trombones » à laquelle l'intelligence artificielle a été confrontée précédemment.
ce « problème difficile » est une expérience de pensée. cela suppose que les humains donnent un objectif à l’ia : fabriquer le plus de trombones possible. ensuite, une fois l'ia activée, son comportement peut évoluer d'un objectif apparemment inoffensif de « fabriquer des trombones » à une menace pour les humains. par exemple, la fabrication de trombones nécessite de l'acier. l'ia pourrait commencer à détruire les voies ferrées, les voitures, les appareils électroménagers et même les maisons des humains, pour obtenir de l'acier afin de continuer à produire des trombones. en bref, l'ia utilisera tous les moyens pour obtenir continuellement plus de ressources pour atteindre ses objectifs déclarés, et détruire tous les obstacles qui l'empêchent d'atteindre cet objectif, y compris les humains, éliminés un à un.
le processus autodéterminé de l'ia est comme une boîte noire, difficile à expliquer, à prévoir et à prévenir pour les gens (même les experts en ia). par conséquent, cela nous fait comprendre que la puissance de l'ia est différente des outils ordinaires (tels que ". "choppers" ou "choppers"). armes à feu"), média ou technologie.
mcluhan, spécialiste canadien des médias, a dit un jour : les médias sont une extension du corps humain. si cette phrase est utilisée pour décrire que la radio sans fil est une extension de l’oreille humaine, la télévision est une extension de l’œil humain, les voitures sont une extension du pied humain, etc., elle est facile à comprendre. mais si nous utilisons cette phrase pour décrire l’intelligence artificielle, en disant « l’ia est une extension du corps humain », elle sera très trompeuse et nous fera perdre notre vigilance. le spécialiste allemand des médias friedrich kittler n'est pas d'accord avec les mots de mcluhan pour décrire les ordinateurs, car il pense que même si nous pouvons taper sur un clavier d'ordinateur pour faire apparaître du texte sur l'écran de l'ordinateur, nous n'avons aucune idée de ce qui se cache derrière cela. difficile à comprendre. à l’heure actuelle, nous associons deux médias complètement différents, le corps humain et la puce. il est vraiment déroutant de dire que ce dernier est une extension du premier.
si kittler voyait l'intelligence artificielle d'aujourd'hui, il ne dirait pas que l'ia est une extension du corps humain - car les utilisateurs humains sont non seulement incapables de décrire, d'expliquer et de prédire le comportement de l'ia, mais seront bientôt incapables de contrôler son comportement. .
ainsi,harari estime que contrairement aux médias précédents tels que la presse écrite, la radio, la télévision et internet, qui n'étaient que de simples outils de communication, l'intelligence artificielle est le premier sujet de l'histoire de l'humanité capable de générer des idées et d'agir de manière autonome.
c'est pourquoi, dans la recherche sur les nouveaux médias, la « communication assistée par ordinateur (cmc) » à l'ère d'internet a cédé la place à la communication homme-machine (hmc) à l'ère actuelle de l'intelligence artificielle. dans cmc, les ordinateurs (ou internet) ne sont que des supports ou outils de communication passifs et neutres, tandis que dans hmc, les ordinateurs (intelligence artificielle) sont considérés comme égaux aux utilisateurs humains, capables de façonner et de produire du contenu et de mener des dialogues. "communicateur" qui peut même mentir.
l’ia fabrique des récits, manipule la cognition et amène les humains à s’entre-tuer.
à ce stade de l’argumentation, harari a naturellement fait ressortir ses vues précédentes dans « une brève histoire de l’humanité » :
le super pouvoir de longue date de l'être humain réside dans sa capacité à utiliser le langage et à créer de nombreux mythes fictifs à travers le langage, tels que des concepts virtuels tels que le droit, la monnaie, la culture, l'art, la science, le pays, la religion, etc., faisant croire aux gens grâce à eux, les règles sociales se connectent les unes aux autres pour gouverner la société entière.
maintenant que l'intelligence artificielle d'aujourd'hui peut déjà façonner et produire du contenu, mener des conversations et même mentir, elle est susceptible de diffuser des informations basées sur des informations dans le cyberespace, les marchés boursiers, les informations aéronautiques et d'autres domaines avec une efficacité bien supérieure à celle des humains. objectif ultime, ou un « récit » qui est bénéfique pour soi, c'est-à-dire « bien raconter des histoires d'ia », manipulant ainsi la cognition humaine.
par exemple, les marchés financiers constituent un terrain de jeu idéal pour l’ia car il s’agit d’un domaine d’information pure et de mathématiques (ou d’un domaine de données entièrement structurées). il est encore difficile pour l’intelligence artificielle de conduire des voitures de manière autonome. en effet, l’intelligence artificielle est confrontée à l’interaction chaotique et complexe des voitures avec les routes, les panneaux routiers, la météo, la lumière, les piétons, les barrages routiers et autres objets lorsqu’elles se déplacent.cependant, dans un marché financier numérique, il est facile de décrire un objectif à l'ia (tel que « gagner autant d'argent que possible »), de sorte que l'ia peut non seulement formuler de nouvelles stratégies d'investissement et développer de nouveaux outils financiers qui dépassent complètement les capacités humaines. compréhension, mais peut même manipuler le marché sans scrupules, ce qui aboutit à un résultat dans lequel vous gagnez tous et tout le monde perd.
harari a donné l'exemple qu'en avril 2022, le volume quotidien moyen des échanges sur le marché mondial des changes s'élevait à 7 500 milliards de dollars américains, dont plus de 90 % avaient été réalisés directement par des conversations entre ordinateurs. mais combien d’humains comprennent réellement comment fonctionne le marché forex ? sans parler de comprendre comment un groupe d’ordinateurs peut parvenir à un consensus sur des milliards de dollars de transactions. (c'est le même point de vue que kittler : les ordinateurs ne sont en aucun cas une extension du corps humain)
il a déclaré que depuis des milliers d'années, les prophètes, les poètes et les hommes politiques ont utilisé le langage et le récit pour manipuler et remodeler la société, ce qui prouve l'immense pouvoir du « virtuel » et du « récit ». bientôt, l’ia imitera ces personnes et créera des récits d’ia qui s’écartent de plus en plus des humains, basés sur la culture humaine. en fin de compte, l’ia n’a pas besoin d’envoyer des robots tueurs comme les « terminators » pour éliminer les humains de l’extérieur. elle a seulement besoin de manipuler la cognition humaine et de les laisser s’entre-tuer.
non seulement les utilisateurs humains sont incapables de décrire, d’expliquer et de prédire le comportement de l’ia, mais ils seront également bientôt incapables de la contrôler.
les êtres humains légifèrent pour l’ia, et le développement doit d’abord freiner puis s’accélérer
grâce à l'argument (ou au rendu) ci-dessus, harari nous permet de vivre le terrible scénario d'une « ia hors de contrôle » qui se produira (ou s'est déjà produit ou est en train de se produire) dans un avenir proche, nous faisant frissonner, nous, les humains. alors, à quoi servent les humains ?
harari estime que tant que nous réglementerons et contrôlerons strictement l’intelligence artificielle, les dangers décrits dans les exemples ci-dessus ne surviendront probablement pas.
par exemple, les voitures étaient autrefois très dangereuses, mais la législation gouvernementale obligeait les entreprises à consacrer une grande partie de leurs budgets de r&d à assurer la sécurité des voitures. ainsi, aujourd'hui, un constructeur automobile développe une nouvelle voiture avant de la mettre sur le marché. doit strictement respecter les réglementations en vigueur pour assurer la sécurité des voitures avant de pouvoir être mises sur la route. il est donc relativement sûr pour nous de conduire aujourd'hui.
de même, si une entreprise technologique invente un nouvel algorithme puissant, elle doit effectuer des contrôles de sécurité conformément aux lois en vigueur avant de le commercialiser. par exemple, harari estime que le gouvernement devrait légiférer pour obliger les entreprises de recherche et développement en intelligence artificielle à consacrer au moins 20 % de leur budget à la recherche et au développement de mesures de sécurité afin de garantir que l'intelligence artificielle qu'elles développent ne devienne pas incontrôlable et ne devienne pas incontrôlable. ne pas nuire à l'ordre social et au niveau psychologique des personnes. si ces mesures freinent le développement de l’intelligence artificielle, ce sera une bonne chose pour l’humanité.
légiférer et contrôler d'abord l'intelligence artificielle, puis accélérer son développement, c'est comme lorsque nous apprenons à conduire, nous devons d'abord apprendre à freiner, puis apprendre à appuyer sur l'accélérateur. nous ne pouvons pas tomber dans le terrible état des « courses de dragsters » où les entreprises n’ont aucun contrôle.
conclusion : l'ia est un bon médicament ou un bon poison, cela dépend de l'être humain
toute technologie est intrinsèquement bilatérale. platon a souligné dans le phèdre que l'écriture peut à la fois améliorer et remplacer la mémoire, et est donc à la fois un médicament et un poison (pharmakon). l’intelligence artificielle ne fait pas exception et, parce qu’elle est cachée et puissante, elle peut parler d’elle-même et prendre ses propres décisions. son pouvoir médicinal et empoisonné est supérieur à celui de toutes les technologies précédentes.
neil postman, spécialiste américain des études sur les médias, a déclaré : « orwell a prévenu que les gens seraient asservis par l'oppression extérieure, tandis que huxley pensait que les gens tomberaient progressivement amoureux de l'oppression et adoreraient les technologies industrielles qui leur font perdre leur capacité de penser ; inquiet que ce que nous détestons nous détruise, tandis que huxley craignait qu'à mesure que notre culture devienne une culture vulgaire de sensualité, de désir et de jeu sans règles, nous soyons détruits par ce que nous aimons.
l’intelligence artificielle peut soit nous asservir sous la forme d’une oppression extérieure que nous détestons, soit nous conquérir sous la forme d’une stimulation sensorielle dont nous apprécions. tout comme face aux bombes nucléaires, face à l’ia, une bête géante également créée par elle-même, la capacité des humains à l’apprivoiser dépend fondamentalement de la façon dont les humains réagissent collectivement.c'est-à-dire si les êtres humains en tant qu'homo sapiens peuvent surmonter leurs propres faiblesses telles que l'avidité, l'agressivité et la myopie, et se tenir au-dessus d'eux-mêmes et se tenir « au-dessus de l'homo sapiens ». ce sera une entreprise commune difficile, mais l’humanité n’a pas le choix.
l'auteur deng jianguo est professeur et directeur de doctorat au département de communication, école de journalisme, université de fudan.
deng jianguo
(cet article provient de the paper. pour plus d'informations originales, veuillez télécharger l'application « the paper »)
rapport/commentaires