2024-09-28
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
le 28 septembre, le 4e « forum des jeunes scientifiques 50² » s'est tenu à l'université des sciences et technologies du sud. shen xiangyang, académicien étranger de l'académie nationale d'ingénierie, a prononcé un discours sur « comment devrions-nous penser aux grands modèles dans le monde ». l'ère de l'intelligence artificielle générale" et a donné ses 10 réflexions sur les grands modèles.
voici le contenu spécifique de ses 10 pensées :
1. la puissance de calcul est le seuil : les besoins en puissance de calcul des grands modèles ont été énormes au cours des 10 dernières années. aujourd'hui, nous allons créer un grand modèle d'intelligence artificielle, en disant que le blocage fait mal aux sentiments et que l'absence de blocage signifie l'absence de sentiments.
2. données sur les données : si gpt-5 sort, le volume de données peut atteindre 200t. mais il n'y a pas tellement de bonnes données sur internet. après le nettoyage, 20t pourrait être presque le maximum. par conséquent, à l'avenir, pour construire gpt-5, en plus des données existantes, davantage de données multimodales et même des données artificiellement synthétisées. sera nécessaire.
3. le prochain chapitre du grand modèle : il y a beaucoup de travail de recherche scientifique multimodale à faire. je pense qu'une direction très importante est l'unification de la compréhension et de la génération multimodales.
4. changement de paradigme de l'intelligence artificielle : après la sortie de o1, l'idée originale de pré-formation gpt a changé pour devenir le parcours d'apprentissage indépendant d'aujourd'hui, qui est un processus de renforcement de l'apprentissage dans l'étape d'inférence et d'auto-apprentissage continu. l’ensemble du processus est très similaire à la façon dont les humains pensent et analysent les problèmes, et nécessite également beaucoup de puissance de calcul.
5. les grands modèles balayent des milliers d'industries : dans la vague de construction de grands modèles en chine, de plus en plus de grands modèles sont utilisés dans les industries. cette tendance est définitivement la suivante, et la proportion de grands modèles généraux deviendra de plus en plus petite à l'avenir.
6. ai agent, de la vision à la mise en œuvre : la super application est là depuis le début. cette super application est un super assistant et un super agent.
7. open source vs source fermée : je pense que meta's llama n'est pas un open source traditionnel. il ouvre simplement un modèle et ne vous donne pas le code et les données d'origine. par conséquent, lorsque nous utilisons des systèmes open source, nous devons également créer notre propre modèle. esprits pour vraiment comprendre la situation dans son ensemble.
8. faites attention à la gouvernance de l'ia : l'intelligence artificielle a un impact énorme sur des milliers d'industries et sur l'ensemble de la société, et tout le monde doit y faire face ensemble.
9. repenser la relation homme-machine : ce n'est qu'en comprenant véritablement l'interaction homme-machine que nous pourrons devenir un leader véritablement précieux sur le plan commercial pour chaque génération d'entreprises de haute technologie. parlez maintenantopenail'ajout de microsoft signifie que cette ère est encore trop tôt. ils sont en avance, mais il y a encore beaucoup de place pour l'imagination dans le futur.
10. la nature de l’intelligence : bien que les grands modèles aient choqué tout le monde, nous n’avons aucune théorie sur les grands modèles et l’apprentissage profond. à proposial’émergence du problème a été seulement évoquée mais pas expliquée clairement.
"young scientists 50² forum" est la réunion académique annuelle de la new cornerstone science foundation, organisée paruniversité des sciences et technologies du sud, tencent sustainable social value division et new cornerstone science foundation organisés conjointement. la new cornerstone science foundation a été créée et gérée de manière indépendante par tencent avec un investissement de 10 milliards de yuans sur 10 ans. elle est actuellement l'une des plus grandes fondations scientifiques de bien-être public en chine. sa création et son fonctionnement constituent l'investissement à long terme de tencent dans la technologie. bonnes. des actions concrètes pour le financement de la science.
"young scientists 50² forum" est une plateforme d'échange académique interdisciplinaire pour les lauréats du "scientific exploration award". le « prix de l'exploration scientifique » a été créé en 2018. il s'agit d'un prix d'intérêt public financé par la new cornerstone science foundation et dirigé par des scientifiques. il s'agit actuellement de l'un des plus grands projets de financement pour les jeunes talents scientifiques et technologiques en chine. chaque gagnant partagera sa grande idée et sa dernière exploration sur le forum au moins une fois au cours de la période de financement de cinq ans. « 50² » signifie que les 50 jeunes scientifiques sélectionnés chaque année par le « prix de l'exploration scientifique » auront un impact significatif sur les avancées scientifiques et technologiques des 50 prochaines années.
les éléments suivants sontshen xiangyangle texte intégral du discours sur ce forum :
je suis très heureux d'avoir l'opportunité de partager avec vous aujourd'hui quelques apprentissages et expériences récents en matière d'intelligence artificielle à shenzhen.
je vais continueryao qizhiconcernant le sujet de l'intelligence artificielle évoqué par m. monsieur, permettez-moi de vous parler de certaines des choses que nous faisons actuellement à l'ère des grands modèles, en particulier en examinant cette question du point de vue de l'intégration technologique et de la transition industrielle.
en fait, il ne s’agit pas seulement de l’importance du développement technologique à l’ère de l’intelligence artificielle. toute l’histoire du développement humain est une histoire de développement technologique. sans technologie, il n’y aura pas de croissance du pib. nous ne reviendrons pas sur des choses comme le forage du bois pour faire du feu ou l'invention de la roue - nous nous contenterons d'examiner les nombreuses avancées remarquables en physique au cours des 100 dernières années, ainsi que les avancées en matière d'intelligence artificielle et d'informatique au cours des 70 dernières années. nous constatons qu'il y a eu de nombreuses opportunités.
le sujet dont nous parlons aujourd’hui est l’intelligence artificielle et les grands modèles. au cours des dernières années, tout le monde a dû être choqué pas à pas par la nouvelle expérience de l'intelligence artificielle. même si j'ai travaillé dans l'intelligence artificielle toute ma vie, il serait difficile d'imaginer la situation d'aujourd'hui il y a quelques années.
je veux parler de trois exemples : le premier consiste à générer du texte à partir de texte, le deuxième à générer des images à partir de texte et le troisième à générer une vidéo à partir de texte. nous venons de parler d'un système d'intelligence artificielle comme chatgpt, qui est disponible non seulement à l'échelle internationale mais aussi au niveau national. par exemple, avant de venir ici pour prononcer un discours aujourd'hui, j'ai demandé à chatgpt que j'allais participer au forum des jeunes scientifiques 50² de tencent et prononcer un discours. de quels types de sujets devrais-je parler compte tenu de mon parcours ? vous pensez peut-être que c'est un peu drôle, mais en réalité, après l'avoir utilisé, vous pensez que c'est très bien.
tout le monde connaît chatgpt il y a deux ans, openai a lancé un système qui génère des graphiques. vous donnez un paragraphe et il génère un graphique. il y a sept mois, il a sorti sora. vous lui donnez un message et il génère pour vous une vidéo haute définition de 60 secondes, comme cette vidéo de marche dans les rues de tokyo. c'est très choquant. (je ne montrerai pas la vidéo en raison de contraintes de temps.)
laissez-moi vous donner un exemple de ce diagramme vincentien. je me spécialise en infographie et je pense savoir si une photo est bonne ou mauvaise. il y a deux ans, cette photo a été publiée. c'était la première photo générée par l'intelligence artificielle dans l'histoire de l'humanité, et elle est apparue sur la couverture d'un magazine de mode américain (« cosmopolitan »). un artiste numérique de san francisco a utilisé le système openai et a posé une question, ce qui a abouti à ce résultat. ce passage est le suivant : dans le vaste ciel étoilé, une astronaute se pavanait sur mars et se dirigeait vers un objectif grand angle. je n’ai pas beaucoup de talent artistique, mais j’ai été très choqué quand j’ai vu cette photo, je pense que vous serez d’accord avec moi. quand l’intelligence artificielle dessine une telle image, elle ressemble vraiment à une femme astronaute. cette intelligence artificielle a donc atteint un niveau très intelligent.
aujourd'hui, nous disposons de technologies tellement étonnantes et même de produits aussi étonnants. nous travaillons également très dur à la maison et construisons des modèles à grande échelle. de la technologie aux modèles en passant par les applications ultérieures, nous travaillons sur tous les aspects. tout à l'heure, l'académicien yao a également parlé d'une grande partie des derniers travaux de l'université tsinghua. je souhaite donc partager avec vous la façon dont nous devrions penser aux grands modèles à l'ère de l'intelligence artificielle générale. j'aimerais partager certaines de mes propres opinions.
la première pensée est que la puissance de calcul est le seuil.
la chose la plus importante concernant l'intelligence artificielle générale d'aujourd'hui, les grands modèles et l'apprentissage profond est la croissance globale de la puissance de calcul de l'intelligence artificielle au cours des dernières années.
au cours des dix dernières années, la puissance de calcul utilisée par les grands modèles a augmenté, initialement de six à sept fois par an, puis de plus de quatre fois par an. laissez-moi vous poser une question maintenant : si quelque chose augmente quatre fois par an, combien de fois cela augmentera-t-il en 10 ans ? pensez-y d’abord, j’y reviendrai plus tard.
tout le monde sait que l’entreprise qui profite le plus de cette vague de développement de l’intelligence artificielle estnvidia, les livraisons de nvidia augmentent d'année en année, sa puissance de calcul augmente progressivement et la valeur marchande de l'ensemble de l'entreprise est devenue l'une des trois sociétés au monde (microsoft, apple, nvidia) avec une valeur marchande de 3 000 milliards de dollars américains. le plus important est la demande annuelle de puissance de calcul de chacun. le nombre de puces nvidia achetées en 2024 continue de croître rapidement. par exemple, elon musk construit un cluster de 100 000 cartes h100. il est très difficile de construire un système de 10 000 cartes. les exigences du réseau sont très élevées.
aujourd'hui, nous parlons de puissance de calcul et de grands modèles. le plus important, ce sont les lois de mise à l'échelle (puissance de calcul et données), plus l'intelligence augmente. malheureusement, lorsque la quantité totale de données augmente, la croissance de la puissance de calcul n’est pas une croissance linéaire, mais la croissance de la puissance de calcul ressemble davantage à une croissance carrée.
parce que lorsque le modèle devient plus grand, la quantité de données doit être augmentée pour entraîner le modèle, donc relativement parlant, cela ressemble plus à une croissance carrée. par conséquent, les besoins en puissance de calcul ont été énormes au cours des 10 dernières années. alors je dirai juste une chose : aujourd’hui, je vais réaliser un grand modèle d’intelligence artificielle. si elle est bloquée, cela vous fait mal. si elle n’est pas bloquée, vous n’aurez pas de sentiments.
je viens de vous poser une question, si cela augmente 4 fois par an, combien de fois cela augmentera-t-il dans 10 ans ? ceux d'entre nous qui étudient les ordinateurs savent tous qu'il existe ce qu'on appelle la « loi de moore », qui signifie que la puissance de calcul double tous les 18 mois environ. c'est ainsi qu'intel s'est développé au fil des ans. pourquoi nvidia a-t-il désormais dépassé intel ? une raison très importante est que son taux de croissance est différent. s'il double en 18 mois, il augmentera probablement de 100 fois en 10 ans, ce qui est également très remarquable ; s'il augmente de 4 fois chaque année, il sera multiplié par 1 en 10 ans. si l’on y réfléchit de cette façon, il est compréhensible que la valeur marchande de nvidia ait augmenté si rapidement au cours des 10 dernières années.
la deuxième réflexion concerne les données.
la puissance de calcul, les algorithmes et les données sont trois facteurs importants pour l’intelligence artificielle. j'ai mentionné plus tôt que nous avons besoin de beaucoup de données pour former l'intelligence artificielle générale. lorsque chatgpt3 est sorti, il en était encore au stade de la publication d'articles, et il a été dit qu'il avait besoin de 2 000 milliards de données de jetons ; au moment où gpt-4 est sorti, il s'agirait d'environ 12t, et gpt-4 est en formation constante ; on estime aujourd'hui qu'elle a une quantité supérieure à 20t. quiconque s'intéresse à l'intelligence artificielle sait que tout le monde attend la sortie de gpt5 depuis si longtemps, mais il n'est pas sorti. si gpt-5 sort, mon jugement personnel pourrait être que la quantité de données atteindra 200t. . avec le recul, il n'y a pas beaucoup de bonnes données sur internet.après l'avoir nettoyé, 20t pourrait être presque le sommet. ainsi, à l'avenir, si vous souhaitez créer gpt-5, vous en aurez besoin en plus des données existantes. davantage de données multimodales, voire de données synthétisées artificiellement.
ce qui est très intéressant, c'est qu'au cours des trente ou quarante dernières années, tout le monde partageait ses informations en ligne. dans le passé, nous pensions travailler pour les moteurs de recherche. ce qui est encore plus remarquable aujourd'hui, c'est notre accumulation au cours des trente ou quarante dernières années. pendant des années, comme chatgpt, il a tout intégré et a appris un tel modèle d'intelligence artificielle grâce à une puissante puissance de calcul.
troisième réflexion, le prochain chapitre du grand modèle.
vous avez travaillé jusqu’à aujourd’hui, que devez-vous faire ensuite ? le premier est le modèle linguistique. représentée par chatgpt, sa technologie sous-jacente est le traitement du langage naturel. ce sur quoi tout le monde travaille aujourd’hui est un modèle multimodal, représenté par gpt-4, et de nombreuses technologies qu’il contient sont de la vision par ordinateur. pour aller de l’avant, nous devons développer l’intelligence incarnée. a quoi sert l’intelligence incarnée ? en fait, nous devons construire un modèle mondial, même s’il est multimodal, il n’existe pas de modèle physique sous-jacent. nous devons donc construire un tel modèle mondial. le modèle mondial signifie que vous devez non seulement lire des milliers de livres, mais également parcourir des milliers de kilomètres pour transmettre davantage de connaissances sur le monde à votre cerveau. nous devrions donc fabriquer des robots. je pense que shenzhen devrait se décider à construire des robots et une intelligence incarnée. il existe une piste spéciale dans les robots appelée conduite autonome. la conduite autonome est un robot spécial, mais il parcourt un itinéraire donné.
ce qu'il faut faire? il y a beaucoup de travail de recherche scientifique multimodale à faire, et je crois qu'une direction très importante est l'unification de la compréhension et de la génération multimodales. même si sora est construit, il sera séparé. la génération de multi-modules et la compréhension des multi-modules ne sont pas unifiées. nous pouvons réaliser de nombreux travaux de recherche scientifique dans ce domaine.
pour donner un exemple, plusieurs de mes étudiants ont créé une grande entreprise modèle, step stars, et leur compréhension multimodale était très bonne. si vous montrez une image à une intelligence artificielle, pourquoi le comportement dans l'image est appelé "compétence invalide", l'ia vous expliquera que l'image ressemble à un enfant se roulant par terre, mais sa mère est indifférente, et elle regarde les téléphones portables et boit des boissons, donc cette compétence des enfants est appelée une compétence invalide. l’ia comprend désormais de mieux en mieux les graphiques.
la quatrième pensée est le changement de paradigme de l’intelligence artificielle.
il y a deux semaines, openai a publié son dernier modèle, o1. j'ai mentionné plus tôt que gpt s'est développé. après gpt4, gpt5 n'est pas sorti. tout le monde se demande s'il s'agit simplement d'une augmentation des paramètres des grands modèles, a-t-il atteint son apogée ? personne ne le sait, il n’est pas encore sorti et nous n’avons pas réalisé de modèle plus grand en chine.
mais maintenant, une nouvelle dimension est apparue, qui n'est pas de faire la pré-formation précédente (expansion), mais de faire l'expansion lors de l'inférence. l'idée originale du gpt est passée au parcours d'apprentissage indépendant d'aujourd'hui, qui est un processus de renforcement de l'apprentissage dans l'étape de raisonnement et d'auto-apprentissage continu.
dans le passé, nous faisions une pré-formation, prédisant essentiellement quel sera le prochain mot et quel sera le prochain jeton. maintenant, la nouvelle idée est de faire un brouillon et d'essayer de voir si ce chemin est le bon et ce chemin est le bon. tout comme le cerveau humain. dans la pensée, il existe un système rapide et un système lent. tout comme lorsque nous résolvons des problèmes de mathématiques, nous faisons d'abord une ébauche pour voir dans quelle direction cela fonctionnera, puis nous regardons. aux opportunités dans le processus d’optimisation de la chaîne de réflexion. jusqu’à présent, seul openai a publié un tel système, et j’encourage tout le monde à jeter un œil à quelques exemples ici.
le plus important est que l’ensemble du processus est très similaire à la façon dont les humains pensent et analysent les problèmes, rédigent, vérifient, corrigent les erreurs et recommencent. cet espace de réflexion sera très vaste. faire cela nécessite également beaucoup de puissance de calcul.
la cinquième idée est que les grands modèles envahissent des milliers d’industries.
toutes les entreprises doivent faire face aux opportunités offertes par les grands modèles, mais chaque entreprise n'a pas besoin de créer un grand modèle universel. si vous n'avez même pas 10 000 cartes, il n'y a aucune chance de créer un grand modèle universel. grand modèle le modèle doit comporter au minimum 10 000 cartes.
par exemple, lorsque gpt4 est sorti, son volume total d'entraînement était de 2 × 10 ^ 25 flops. avec une telle quantité de formation, il faudra un an pour faire fonctionner 10 000 cartes a100 pour atteindre ce montant. si ce montant ne peut être atteint, il n'y aura pas de véritable grand modèle universel. avec le grand modèle général, nous pouvons construire nos propres grands modèles industriels sur cette base, comme la finance et l'assurance, peut-être que les kilocalories peuvent très bien fonctionner, et nous pouvons y apporter quelques ajustements. pour une entreprise, vous disposez de vos propres données, y compris les données internes et les données clients. si vous extrayez ces données et utilisez des dizaines ou des centaines de cartes, vous pouvez créer un très bon modèle pour votre entreprise. il se construit donc couche par couche.
bien sûr, il y a une autre dimension très importante que j’aime beaucoup, c’est le modèle personnel du futur. aujourd'hui, nous avons progressivement utilisé les pc et les téléphones portables (les données se sont accumulées dans une certaine mesure) et nous comprenons de plus en plus. à l'avenir, je pense qu'il y aura une telle ia super intelligente pour vous aider après avoir collecté des informations pertinentes. données, il peut construire votre propre modèle personnel. c'est dans la partie terminal (personnelle), et les téléphones portables sont une chose naturelle. en termes de pc, les sociétés de pc telles que microsoft et lenovo promeuvent également le concept de pc ai, il existe donc également de telles opportunités.
dans la vague de construction de grands modèles en chine, de plus en plus de grands modèles industriels sont inclus. voici un exemple. étant donné que les grands modèles chinois doivent être approuvés par l'administration chinoise du cyberespace avant d'être mis en ligne, à la fin du mois de juillet de cette année, un total de 197 modèles en chine avaient été approuvés par l'administration chinoise du cyberespace. dont 70 % étaient de grands modèles industriels et 30 % étaient de grands modèles généraux. cette tendance est définitivement la suivante, et la proportion de grands modèles généraux deviendra de plus en plus petite à l'avenir. par exemple, nous pouvons réaliser un modèle financier sur un grand modèle général. il s'agit d'un grand modèle réalisé par une entreprise de shanghai pour ses clients financiers. par exemple, lorsque le rapport financier de nvidia est publié, vous pouvez immédiatement résumer ses points forts et ses problèmes.
la sixième réflexion est ai agent, de la vision à la mise en œuvre.
aujourd’hui, nous voyons quelles sont les plus grandes super applications des grands modèles et où se trouvent les plus grandes opportunités. beaucoup de gens essaient encore de trouver une super application. en fait, la super application existe depuis le début. cette super application est un super assistant, un super agent.
gates et moi avons travaillé ensemble chez microsoft pendant de nombreuses années et nous réfléchissions tous les deux à cette question. qu’y a-t-il de si difficile là-dedans ? la difficulté réside dans la compréhension d’un workflow alors que l’on souhaite réellement faire un travail utile. si vous posez une question, elle peut être décomposée étape par étape. ce que je peux faire aujourd’hui, c’est quelque chose qui a un certain degré d’influence, comme être service client ou assistant personnel. mais de nombreux travaux ne peuvent pas être réalisés. pourquoi cela n’est-il pas possible ? vous devez être un cerveau numérique. le grand modèle ci-dessous n'est que la première étape. la capacité du grand modèle n'est pas assez puissante pour vous aider à effectuer tout le travail ci-dessus étape par étape. parce que vous voulez vraiment créer un tel agent, pour qu'il puisse faire des choses, il doit comprendre quels sont les problèmes suivants et chaque partie a des compétences correspondantes.
nous avons déjà réalisé de nombreux bons exemples en utilisant le modèle d'aujourd'hui. par exemple, vous pouvez être un consultant en santé en ia, parler de votre compréhension des cosmétiques et recommander des produits cosmétiques. ensuite, vous verrez de nombreuses applications dans ce domaine.
la septième pensée est open source et fermée.
dans le développement de la science et de la technologie mondiale au cours des dernières décennies, en particulier dans le développement de la science et de la technologie en chine, deux choses sont très importantes.
le premier est l’émergence d’internet. avec internet, vous pouvez trouver tous les documents et documents en ligne.
le second est l'open source. l'open source permet de réduire fortement l'écart avec les leaders lors de la création de candidatures. mais l’open source n’est pas la même chose que l’open source pour les grands modèles et bases de données, même si les capacités de l’open source sont désormais proches de celles du fermé. il existe également de nombreuses entreprises en chine qui font des choses open source. le meilleur outil open source aujourd’hui est meta’s llama 3.1, qui prétend être proche d’openai. je ne pense pas. je pense que ce n'est pas un open source traditionnel. il ouvre simplement un modèle et ne vous donne pas le code et les données d'origine. par conséquent, lorsque nous utilisons des systèmes open source, nous devons également nous décider. vraiment comprendre la fermeture du système des grands modèles.
la huitième réflexion est de prêter attention à la gouvernance de l’ia.
parce que l’ia se développe si rapidement, le monde attache une grande importance à la sécurité de l’ia. parce que l'impact de cette question est si grand, l'intelligence artificielle a un impact énorme sur des milliers d'industries et sur l'ensemble de la société. le développement du monde entier nécessite en fait que tout le monde y fasse face.
la neuvième réflexion est de repenser la relation homme-machine.
je viens de présenter le texte de vincent, les images de vincent et la vidéo de vincent : dans quelle mesure est-ce dû à l'intelligence de la machine, et dans quelle mesure est-ce le choc que l'interaction homme-machine nous apporte ?
il y a environ 10 ans, le chroniqueur du « new york times » john markoff a écrit un livre que j'aime beaucoup, « machine of loving grace », qui résumait les deux axes de développement passé de la technologie : l'un est l'intelligence artificielle, l'autre est l'ia ( augmentation intelligente), c'est l'amélioration de l'intelligence, qui est l'interaction homme-machine. une fois que les ordinateurs sont devenus disponibles, ils ont aidé les gens à faire beaucoup de choses, et jouer aux échecs en est un exemple.
en fait, ce n’est qu’en comprenant véritablement l’interaction homme-machine que nous pourrons devenir des leaders ayant une réelle valeur commerciale pour chaque génération d’entreprises de haute technologie. l’interface de l’intelligence artificielle d’aujourd’hui est devenue très claire : le processus de dialogue est aujourd’hui le représentant de chatgpt. mais parler d'openai et de microsoft signifie que cette ère est encore trop tôt, mais qu'il y a encore beaucoup de place pour l'imagination dans le futur.
la dixième pensée concerne la nature de l’intelligence.
même si les grands modèles ont choqué tout le monde aujourd’hui, nous n’avons aucune théorie sur les grands modèles et l’apprentissage profond. aujourd’hui, nous aimerions avoir n’importe quelle théorie qui fait du bien. contrairement à la physique, d’un point de vue physique, tout, du vaste ciel étoilé au plus petit quantum, est décrit par de belles lois physiques. aujourd’hui, il n’existe pas de théorie de ce type pour l’intelligence artificielle, qui n’est ni explicable ni robuste. le cadre d’apprentissage profond actuel ne peut pas atteindre une véritable intelligence artificielle générale.
concernant l’émergence de l’intelligence artificielle, tout le monde a seulement parlé mais ne l’a pas expliqué clairement. pourquoi l’intelligence émerge-t-elle lorsque le modèle est suffisamment grand ? pourquoi le modèle 70b peut-il émerger avec intelligence ? une telle vérité n’existe pas. nous travaillons donc également très dur sur cette question. l'été dernier, j'ai également organisé un séminaire à l'université des sciences et technologies de hong kong sur le thème « théorie mathématique pour l'intelligence émergente ». lorsqu'on parle d'intelligence émergente, certains principes scientifiques et mathématiques doivent être expliqués clairement et davantage de personnes disposées à le faire. explorez la nécessité de participer. entrez, en particulier avec l'émergence des projets « science exploration award » et « new cornerstone researcher » de tencent, de plus en plus de jeunes scientifiques se sont joints à nous, et ils ont plus de confiance et de conviction pour approfondir la tâche difficile de créer. des avancées pour le développement futur de l’intelligence artificielle parmi les questions.
félicitations encore à tous les lauréats et jeunes scientifiques. le développement de la science et de la technologie doit être réalisé par les jeunes de génération en génération, en particulier l'intelligence artificielle. merci encore à tous.