nouvelles

interprétation|xiao yanghua : quel impact le modèle o1 avec une capacité mathématique de niveau doctorat apportera-t-il ?

2024-09-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·la capacité de raisonnement de niveau expert n'est pas une tactique de questions et réponses, elle nécessite une forte capacité de réflexion. la difficulté de développer les capacités de raisonnement de grands modèles est qu'un grand nombre de processus de pensée humaine ne sont jamais exprimés, de sorte que les données sur le processus de réflexion sont extrêmement rares. il a émis l'hypothèse qu'openai devrait cette fois utiliser une grande quantité de données synthétiques.
·il est de plus en plus difficile pour les humains d'améliorer leur compréhension de l'intelligence artificielle pour rattraper la vitesse de développement de l'intelligence artificielle. c'est un énorme défi de gouvernance. ce sont les êtres humains qui débloquent la magie de l'intelligence artificielle. capacités, il est très probable qu'il y aura des moments où les humains seront incapables d'activer leurs super pouvoirs parce qu'ils sont au-delà du niveau de cognition humaine.
le nouveau modèle o1 lancé par openai possède de puissantes capacités de raisonnement. carte visuelle de la chine
le 12 septembre, heure locale, openai a lancé une série de modèles de nouvelle génération o1. par rapport aux modèles précédents, ce modèle a démontré de fortes capacités de raisonnement et a fonctionné aussi bien que les doctorants lors de tâches de référence en physique, chimie et biologie. cette capacité est quelque chose que les modèles précédents n’avaient pas.
le 13 septembre, xiao yanghua, professeur et directeur de doctorat à l'école d'informatique et de technologie de l'université de fudan et directeur du shanghai key laboratory of data science, a déclaré dans une interview avec the paper que l'émergence du modèle o1 signifie que les capacités de raisonnement des grands modèles peuvent pleinement atteindre le niveau expert. cela peut être considéré comme un progrès marquant dans l'intelligence artificielle, qui améliorera considérablement l'application des modèles du côté de l'entreprise.
mais il a également admis qu'à mesure que les capacités intellectuelles, perceptuelles et rationnelles du modèle continueront de s'améliorer, il dépassera les capacités humaines. il est difficile de prédire quel impact l'intelligence artificielle aura sur les êtres humains à l'avenir. "l'impact de l'intelligence artificielle sur la vitesse. le développement dépasse désormais la vitesse de compréhension humaine, et la gouvernance de l'intelligence artificielle constituera un énorme défi », a déclaré xiao yanghua.
bon pour raisonner sur des tâches complexes, performances similaires à celles d'un doctorat.
en tant que premier modèle, le nouveau modèle d'inférence o1 ne dispose pas encore pleinement des fonctions utilisées par chatgpt, telles que la navigation dans les informations du réseau, le téléchargement de fichiers et d'images, etc. mais openai a déclaré qu'il s'agissait d'une amélioration significative pour les tâches de raisonnement complexes et représentait un nouveau niveau de capacités d'intelligence artificielle.
"grâce à la formation, ils apprennent à affiner leurs processus de pensée, à essayer différentes stratégies et à reconnaître leurs erreurs." les algorithmes d'apprentissage par renforcement à grande échelle enseignent aux modèles comment penser efficacement en utilisant leurs chaînes de pensée pendant le processus de formation, et le modèle o1 peut réfléchir avant. répondre à l'utilisateur générer une longue chaîne de pensées interne. avec plus d’apprentissage par renforcement et plus de temps pour réfléchir, les performances o1 continuent de s’améliorer. il apprend à décomposer les étapes délicates en étapes plus simples. lorsque la méthode actuelle ne fonctionne pas, elle essaie une approche différente.
le nouveau modèle d'inférence o1 excelle en mathématiques et en programmation, excellant dans la génération et le débogage précis de codes complexes. openai a évalué les performances mathématiques du modèle dans le cadre de l'aime (american mathematics invitational competition). lors de l'examen aime 2024, gpt-4o n'a résolu que 12 % (1,8/15) des problèmes en moyenne. pour un seul échantillon de chaque problème, o1 avait une moyenne de 74. %(11,1/15). lors de l'examen de qualification de l'olympiade mathématique internationale (omi), gpt-4o n'a résolu correctement que 13 % des problèmes, tandis que le nouveau modèle de raisonnement a obtenu un score de 83 %.
le nouveau modèle peut raisonner sur des tâches complexes, en effectuant comme un doctorant des tâches de référence en physique, chimie et biologie. openai a réalisé des benchmarks diamant gpqa en chimie, physique et biologie. pour comparer le modèle avec des humains, des experts titulaires d’un doctorat ont été recrutés pour répondre ensemble aux questions.
« nous avons constaté qu'o1 surpassait ceux des experts humains, devenant ainsi le premier modèle à le faire sur cette référence. ces résultats ne signifient pas que o1 est plus capable que les docteurs dans tous les aspects, mais simplement que le modèle est meilleur pour répondre aux besoins des docteurs en soins de santé. peut utiliser o1 pour annoter les données de séquençage cellulaire, les physiciens peuvent utiliser o1 pour générer les formules mathématiques complexes nécessaires à l'optique quantique, et il peut être utilisé par les développeurs dans tous les domaines, a déclaré openai pour créer et exécuter des flux de travail en plusieurs étapes.
les capacités de raisonnement des jalons amélioreront considérablement les effets des applications
"le grand modèle de langage précédent ressemblait davantage à un étudiant en arts libéraux et est encore loin du niveau d'un étudiant en sciences. mais la capacité fondamentale de l'intelligence humaine est de penser et de penser. la nouvelle série de modèles de raisonnement openai o1 montre le processus de pensée humaine. " xiao yanghua a déclaré : l'essence du nouveau modèle d'inférence o1 est toujours un grand modèle de langage, mais il exploite pleinement le potentiel du grand modèle. dans le passé, la capacité de génération des grands modèles était déterminée par le corpus, qui était comme « familier avec trois cents poèmes tang, et vous pouvez les réciter même si vous ne savez pas comment les composer ». cependant, la capacité de raisonnement expert n’est pas une tactique de questions et réponses, elle nécessite une forte capacité de réflexion. la difficulté de développer les capacités de raisonnement de grands modèles est qu'un grand nombre de processus de pensée humaine ne sont jamais exprimés, de sorte que les données sur le processus de réflexion sont extrêmement rares. il a émis l'hypothèse qu'openai devrait cette fois utiliser une grande quantité de données synthétiques.
"openai a un net avantage en tant que premier arrivé. son modèle de base est plus solide, il collecte de nombreuses données sur le processus de réflexion, filtre et synthétise une grande quantité de données de réflexion de haute qualité, et il possède de fortes capacités d'évaluation. quels processus de raisonnement sont corrects et quels processus de raisonnement cela nécessite l'utilisation de l'apprentissage par renforcement. l'apprentissage par renforcement est essentiellement un processus d'exploration et d'essais et d'erreurs, essayez une autre méthode ", a déclaré xiao yanghua. openai a fait du grand modèle un véritable étudiant en sciences dans le sens et atteint le niveau expert.
chen yunwen, président de daguan data, a déclaré que les modèles précédents ne pouvaient pas calculer des problèmes mathématiques avancés complexes et que o1 avait amélioré les capacités mathématiques et de raisonnement, ce qui constitue une grande amélioration. cependant, l’amélioration des capacités mathématiques ne signifie pas que le paradigme de r&d des grands modèles a subi des changements essentiels, mais seulement des améliorations orientées vers des lacunes antérieures.
selon xiao yanghua, l'émergence de o1 n'était pas inattendue : « en fait, nous avons jugé très tôt que les grands modèles auraient des capacités émotionnelles et rationnelles plus fortes. ce qui était inattendu, c'est que nous ne nous attendions pas à le voir si tôt. ici, et l'effet est tellement incroyable. » il pense qu'à l'avenir, openai pourrait se différencier en de nombreux grands modèles capables de faire différentes choses basées sur le grand modèle général.
par exemple, les versions précédentes de gpt-4 connaissaient toutes les connaissances et tous les faits et mettaient l'accent sur les capacités intellectuelles ; gpt-4o mettait l'accent sur l'interaction multimodale et mettait l'accent sur les capacités de perception ; l'amélioration de la rationalité du modèle permettra à l'industrie to b d'inaugurer un développement considérable. « le plus gros problème et le plus gros goulot d'étranglement du to b résident dans les capacités de raisonnement des grands modèles. l'émergence de la nouvelle série de modèles d'inférence o1 signifie que de nombreux problèmes dans l'industrie du to b peuvent être considérablement atténués à l'avenir.
les défis posés par le développement rapide de l’intelligence artificielle
"openai est vraiment puissant. bien que la feuille de route technique d'openai jusqu'à présent n'ait pas dépassé le champ de la cognition, nous connaissons tous l'orientation du développement des grands modèles, y compris la multimodalité et les capacités de raisonnement améliorées, mais seul openai l'a rapidement transformé en réalité. ils entraînent de grands modèles exactement de la même manière que les êtres humains. ils ont des idées très fortes sur le développement intellectuel et cognitif humain et ont une compréhension très claire de la croissance et de l'évolution humaines. jusqu'à présent, ils n'ont trouvé aucune mauvaise étape. " expliquer.
openai présente des avantages évidents en tant que premier arrivé.en ce qui concerne le développement de modèles nationaux à grande échelle, « les avantages d'openai sont tous des inconvénients pour nous. nous devons nous calmer et rattraper notre retard lentement. il n'y a que le premier dans le domaine général de l'intelligence artificielle, pas le deuxième. " cependant, à long terme, xiao yanghua a déclaré qu'il existe un plafond pour l'amélioration des capacités individuelles des grands modèles. parce que les données originales réelles des êtres humains sont limitées et que la vitesse de production est lente. "actuellement, openai utilise des données humaines pour synthétiser de nouvelles données afin d'améliorer les capacités de raisonnement. cependant, les données synthétiques sont limitées par les données originales. elle ne peut pas synthétiser des données infinies, ni obtenir des données essentiellement nouvelles. elle ne peut donc pas inventer de nouveaux sujets. proposer une nouvelle théorie comme celle d'einstein. « en termes de matériel, le raisonnement nécessite moins de puissance de calcul que la formation, mais en raison de l'extension de la chaîne de pensée, les exigences en matière d'efficacité du raisonnement deviennent plus élevées, ce qui met en avant des exigences plus élevées pour l'accélération et l'optimisation du raisonnement. processus de raisonnement.
cependant, à mesure que les grands modèles se sont améliorés à bien des égards, ils ont posé des défis à la gouvernance. le défi est que la compréhension humaine de ces modèles ne s’est pas améliorée aussi rapidement qu’elle s’est développée.
le philosophe kant a divisé le processus cognitif humain en trois étapes : perceptuelle, intellectuelle et rationnelle. de nos jours, la sensibilité, l'intelligence et la rationalité des grands modèles s'améliorent et sont susceptibles de surpasser les humains. très peu de personnes peuvent être fortes dans ces trois cognitions.
"actuellement, o1 a atteint le niveau d'un doctorant. à l'avenir, atteindre le niveau d'un scientifique ne sera qu'un processus de réalisation de changements quantitatifs. l'être humain tombera progressivement dans l'angle mort cognitif du développement de l'intelligence artificielle. par exemple, que signifie la capacité de raisonnement actuelle des grands modèles ? peut-elle vraiment être utilisée dans l'ia ? la proportion de personnes au-dessus du niveau de connaissance ne fera que diminuer de plus en plus. presque personne dans le monde ne peut atteindre le doctorat. niveau en mathématiques, physique, chimie ou mathématiques. combien d'entre nous peuvent comprendre, reconnaître et contrôler l'ia ? ", a déclaré xiao yanghua, les êtres humains sont actuellement au niveau du doctorat. le cadre cognitif de base de l'intelligence artificielle fait défaut. c'est un énorme problème. un défi de gouvernance. des sujets tels que l'emploi, l'économie, l'éthique et les relations sociales susciteront de nombreux débats. « les êtres humains sont les débloqueurs de la magie de l'intelligence artificielle. si l'intelligence artificielle possède des capacités surhumaines, il est probable qu'elles soient des superpouvoirs que les humains ne peuvent pas activer parce qu'elles sont dotées de capacités surhumaines. sont au-delà du niveau de la cognition humaine.
le journaliste du journal zhang jing
(cet article provient de the paper. pour plus d'informations originales, veuillez télécharger l'application « the paper »)
rapport/commentaires