nouvelles

il est révélé que le mystérieux modèle « strawberry » d'openai sera lancé dans deux semaines. il faudra plus de dix secondes pour répondre à la question, et le prix de l'abonnement pourrait être 10 fois plus cher.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

le mois dernier, altman, pdg d'openai, a fait la une des journaux avec une photo de fraises. maintenant, peut-être que le modèle fraise va vraiment « mûrir ».

selon the information, dans le cadre du service chatgpt,openai prévoit de publier le modèle « strawberry » d'ici deux semaines.

bien entendu, le rapport indique également que la date de sortie finale peut changer, veuillez donc procéder avec prudence.

le pronostiqueur fiable @apples_jimmy estime que le modèle fraise devrait sortir cette semaine.

et il a également déclaré qu'openai devrait publier un nouveau modèle appelé version gpt-4.x en octobre, qui pourrait s'appeler gpt-4.5.

quant au modèle gpt-5, plus puissant, j’ai entendu dire qu’il pourrait être lancé dès décembre, mais par mesure de sécurité, je vous suggère de l’attendre au premier ou au deuxième trimestre 2025.

l'information rapporte qu'il n'est pas clair sous quelle forme le modèle fraise sera lancé.une possibilité est que le modèle fraise soit un produit autonome.

une autre possibilité est que le modèle fraisesera intégré au menu de sélection du modèle chatgpt, les utilisateurs peuvent basculer à volonté entre différents services modèles.

des rapports précédents mentionnaient également que la plus grande différence entre le modèle fraise et les autres modèles était queil sait « réfléchir » avant de répondre à une question.

de plus, le modèle fraise non seulement fonctionne bien en mathématiques et en programmation, mais si on lui accorde plus de temps de « réflexion », il peut également répondre aux questions des clients sur des sujets subjectifs, tels que les stratégies de marketing produit.

les informations indiquent,le temps de réflexion du modèle fraise dure généralement de 10 à 20 secondes, ce qui a l’avantage de contribuer à réduire les erreurs.

et comme le modèle fraise passe plus de temps à réfléchir, cela lui permet de comprendre quand il doit poser davantage de questions au client pour bien comprendre ses besoins.

de plus, le modèle fraise présente également quelques différences par rapport au modèle gpt-4o. par exemple, sa version originalen'a pas les capacités multimodèles de gpt-4o, ne peut recevoir et générer que des réponses textuelles, mais ne peut pas traiter d'images.

the information estime que cela peut être dû au fait que des concurrents lancent également des produits similaires, donc même si ce produit n'est pas parfait sur certains aspects (comme l'impossibilité de traiter les images), openai ne peut qu'accélérer le rythme de lancement.

à cet égard, le lanceur d'alerte @apples_jimmy a également mentionné : anthropic et google préparent aussi secrètement leurs nouveaux modèles,et prévoit de le lancer au moment des élections américaines.

de plus, le prix de l’abonnement a suscité à plusieurs reprises l’émotion des utilisateurs.

chatgpt a lancé un nouveau niveau payant, chatgpt pro, et l'a déjà proposé à certains utilisateurs.au prix de 200$/mois, dix fois plus cher que les 20 $/mois actuels.

si cela est vrai, cela pourrait également faire écho aux rapports mentionnés ci-dessus sur le modèle fraise.

l'information a également souligné que le modèle fraise peut être limité dans le nombre de fois qu'un utilisateur peut l'utiliser par heure comme chatgpt plus, tandis que les modèles avec des prix d'abonnement plus élevés seront plus réactifs.

au moment de mettre sous presse, openai n’a pas répondu à cette question.

couche par couche, coupez les "fraises"

que signifie pour nous le modèle « strawberry » d’openai ?

en fait, le prédécesseur de strawberry model est "q*", une existence mystérieuse qui a fait grand bruit à la fin de l'année dernière.

en novembre dernier, sam altman a été exclu du conseil d'administration sans avertissement. il en a même été informé lors de la réunion, ce qui a choqué l'ensemble de l'entreprise et de l'industrie.

la raison invoquée par le conseil d'administration à l'époque était que lui et l'équipe n'étaient pas parvenus à un accord sur la sécurité et la gestion des risques. et ce risque était lié au projet top secret « q* » de l’époque.

ce projet était à l'origine dirigé par ilya sutskever, qui a maintenant quitté openai pour démarrer une entreprise liée à la sécurité de l'ia. considérant que musk a dit un jour que ce projet "constitue une menace pour l'humanité", il est difficile de ne pas se demander ce qui se passe ici.

auparavant, the information et reuters avaient fait de leur mieux pour obtenir des informations privilégiées, mais ils n'ont finalement pu que les confirmer.la capacité d'opération mathématique est au centre de "q*"

photo de : reuters

le grand modèle est bon en « littéraire » et peut gérer habilement le langage et le texte. il est fondamentalement à égalité avec les humains. mais les opérations mathématiques n’ont jamais été très bonnes. même si « q* » a autrefois déclenché un énorme changement dans openai, selon reuters, ses performances à l'époque étaient à peu près équivalentes au niveau informatique d'un élève du primaire.

les dernières informations actuellement connues montrent qu'il existe déjà des projets au sein d'openai qui peuvent atteindre une précision de 90 % dans les opérations mathématiques, ce qui constitue une amélioration étonnante.

photo de : reuters

permettez-moi de souligner : il est actuellement impossible de confirmer quelle étape "strawberry" a franchie.

on peut seulement dire que si « strawberry » est utilisé comme version améliorée de « q* », il y a une forte probabilité qu'il s'agisse d'un projet qui continue de chercher des percées dans les mathématiques et l'informatique.

la relation entre « calcul mathématique » et « raisonnement » ne peut être directement assimilée, mais elle révèle les ambitions d’openai.

je parle toujours de raisonnement, de quoi parles-tu exactement ?

alors, qu’est-ce que le « raisonnement » exactement ?

ces deux mots ont évidemment en réalité une définition très large. au début de cette année, une équipe dirigée par l’université chinoise de hong kong a mené un examen complet des capacités de raisonnement basé sur des modèles. la définition la plus fondamentale du « raisonnement » est triple :

raisonnement cognitif : la capacité de tirer des conclusions significatives à partir de connaissances incomplètes et incohérentes

la forme la plus courante de ce type de raisonnement consiste à assembler un puzzle. chaque petite pièce est un coin d’une immense image. si vous prenez deux pièces au hasard, elles ne correspondront certainement pas.

vous ne pouvez tenir que ces petits fragments et les reconstituer pour former lentement une image complète. dans ce processus, il n’y a pas d’instructions ni de diagrammes d’étapes, et vous devez souvent vous fier au ressenti et à l’intuition.

raisonnement logique : tirer des conclusions de manière ordonnée sur la base de prémisses et de la relation entre ces prémisses, et la conclusion a une relation implicite ou est logiquement établie

la résolution de problèmes mathématiques est un raisonnement logique typique. il existe des conditions et des questions connues à poser. sur cette base, vous pouvez calculer les résultats étape par étape. le raisonnement logique est actuellement « l’os le plus dur » du développement de grands modèles.

raisonnement en langage naturel : il s'agit d'un processus d'intégration de plusieurs types de connaissances, qui peuvent être explicites ou implicites, pour tirer de nouvelles conclusions sur le monde.

les amis qui aiment lire des romans policiers et des romans policiers devraient trouver cela facile à comprendre. ce genre de raisonnement, c'est comme rencontrer une histoire de meurtre. il y a des indices vagues et des informations peu claires dans le livre. vous devez combiner divers indices pour déduire qui est le meurtrier et quel a été le processus criminel.

si vous regardez simplement les documents internes d'openai obtenus par reuters, l'objectif de « strawberry » est de planifier, d'accéder à internet et d'effectuer des recherches approfondies.

ceux-ci ressemblent davantage au dernier type de raisonnement en langage naturel, qui ne fait que le renforcer. il est difficile de dire s’il peut être considéré comme une amélioration de la capacité de raisonnement.

mais,openai n'est pas si rigide en matière de « raisonnement », mais a une vision plus large

il y a deux mois, john schulman, l'un des fondateurs d'openai, a déclaré sur le podcast dwarkensh que les progrès de gpt-4 étaient en grande partie dus à la technologie post-formation.

"il est très compliqué de créer un modèle capable d'assurer les fonctions qui intéressent les gens après la formation", a déclaré john schulman. "cela nécessite beaucoup d'investissements et l'accumulation de beaucoup de travail de r&d, ce qui crée des obstacles à un modèle. certaine mesure. »

la définition du « raisonnement » donnée par john schulman est la suivante :

"le raisonnement signifie que certains calculs sont nécessaires, ou certaines déductions sont nécessaires. a partir de cette définition, il est nécessaire d'être capable d'effectuer des calculs et des calculs étape par étape tout en traitant la tâche."

on peut voir que dans sa définition, le raisonnement et les comportements informatiques sont étroitement liés, et on espère que le raisonnement automatique pourra être effectué en temps réel - tout comme les humains, ils peuvent analyser et interpréter tout en recevant des informations.

cependant, même si une personne n’est pas bonne en mathématiques, cela ne l’empêche pas de penser aux choses de manière logique et elle peut toujours accomplir différents types de raisonnements. pourquoi la capacité mathématique des machines est-elle si importante ?

cela peut être compris ainsi :les mathématiques ne consistent pas seulement à faire des opérations, c'est aussi une manière d'exprimer des informations.

les mathématiques sont un langage qui s'appuie davantage sur la forme symbolique et la précision du sens, où 1 vaut 1 et 0 vaut 0. lorsque vous utilisez des symboles et des équations informatiques pour présenter des informations, celles-ci sont en réalité de dimension inférieure à celle du langage naturel.

en d'autres termes, la raison pour laquelle les grands modèles sont « alphabétisés » est qu'ils sont basés sur le « calcul » et convertissent le langage naturel en langage informatique.

les bases de ce principe ont été posées dès le xixe siècle par george boole, l'un des mathématiciens les plus importants de l'histoire (le même boole qui a créé la variable booléenne).

georges boole

boole était un homme profondément religieux qui voulait même expliquer l'existence de dieu par un raisonnement mathématique.

quelle que soit sa conclusion finale, la richesse qu'il a finalement laissée au monde, à savoir le livre « enquête sur les lois de la pensée », explique son grand objectif du début : utiliser le langage symbolique du calcul pour exprimer le concept de raisonnement. une loi fondamentale de l’activité de la pensée.

cela explique également pourquoi, en ce qui concerne les performances de l’ia dans les opérations mathématiques, les attentes des gens sont un peu plus nerveuses :

une fois que vous aurez maîtrisé le langage mathématique, vous serez peut-être sur le point de franchir les étapes de la réflexion.

les vétérans de la technologie openai ont de nouveau démissionné

il existe un phénomène très étrange : il semble que chaque grande nouvelle concernant les initiés technologiques d’openai s’accompagne toujours de changements radicaux de personnel.

par coïncidence, plusieurs employés internes d'openai ont également officiellement annoncé leur démission aujourd'hui.

par exemple, alexis conneau, l'ancien directeur de recherche d'openai audio agi, a annoncé son départ pour démarrer une entreprise. à son autre titre, il est un membre technique important de l'équipe de recherche gpt-4o.

avant la sortie de gpt-4o, il avait prédit avec enthousiasme qu’il pourrait ouvrir la voie à une nouvelle ère d’interaction homme-machine.

il a rejoint openai en avril 2023 après avoir acquis une vaste expérience professionnelle dans de grandes entreprises telles que google et meta. selon lui, la tâche principale est d'équiper le modèle gpt d'une « bouche parlante ».

prafulla dhariwal, chef de l'équipe de recherche derrière gpt-4o, a un jour fait l'éloge de conneau :

alexis conneau a eu la vision de her avant quiconque chez openai et a travaillé sans relâche pour la mettre en pratique !

or, arvind neelakantan, qui travaille chez openai depuis quatre ans et demi, a également rejoint aujourd'hui l'équipe de recherche meta ai du « camp ennemi ».

il a participé au développement de nombreux projets importants d'openai, notamment embeddings, gpt-3 et gpt-4, api et chatgpt, etc.

neelakantan a déclaré que travailler chez openai était le point culminant de sa carrière. chez meta ai, il se concentrera sur le développement du modèle llama de nouvelle génération.

à cet égard, l'ancien directeur des relations avec les développeurs d'openai, logan kilpatrick, a également envoyé ses bénédictions pour sa démission.

depuis le début de cette année, openai a déclenché une vague de démissions, et son équipe fondatrice s'est même « disloquée ».

l'ancien scientifique en chef ilya sutskever vient d'annoncer son retrait d'openai, et jan leike, l'un des inventeurs du rlhf, a également suivi ses traces et est parti.

les raisons du départ sont fondamentalement différentes. à l'exception des conséquences du "palace fight" de l'année dernière, cela peut aussi être dû à un plan de carrière personnel.

il est peu probable que les changements drastiques de personnel d'openai aient un impact sur le paysage concurrentiel de l'ia à court terme. dans le même temps, en pleine récession, l'industrie immature de l'ia ne peut plus tolérer une fenêtre d'un an.

avec l'exposition continue de l'actualité des modèles, nous sommes impatients de revoir une magnifique ère de navigation ia au cours du second semestre.

aussi grave que soit la situation, elle sera au moins plus intéressante que les nouvelles technologies ennuyeuses d’ia du premier semestre.

il est prévisible que les progrès du modèle sous-jacent de la technologie de l'ia peuvent être comme une force motrice puissante, entraînant l'explosion de l'ensemble du côté des applications, tout comme l'émergence de gpt-4 à l'époque, nous apportant des surprises perdues depuis longtemps.

d’ici là, nous, en tant qu’utilisateurs, serons toujours les plus grands bénéficiaires.