nouvelles

OpenAI lance de nouvelles fonctionnalités qui permettent aux entreprises de personnaliser les modèles d'IA les plus puissants en fonction de leurs propres données

2024-08-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

TencentScience and Technology News, mardi 21 août, heure locale des États-Unis,OpenAILancement d'une nouvelle fonctionnalité qui permettra aux entreprises clientes de personnaliser ce produit en utilisant les données de leur propre entreprise.IA (IA) Le modèle le plus puissant pour les startupsGPT-4o

OpenAI prévoit de lancer mardi des capacités de personnalisation, communément appelées nudges dans le secteur de l’intelligence artificielle. Le réglage fin permet d'entraîner les modèles d'IA existants avec des informations supplémentaires sur une tâche ou un domaine spécifique.

Par exemple, une entreprise qui fabrique des skateboards pourrait affiner un modèle d’IA afin qu’il puisse être utilisé comme chatbot de service client capable de répondre aux questions sur les détails des roues et de l’entretien du skateboard.

Dans le contexte actuel de concurrence féroce entre les start-ups dans le domaine des produits d'intelligence artificielle et où les entreprises doivent de toute urgence démontrer le retour sur investissement de l'intelligence artificielle, il est particulièrement important d'affiner les dernières fonctionnalités du modèle phare d'OpenAI.

Il convient de noter que cette fonctionnalité a été introduite pour la première fois dans GPT-4o et ses prédécesseurs, et qu'OpenAI a déjà fourni aux utilisateurs des autorisations de réglage fin pour plusieurs types de modèles, y compris GPT-4o mini, offrant ainsi aux utilisateurs un plus options rentables.

Face aux services de personnalisation de modèles de nombreuses entreprises technologiques du marché, Olivier Godement, directeur produit OpenAI API, a souligné qu'OpenAI s'engage à simplifier et accélérer l'adaptation des clients à leurs meilleurs modèles en établissant des partenariats directs avec les entreprises pour éviter que les utilisateurs ne se tournent vers l'extérieur. services ou des alternatives plus faibles.

Il a également souligné : « Nous nous engageons toujours à abaisser le seuil technique et à réduire les barrières opérationnelles, réduisant ainsi le fardeau de l'utilisateur lié au démarrage et à l'ajustement des modèles. »

Lorsque les clients effectuent un réglage fin du modèle, ils doivent transmettre les données au serveur OpenAI. Selon John Allard, ingénieur logiciel de travail personnalisé OpenAI, ce processus prend en moyenne environ une heure ou deux. Dans un premier temps, le réglage fin sera limité aux données texte, sans prise en charge des images ou d'autres formats multimédias.

Alors qu'OpenAI émet des jetons gratuits, il est confronté à des défis de la part deGoogleAnthropiqueet d'autres fournisseurs de modèles propriétaires et Nous Research Hermes 3.Méta Guerres de prix féroces pour les modèles open source tels que Llama 3.1.

Cependant, l'avantage de l'utilisation d'OpenAI et de modèles similaires à source fermée/propriétaire est que les développeurs n'ont pas besoin de supporter les tâches d'hébergement du serveur d'inférence ou de formation de modèle. Ils peuvent soit utiliser les ressources du serveur OpenAI, soit connecter de manière transparente leurs serveurs préférés via des API.

Cependant, les recherches montrent que la mise au point d'un modèle peut entraîner des risques, notamment des écarts par rapport aux garde-corps de sécurité et aux garanties de performance d'origine, ce qui affecte à son tour son efficacité globale. C’est à elles de déterminer si les entreprises sont disposées à prendre ce risque. Mais OpenAI pense clairement que cela en vaut la peine et encourage les utilisateurs à considérer le réglage fin comme une option d'optimisation.

Par ailleurs, OpenAI a annoncé mardi qu'elle présenterait dans ses produits du contenu de marques telles que Vogue, The New Yorker et Wired. L'accord permet également à OpenAI d'utiliser le contenu de Condé Nast pour aider à former ses modèles d'intelligence artificielle, dont l'apprentissage nécessite de grandes quantités de données.

Cette annonce marque les efforts accrus d'OpenAI pour conclure des accords avec les sociétés de médias plutôt que de se battre avec elles sur la manière d'utiliser les articles de presse et autres contenus dans ses outils d'IA. Les parties n'ont pas divulgué la valeur transactionnelle de l'accord.

Voici le texte intégral de l'actualité officielle publiée par OpenAI :

Aujourd'hui, nous lançons la mise au point de GPT-4o, l'une des fonctionnalités les plus demandées par les développeurs. À compter du 23 septembre, nous fournirons également chaque jour à chaque entreprise 1 million de jetons de formation gratuits.

Les développeurs peuvent désormais affiner GPT-4o à l’aide de leurs ensembles de données uniques pour obtenir des performances supérieures à moindre coût pour des cas d’utilisation spécifiques. La technologie de réglage fin donne au modèle la possibilité d'ajuster de manière flexible la structure et le ton des réponses, et même de suivre des instructions de domaine complexes et hautement spécialisées. Elle ne nécessite qu'un petit nombre d'échantillons de formation (tels que des dizaines d'exemples) pour apporter des résultats significatifs. la demande.

Du codage à l’écriture créative, la fonction de réglage fin couvre un large éventail de domaines, affectant et améliorant profondément les performances globales du modèle. Ce n'est qu'un début et nous continuerons d'investir dans l'élargissement de nos options de personnalisation de modèles pour les développeurs.

Désormais, la fonction de réglage fin de GPT-4o est entièrement ouverte à tous les développeurs payants. Veuillez visiter directement le tableau de bord de réglage fin, cliquez sur le bouton « Créer » et sélectionnez « GPT-4o -2024-08-06 » dans la liste déroulante du modèle de base pour démarrer le processus de réglage fin. En ce qui concerne les coûts, les coûts de formation au réglage fin de GPT-4o sont fixés à 25 $ par million de jetons, tandis que les coûts d'inférence sont de 3,75 $ par million de jetons d'entrée et de 15 $ par million de jetons de sortie.

De plus, la mini fonction de réglage fin du GPT-4o est également ouverte à tous les développeurs payants. Il vous suffit de sélectionner « GPT-4o-mini-2024-07-18 » comme modèle de base dans le tableau de bord de réglage fin. Offre spéciale : pour célébrer le lancement, nous offrons gratuitement jusqu'à 2 millions de jetons de formation aux mini-utilisateurs de GPT-4o chaque jour. Cette offre est valable jusqu'au 23 septembre.

Peaufiner les réussites

Au cours des derniers mois, nous avons travaillé avec un certain nombre de partenaires de confiance pour affiner et tester GPT-4o et comprendre leurs cas d'utilisation. Voici quelques exemples réussis :

1.Cosinus a réalisé des performances étonnantes lors du test de référence SWE-bench

Cosinus de démarrageGénieIl s'agit d'un assistant d'ingénierie logicielle d'intelligence artificielle qui peut identifier et réparer de manière indépendante les vulnérabilités, créer des fonctions et collaborer efficacement avec les utilisateurs pour refactoriser le code. Il peut également raisonner sur des problèmes techniques complexes et apporter des modifications au code avec une plus grande précision et moins d'exigences de jetons.

Genie est alimenté par un modèle GPT-4o affiné qui intègre l'expérience réelle de vrais ingénieurs logiciels, permettant au modèle d'apprendre à réagir de manière spécifique. De plus, le modèle maîtrise également le formatage de la sortie dans des formats spécifiques tels que des correctifs qui peuvent être facilement intégrés à la base de code, améliorant encore l'efficacité du travail.

Les résultats des tests de référence de vérification du banc SWE publiés mardi dernier ont montré que Genie a atteint une performance de 43,8 %.SOTALe score est exceptionnel, en particulier dans le test complet. Son score SOTA atteint 30,08 %, ce qui représente un bond significatif par rapport au meilleur score précédent de 19,27 %, marquant une avancée majeure dans l'histoire de ce test de référence. SWE-Bench est un test qui évalue les capacités d'ingénierie logicielle de l'intelligence artificielle.

2.Distyl se classe premier dans le benchmark BIRD-SQL

Distyl, partenaire de solutions d'IA pour les entreprises Fortune 500, s'est récemment classé n°1 sur le benchmark BIRD-SQL, le principal benchmark text-to-SQL. Le GPT-4o affiné de Distyl atteint une précision d'exécution de 71,83 % dans le classement et fonctionne bien sur des tâches telles que la reformulation des requêtes, la classification des intentions, l'enchaînement des pensées et l'autocorrection, et est particulièrement remarquable dans la génération SQL.

Confidentialité et sécurité des données

Le modèle de réglage fin est entièrement sous le contrôle de l'utilisateur, qui possède la propriété absolue des données commerciales, couvrant toutes les entrées et sorties. Cela garantit que les données d'un utilisateur ne sont jamais partagées ou utilisées pour entraîner d'autres modèles.

De plus, nous avons déployé des mécanismes de protection de sécurité multicouches pour des modèles affinés afin d'éviter les abus. Par exemple, nous effectuons continuellement des évaluations de sécurité automatisées sur des modèles affinés et surveillons l'utilisation pour garantir que les applications respectent nos politiques d'utilisation.

Nous sommes impatients de voir ce que vous créerez en peaufinant GPT-4o. Si vous souhaitez explorer plus de possibilités de personnalisation de modèles, n'hésitez pas à contacter notre équipe et nous serons heureux de vous fournir soutien et assistance ! (Compilé/Cerf d'or)