nouvelles

OpenAI lance de nouvelles fonctionnalités pour permettre aux entreprises clientes de personnaliser les modèles d'IA les plus puissants

2024-08-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Financial Associated Press, 21 août (éditeur Niu Zhanlin)HE mardi,OpenAILancement d'une nouvelle fonctionnalité qui permet aux entreprises clientes de personnaliser leurs modèles les plus puissants à l'aide des données de leur propre entreprise.GPT-4o, ce qui améliorera considérablement les performances et la précision de votre application.

Cette décision intervient alors que les start-upsIntelligence artificielle (IA)Les produits sont confrontés à une concurrence de plus en plus féroce, et les entreprises sont également confrontées à une pression croissante pour démontrerIARetour sur investissement.

La dernière fonctionnalité de personnalisation d’OpenAI est souvent qualifiée de réglage fin dans le secteur de l’intelligence artificielle. Le réglage fin permet aux modèles d'IA existants d'être formés sur des informations supplémentaires pour une tâche ou un domaine spécifique.

Cette fonctionnalité est nouvelle pour le modèle phare d'OpenAI, et la société permet également aux utilisateurs de peaufiner un certain nombre d'autres modèles, notamment le GPT-4o mini, qui est une version moins chère et plus rationalisée du GPT-4o.

Au cours des derniers mois, OpenAI a testé la fonctionnalité de réglage fin avec des partenaires et a obtenu de nombreux résultats.

Par exemple, l'assistant d'intelligence artificielle de la startup CosineGénie, conçu pour aider les développeurs de logiciels. Il est rapporté que Genie a obtenu de bien meilleurs résultats que ses concurrents lors des tests de référence, démontrant son excellente capacité à collaborer avec les utilisateurs pour identifier et résoudre de manière autonome les erreurs, créer des fonctionnalités et refactoriser le code.

En affinant le modèle GPT-4o, GenieBanc SWEIl a obtenu un score de 30 % au test, ce qui constitue jusqu'à présent le score le plus élevé pour un modèle d'intelligence artificielle dans ce domaine. SWE-Bench est un test qui évalue les capacités d'ingénierie logicielle de l'intelligence artificielle.

Olivier Godement, directeur produit de l'API OpenAI, a déclaré que la société espère qu'en travaillant directement avec les entreprises, il sera plus facile pour les clients d'adapter leurs modèles les plus puissants, plutôt que d'utiliser des services externes ou des produits moins puissants. "Nous avons toujours été très concentrés sur la réduction des barrières à l'entrée, la réduction des désagréments lors de l'utilisation et la facilitation du démarrage avec des produits ou des services."

Sécurité des donnéesquestion

Afin d'affiner le modèle, les clients doivent télécharger leurs données sur les serveurs d'OpenAI. La sécurité des données est donc devenue un sujet de grande préoccupation pour les clients.

Récemment, JPMorgan Chase s'est associé à OpenAI pour lancer un assistant d'intelligence artificielle destiné à des dizaines de milliers d'employés pour les aider à rédiger des e-mails, générer des idées et résumer des documents, etc. Il s'agit également de la première application de la technologie de l'intelligence artificielle dans le domaine financier.

Cependant, en raison de problèmes de sécurité des données, leMaîtrise en droit (LL.M.) L'assistant de Suite est conçu comme un « portail » qui permet aux utilisateurs d'accéder à de grands modèles de langage externes via LLM Suite sans exposer les données au monde extérieur.

À cet égard, OpenAI a souligné que le mode de réglage fin est entièrement sous le contrôle des entreprises clientes et que toutes les données d'entrée et de sortie ne seront pas utilisées pour former d'autres modèles d'intelligence artificielle.

OpenAI a également mis en œuvre des mesures d'atténuation de sécurité en couches pour affiner les modes afin de garantir que ces modèles ne peuvent pas être abusés. Par exemple, ils effectuent en permanence des évaluations de sécurité automatisées de modèles affinés et surveillent l'utilisation pour garantir que les applications respectent leurs politiques d'utilisation.

John Allard, ingénieur logiciel travaillant sur la personnalisation chez OpenAI, a déclaré que la formation prend en moyenne une ou deux heures. Allard a ajouté qu'au départ, les utilisateurs ne pourront affiner les modèles qu'à l'aide de données textuelles, et non d'images ou d'autres contenus.

(Niu Zhanlin de Financial Associated Press)