nouvelles

Les entreprises vedettes de l’IA rivalisent avec les petits modèles, les coûts chutent et elles économisent sur les factures d’électricité, accélérant ainsi la popularité de l’IA.

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Objets intelligents (compte public :zhidxcom
Compilé par Meng Qiang
Éditeur Yunpeng

Selon Venture Beat, la semaine dernière, Hugging Face, Mistral AI et OpenAI ont lancé leurs petits modèles respectifs (SLM) les 16 et 18 juillet, promettant de populariser des capacités avancées de traitement du langage naturel. Dans le passé, les entreprises technologiques se sont affrontées pour développer des réseaux neuronaux plus vastes et plus complexes sur la voie des grands modèles de langage. Venture Beat estime que ces petits modèles ont ouvert de nouvelles voies et pourraient également affecter la manière dont les entreprises utilisent les solutions d'IA.

Les petits modèles, comme leur nom l'indique, sont relatifs aux grands modèles de langage (LLM). Ils ont généralement moins de paramètres et nécessitent moins de ressources informatiques. Par rapport aux grands modèles de langage dont les paramètres se chiffrent souvent en centaines de milliards, voire en milliards, les paramètres des trois nouveaux petits modèles : SmolLM, Mistral NeMo et GPT-4o mini peuvent aller de centaines de millions à des dizaines de milliards, selon la formation. volume. La consommation d’énergie est inférieure à celle des grands modèles linguistiques. Bien que les trois modèles utilisent des méthodes différentes pour populariser l’IA, ils ont tous un objectif commun : apporter de puissantes capacités de traitement du langage à davantage d’appareils et d’applications.

1. Comment les petits modèles changent l'informatique de pointe

Venture Beat estime que SmolLM de Hugging Face est le plus innovant des trois. Il est spécialement conçu pour fonctionner sur les appareils mobiles et possède trois spécifications : 135 millions, 360 millions et 1,7 milliard de paramètres, ce qui facilite le traitement de l'IA sur les appareils de pointe et résout les problèmes clés de confidentialité et de latence des données.

L’importance de SmolLM va bien au-delà de l’amélioration de l’efficacité. Permettre aux appareils de périphérie d'utiliser le traitement de l'IA peut permettre aux applications des appareils de s'exécuter sur la base d'une faible latence et d'une protection élevée de la confidentialité. Dans le passé, de nombreuses fonctions complexes d'IA ne pouvaient pas être réalisées en raison de problèmes de confidentialité ou de connexion. Avec SmolLM, ces fonctions peuvent devenir une réalité.

De plus, Mistral AI a lancé le modèle Mistral NeMo, qui possède 12 milliards de paramètres et une fenêtre contextuelle allant jusqu'à 128 000. Mistral NeMo est destiné aux ordinateurs de bureau et se positionne entre les grands modèles cloud et l'IA mobile ultra-compacte. Le premier est un modèle d'IA à grande échelle formé et exécuté sur une plateforme de cloud computing, tandis que le second est un appareil mobile aux ressources limitées ( comme un téléphone mobile) et des appareils portables).

Venture Beat a déclaré que la méthode informatique de Mistral NeMo pourrait apporter des changements considérables dans le domaine des entreprises. Le modèle a le potentiel d’exploiter le matériel grand public pour démocratiser les capacités complexes d’IA qui étaient autrefois l’apanage des géants de la technologie et des instituts de recherche bien financés. Cela pourrait aider diverses industries à populariser les applications basées sur l'IA, telles que l'optimisation du service client et la fourniture d'outils d'analyse de données plus sophistiqués.

2. Le petit modèle efficace GPT-4o mini d’OpenAI a un beau prix

OpenAI a également rejoint la concurrence des petits modèles avec le lancement du GPT-4o mini, considéré comme le petit modèle le plus rentable du marché. L'entrée et la sortie ne coûtent que 15 cents par million de jetons et 60 cents par million de jetons. Venture Beat affirme que GPT-4o mini réduit considérablement l'accès aux fonds d'intégration de l'IA.

Au-delà de cela, la stratégie de tarification de GPT-4o mini pourrait donner naissance à une nouvelle vague d’innovation basée sur l’IA, en particulier parmi les startups et les petites entreprises. En réduisant considérablement le coût de l’intégration de l’IA, ce modèle abaisse efficacement les barrières à l’entrée pour l’adoption de solutions basées sur l’IA. Ventrue Beat estime que cela pourrait accélérer l'innovation technologique et la réforme dans plusieurs secteurs. De plus, cette évolution vers des modèles plus petits reflète les nouvelles tendances de la communauté de l’IA : les chercheurs et les développeurs se concentrent de plus en plus sur l’efficacité, l’accessibilité et les applications de niche. Cette tendance pourrait conduire à des solutions d’IA plus ciblées et plus efficaces, optimisées pour des tâches et des secteurs spécifiques.

3. Les petits modèles favorisent l'innovation technologique verte et réduisent l'empreinte carbone de la technologie

L’évolution vers des modèles plus petits s’aligne également sur les préoccupations croissantes concernant l’impact environnemental de l’IA. La formation et le fonctionnement des petits modèles consomment moins d’énergie, ce qui peut réduire l’empreinte carbone de la technologie de l’IA. Alors que les entreprises technologiques sont confrontées à une pression croissante pour être durables, Venture Beat estime que la faible consommation d'énergie et les faibles émissions du petit modèle pourraient devenir un argument de vente important.

Les implications environnementales de cette transition vers des modèles plus petits pourraient être profondes. À mesure que l’IA se généralise, les économies d’énergie résultant de la prolifération de modèles plus efficaces pourraient être énormes. Cela pourrait permettre à l’IA de jouer un rôle de leader dans l’innovation verte plutôt que de continuer à contribuer au réchauffement climatique.

Cependant, l’essor des petits modèles ne se fait pas sans défis. À mesure que l’IA devient omniprésente, les questions de partialité, de responsabilité et d’utilisation éthique deviennent plus pressantes. Si elle n’est pas réglementée, la diffusion de l’IA à travers de petits modèles pourrait amplifier les préjugés existants ou créer de nouveaux dilemmes éthiques. Pour les développeurs et utilisateurs de petits modèles, outre les capacités techniques, les questions éthiques doivent également être prioritaires.

Conclusion : l'avenir du développement de l'IA s'oriente vers la diversification et la spécialisation

Bien que les petits modèles présentent des avantages en termes d'efficacité et de généralisabilité, leur puissance de traitement peut ne pas correspondre à celle des grands modèles de langage sur de nombreuses tâches en raison des limitations du nombre de paramètres. Venture Beat a déclaré que cela montre que dans le futur paysage de développement de l'IA, il y aura des modèles de langage de différentes tailles, et que les modèles plus petits auront des aspects spécifiques dans lesquels ils sont bons.

Pour l'avenir, nous nous attendons à voir le développement de modèles d'IA prospérer. Qu'il s'agisse d'un grand modèle de langage ou d'un petit modèle, une approche universelle n'est pas recommandée. La clé est de trouver un équilibre entre la taille du modèle, performances et exigences spécifiques des applications. Pour les entreprises et les décideurs techniques, ces trois petits modèles représentent une évolution vers des solutions d'IA plus efficaces, professionnelles et déployables, offrant de nouvelles possibilités d'intégration de l'IA dans les environnements d'entreprise. Quant à savoir si les petits modèles peuvent remplacer la domination actuelle des grands modèles dans le cloud, il est encore trop tôt pour tirer des conclusions.

Source : VentureBeat