Nachricht

KI-Starunternehmen kämpfen um kleine Modelle, die Kosten sinken und sie sparen mehr bei den Stromrechnungen, was die Popularisierung von KI beschleunigt

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Smart Things (öffentliches Konto:Abonnieren
Zusammengestellt von Meng Qiang
Herausgeber Yunpeng

Laut Berichten von Venture Beat haben Hugging Face, Mistral AI und OpenAI am 16. und 18. Juli ihre jeweiligen kleinen Modelle (SLM) auf den Markt gebracht, die versprechen, fortschrittliche Funktionen zur Verarbeitung natürlicher Sprache bekannt zu machen. In der Vergangenheit haben Technologieunternehmen darum konkurriert, größere und komplexere neuronale Netze auf dem Weg zu großen Sprachmodellen zu verfolgen. Venture Beat ist davon überzeugt, dass diese kleinen Modelle neue Wege eröffnet haben und möglicherweise auch die Art und Weise beeinflussen, wie Unternehmen KI-Lösungen nutzen.

Kleine Modelle sind, wie der Name schon sagt, im Vergleich zu großen Sprachmodellen (LLM) im Allgemeinen mit weniger Parametern und geringeren Anforderungen an die Rechenressourcen ausgestattet. Im Vergleich zu großen Sprachmodellen mit Parametern, die oft Hunderte von Milliarden oder sogar Billionen betragen, können die Parameter der drei neuen kleinen Modelle: SmolLM, Mistral NeMo und GPT-4o mini je nach Training zwischen Hunderten Millionen und mehreren zehn Milliarden liegen Der Energieverbrauch ist geringer als bei großen Sprachmodellen. Obwohl die drei Modelle unterschiedliche Methoden zur Popularisierung von KI verwenden, haben sie alle ein gemeinsames Ziel: leistungsstarke Sprachverarbeitungsfunktionen auf mehr Geräte und Anwendungen zu bringen.

1. Wie kleine Modelle Edge Computing verändern

Venture Beat glaubt, dass SmolLM von Hugging Face das innovativste der drei ist. Es ist speziell für die Ausführung auf mobilen Geräten konzipiert und verfügt über drei Spezifikationen: 135 Millionen, 360 Millionen und 1,7 Milliarden Parameter, was die KI-Verarbeitung auf Edge-Geräten erleichtert und die zentralen Probleme des Datenschutzes und der Latenz löst.

Die Bedeutung von SmolLM geht weit über die Verbesserung der Effizienz hinaus. Wenn Edge-Geräten die Nutzung der KI-Verarbeitung gestattet wird, können Geräteanwendungen mit geringer Latenz und hohem Datenschutz ausgeführt werden. In der Vergangenheit konnten viele komplexe KI-Funktionen aufgrund von Datenschutz- oder Verbindungsproblemen nicht realisiert werden. Mit SmolLM könnten diese Funktionen Wirklichkeit werden.

Darüber hinaus hat Mistral AI das Mistral NeMo-Modell auf den Markt gebracht, das über 12 Milliarden Parameter und ein Kontextfenster von bis zu 128.000 verfügt. Mistral NeMo richtet sich an Desktop-Computer und positioniert sich zwischen großen Cloud-Modellen und ultrakompakter mobiler KI. Ersteres ist ein groß angelegtes KI-Modell, das auf einer Cloud-Computing-Plattform trainiert und ausgeführt wird, während letzteres ein mobiles Gerät mit begrenzten Ressourcen ist. (z. B. ein Mobiltelefon) und tragbare Geräte).

Venture Beat sagte, dass die Rechenmethode von Mistral NeMo erhebliche Veränderungen im Unternehmensbereich mit sich bringen könnte. Das Modell hat das Potenzial, verbrauchertaugliche Hardware zu nutzen, um komplexe KI-Funktionen zu demokratisieren, die einst Technologiegiganten und gut finanzierten Forschungseinrichtungen vorbehalten waren. Dies kann verschiedenen Branchen dabei helfen, KI-gesteuerte Anwendungen bekannter zu machen, beispielsweise die Optimierung des Kundenservice und die Bereitstellung ausgefeilterer Datenanalysetools.

2. Das effiziente kleine Modell GPT-4o mini von OpenAI hat einen attraktiven Preis

Mit der Einführung des GPT-4o mini, das als das kostengünstigste kleine Modell auf dem Markt gilt, schloss sich OpenAI auch der Konkurrenz der kleinen Modelle an. Die Eingabe kostet nur 15 Cent pro Million Token und die Ausgabe 60 Cent pro Million Token. Venture Beat behauptet, dass GPT-4o mini den Zugang zu KI-Integrationsfonds erheblich einschränkt.

Darüber hinaus könnte die Preisstrategie von GPT-4o mini eine neue Welle KI-gesteuerter Innovationen auslösen, insbesondere bei Startups und kleinen Unternehmen. Durch die deutliche Reduzierung der Kosten der KI-Integration senkt dieses Modell effektiv die Eintrittsbarriere für die Einführung KI-gesteuerter Lösungen. Ventrue Beat glaubt, dass dies technologische Innovationen und Reformen in mehreren Branchen beschleunigen könnte. Darüber hinaus spiegelt diese Verlagerung hin zu kleineren Modellen neue Trends in der KI-Community wider: Forscher und Entwickler konzentrieren sich zunehmend auf Effizienz, Zugänglichkeit und Nischenanwendungen. Dieser Trend kann zu gezielteren und effizienteren KI-Lösungen führen, die für bestimmte Aufgaben und Branchen optimiert sind.

3. Kleine Modelle fördern grüne Technologieinnovationen und verringern den CO2-Fußabdruck der Technologie

Die Verlagerung hin zu kleineren Modellen steht auch im Einklang mit der wachsenden Besorgnis über die Umweltauswirkungen von KI. Das Training und der Betrieb kleiner Modelle verbrauchen weniger Energie, was den CO2-Fußabdruck der KI-Technologie verringern kann. Da Technologieunternehmen einem zunehmenden Druck ausgesetzt sind, nachhaltig zu sein, glaubt Venture Beat, dass der geringe Energieverbrauch und die geringen Emissionen des kleinen Modells ein wichtiges Verkaufsargument werden könnten.

Die Umweltauswirkungen dieser Verlagerung hin zu kleineren Modellen könnten tiefgreifend sein. Mit zunehmender Verbreitung von KI könnten die Energieeinsparungen durch die Verbreitung effizienterer Modelle enorm sein. Dies könnte es der KI ermöglichen, eine Führungsrolle bei grünen Innovationen zu übernehmen, anstatt weiterhin zur globalen Erwärmung beizutragen.

Der Aufstieg kleiner Modelle ist jedoch nicht ohne Herausforderungen. Da KI immer allgegenwärtiger wird, werden Fragen der Voreingenommenheit, der Verantwortlichkeit und der ethischen Nutzung immer dringlicher. Ohne Regulierung könnte die Verbreitung von KI durch kleine Modelle bestehende Vorurteile verstärken oder neue ethische Dilemmata schaffen. Für Entwickler und Nutzer kleiner Modelle müssen neben den technischen Möglichkeiten auch ethische Fragen im Vordergrund stehen.

Fazit: Die Zukunft der KI-Entwicklung weist auf Diversifizierung und Spezialisierung hin

Obwohl kleine Modelle Vorteile in Bezug auf Effizienz und Generalisierbarkeit bieten, kann es sein, dass ihre Verarbeitungsleistung bei vielen Aufgaben nicht mit der von großen Sprachmodellen mithalten kann, da die Anzahl der Parameter begrenzt ist. Laut Venture Beat zeigt dies, dass es in der zukünftigen KI-Entwicklungslandschaft Sprachmodelle unterschiedlicher Größe geben wird und kleinere Modelle spezifische Aspekte haben werden, in denen sie gut sind.

Für die Zukunft gehen wir davon aus, dass die Entwicklung von KI-Modellen florieren wird. Unabhängig davon, ob es sich um ein großes Sprachmodell oder ein kleines Modell handelt, ist ein einheitlicher Ansatz nicht ratsam. Der Schlüssel liegt darin, ein Gleichgewicht zwischen Modellgröße und Modellgröße zu finden. Leistung und spezifische Anwendungsanforderungen. Für Unternehmen und technische Entscheidungsträger stellen diese drei kleinen Modelle einen Wandel hin zu effizienteren, professionelleren und besser einsetzbaren KI-Lösungen dar und bieten neue Möglichkeiten für die Integration von KI in Unternehmensumgebungen. Ob kleine Modelle die derzeitige Dominanz großer Modelle in der Cloud ersetzen können, ist noch zu früh, um Schlussfolgerungen zu ziehen.

Quelle: VentureBeat