Belegung

Star AI Einhorn Mistral AI präsentiert einen neuen König großer Modelle mit überlegenen Codierungs- und mathematischen Fähigkeiten

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Zhidixi (öffentliches Konto: zhidxcom)

Zusammengestellt |. Luo Tianjin

Herausgeber |. Yunpeng

Laut VentureBeat hat das französische KI-Startup Mistral AI am 17. Juli kürzlich zwei neue KI-Modelle auf den Markt gebracht, eines ist Codestral Mamba 7B, ein Codegenerierungsmodell für Programmierer und Entwickler, und das andere ist für Mathematik konzipiert KI-Modell für relevante Überlegungen und wissenschaftliche Entdeckungen.

Codestral Mamba 7B bietet schnellere Inferenz und längeren Kontext und liefert schnelle Reaktionszeiten selbst bei langem Eingabetext. Gleichzeitig kann das Modell Eingaben von bis zu 256.000 Token verarbeiten, doppelt so viel wie GPT-4o.

Mathstral 7B verfügt über ein 32-KByte-Kontextfenster und verwendet die Open-Source-Lizenz Apache 2.0. Es kann bei Benchmarks mit mehr Inferenzzeitberechnungen bessere Ergebnisse erzielen.

1. Codegenerierungsmodelle können längere Kontexte verarbeiten

Das gut finanzierte französische KI-Startup Mistral AI, bekannt für seine leistungsstarken Open-Source-KI-Modelle, hat heute zwei neue Einträge in seiner wachsenden Familie großer Sprachmodelle (LLMs) vorgestellt: ein mathematikbasiertes Modell und eines für Programmierer sowie ein Codegenerierungsmodell für Entwickler basieren auf Mamba, einer neuen Architektur, die Ende letzten Jahres von anderen Forschern entwickelt wurde.

Mamba versucht, die Effizienz der von den meisten führenden LLMs verwendeten Transformatorarchitektur zu verbessern, indem es seinen Aufmerksamkeitsmechanismus vereinfacht. Mamba-basierte Modelle unterscheiden sich von gängigeren Transformer-basierten Modellen dadurch, dass sie möglicherweise schnellere Inferenzgeschwindigkeiten und größere Kontextfenster aufweisen. Andere Unternehmen und Entwickler, darunter AI21, haben darauf basierende neue KI-Modelle veröffentlicht.

Mit dieser neuen Architektur trägt Mistral AI nun einen treffenden NamenCodestral Mamba 7B , was schnelle Reaktionszeiten bietet, selbst wenn der Eingabetext lang ist. Codestral Mamba eignet sich für Anwendungsfälle zur Codeproduktivität, insbesondere für eher lokale Codierungsprojekte.

Mistral AI hat das Modell getestet, das kostenlos auf der Plateforme-API von Mistral AI verfügbar sein wird und Eingaben von bis zu 256.000 Token verarbeitet, doppelt so schnell wie GPT-4o von OpenAI.

Mistral AI zeigt, dass Codestral Mamba bei Benchmarks wie HumanEval besser abschneidet als die konkurrierenden Open-Source-Modelle CodeLlama 7B, CodeGemma-1.17B und DeepSeek.

Entwickler können Codestral Mamba über sein GitHub-Repository und HuggingFace ändern und bereitstellen. Es wird unter der Open-Source-Apache-2.0-Lizenz verfügbar sein.

Mistral AI behauptet, dass frühe Versionen von Codestral anderen Codegeneratoren wie CodeLlama 70B und DeepSeek Coder 33B überlegen seien.

Codegenerierungs- und Codierungsassistenten sind zu weit verbreiteten Anwendungen für KI-Modelle geworden, wobei Plattformen wie Copilot von GitHub, CodeWhisperer von Amazon und Codenium powered by OpenAI immer beliebter werden.

2. Das mathematische Argumentationsmodell verfügt über hervorragende Fähigkeiten und verfügt auch über Feinabstimmungsmöglichkeiten.

Das zweite von Mistral AI eingeführte Modell istMathstral 7B , ein KI-Modell, das für mathematisches Denken und wissenschaftliche Entdeckungen entwickelt wurde. Mistral AI hat Mathstral im Rahmen des Projekts Numina entwickelt.

Mathstral verfügt über ein 32-KByte-Kontextfenster und verwendet die Open-Source-Lizenz Apache 2.0. Laut Mistral AI übertrifft das Modell alle Modelle, die für mathematisches Denken entwickelt wurden. Es könne bei Benchmarks mit mehr Inferenzzeitberechnungen „deutlich bessere Ergebnisse“ erzielen. Benutzer können es unverändert verwenden oder das Modell verfeinern.

Mistral AI sagte in einem Blogbeitrag: „Mathstral ist ein weiteres Beispiel für die Erzielung hervorragender Leistung beim Erstellen von Modellen für einen bestimmten Zweck – eine Entwicklungsphilosophie, die wir à la Plateforme aktiv fördern, insbesondere mit seiner neuen Feinabstimmungsfunktion.“

Auf Mathstral kann über Mistral AI a la Plataforme und HuggingFace zugegriffen werden.

Mistral AI stellt seine Modelle vorzugsweise auf Open-Source-Systemen zur Verfügung und das Unternehmen konkurriert mit anderen KI-Entwicklern wie OpenAI und Anthropic.

Das Unternehmen hat kürzlich eine Serie-B-Finanzierung in Höhe von 640 Millionen US-Dollar eingesammelt, was einem Wert von fast 6 Milliarden US-Dollar entspricht. Das Unternehmen hat auch Investitionen von Technologiegiganten wie Microsoft und IBM erhalten.

Fazit: Der Leistungskampf großer Modelle erreicht neue Höhen

Aus Branchensicht unterstreichen die neuen Modelle von Mistral AI den Trend, dass KI-Tools professioneller werden. Durch die Bereitstellung leistungsstarker und zugänglicher Modelle wie Mistral 7B und Codestral Mamba 7B wird Mistral AI zu einem wichtigen Akteur im KI-Bereich die Entwicklung innovativer und praktischer Anwendungen.

Diese Modelle unterstreichen auch die Bedeutung von Open-Source-KI und fördern die Zusammenarbeit und mehr Transparenz innerhalb der Technologie-Community. Durch die Bereitstellung leistungsstarker KI-Tools für ein breiteres Publikum werden wir die schnelle Iteration und Entwicklung des KI-Großmodellbereichs weiter vorantreiben.

Quelle: VentureBeat