Νέα

Mistral AI δύο διαδοχικές εκδόσεις: αφιερωμένο μαθηματικό συλλογισμό 7Β, μεγάλο μοντέλο αρχιτεκτονικής κώδικα Mamba2

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Αναφορά Μηχανικής Καρδιάς

Τμήμα Σύνταξης Machine Heart

Οι χρήστες του Διαδικτύου είναι περίεργοι αν το Mathstral μπορεί να λύσει το πρόβλημα "ποιος είναι μεγαλύτερος, 9.11 ή 9.9;"

Χθες, ο κύκλος της τεχνητής νοημοσύνης κατακλύστηκε από μια απλή ερώτηση: "Ποιος είναι μεγαλύτερος, τα μοντέλα μεγάλων γλωσσών, συμπεριλαμβανομένων των OpenAI GPT-4o, Google Gemini, κ.λπ."





Αυτό μας επιτρέπει να δούμε ότι τα μεγάλα γλωσσικά μοντέλα δεν μπορούν να κατανοήσουν και να δώσουν σωστές απαντήσεις όπως οι άνθρωποι όταν ασχολούνται με ορισμένα αριθμητικά προβλήματα.

Για αριθμητικά και σύνθετα μαθηματικά προβλήματα, τα εξειδικευμένα μοντέλα είναι πιο εξειδικευμένα.

Σήμερα, ο γαλλικός μεγάλος μοντέλο μονόκερος Mistral AI κυκλοφόρησε έναΤο μοντέλο 7B "Mathstral" εστιάζει στη μαθηματική λογική και την επιστημονική ανακάλυψη, για την επίλυση προχωρημένων μαθηματικών προβλημάτων που απαιτούν πολύπλοκο λογικό συλλογισμό πολλών βημάτων.

Αυτό το μοντέλο είναι χτισμένο στο Mistral 7B, υποστηρίζει ένα παράθυρο περιβάλλοντος μήκους 32k και ακολουθεί τη συμφωνία ανοιχτού κώδικα άδειας Apache 2.0.

Το Mathstral κατασκευάστηκε έχοντας κατά νου μια εξαιρετική αντιστάθμιση απόδοσης-ταχύτητας, μια φιλοσοφία ανάπτυξης που το Mistral AI προωθεί ενεργά, ειδικά με τις δυνατότητες λεπτομέρειάς του.



Ταυτόχρονα, το Mathstral είναι ένα επιβεβλημένο μοντέλο που μπορεί να χρησιμοποιηθεί ή να τελειοποιηθεί. Τα βάρη μοντέλων έχουν τοποθετηθεί στο HuggingFace.

  • Βάρη μοντέλου: https://huggingface.co/mistralai/mathstral-7B-v0.1

Το παρακάτω γράφημα δείχνει τη διαφορά απόδοσης MMLU μεταξύ Mathstral 7B και Mistral 7B ανά θέμα.

Η Mathstral επιτυγχάνει κορυφαίες επιδόσεις συμπερασμάτων στην κλίμακα της σε μια ποικιλία βιομηχανικών προτύπων αναφοράς. Ειδικά στο σύνολο δεδομένων MATH, πέτυχε ποσοστό επιτυχίας 56,6% και ποσοστό επιτυχίας 63,47% στο MMLU.



Ταυτόχρονα, το ποσοστό επιτυχίας του Mathstral στα ΜΑΘ (56,6%) είναι πάνω από 20% υψηλότερο από το Minerva 540B. Επιπλέον, ο Mathstral σημείωσε 68,4% στα ΜΑΘ με πλειοψηφία @64 και 74,6% χρησιμοποιώντας το μοντέλο ανταμοιβής.



Αυτό το αποτέλεσμα έκανε επίσης τους χρήστες του Διαδικτύου να αναρωτηθούν αν το Mathstral μπορεί να λύσει το πρόβλημα "ποιος είναι μεγαλύτερος, 9.11 ή 9.9;"



Κωδικός Mamba: Codestral Mamba



  • Βάρη μοντέλου: https://huggingface.co/mistralai/mamba-codestral-7B-v0.1

Κυκλοφόρησε μαζί με το Mathstral 7B, υπάρχει επίσης ένα μοντέλο Codestral Mamba που χρησιμοποιείται ειδικά για τη δημιουργία κώδικα, το οποίο χρησιμοποιεί την αρχιτεκτονική Mamba2 και ακολουθεί επίσης τη συμφωνία ανοιχτού κώδικα άδειας χρήσης Apache 2.0. Αυτό είναι ένα μοντέλο καθοδήγησης με περισσότερες από 7 δισεκατομμύρια παραμέτρους που οι ερευνητές μπορούν να χρησιμοποιήσουν, να τροποποιήσουν και να διανείμουν δωρεάν.

Αξίζει να αναφέρουμε ότι το Codestral Mamba σχεδιάστηκε με τη βοήθεια των συγγραφέων του Mamba Albert Gu και Tri Dao.

Η αρχιτεκτονική του Transformer υποστήριζε πάντα το μισό πεδίο AI, ωστόσο, σε αντίθεση με το Transformer, το μοντέλο Mamba έχει το πλεονέκτημα του γραμμικού συλλογισμού του χρόνου και μπορεί θεωρητικά να μοντελοποιήσει ακολουθίες απεριόριστου μήκους. Η αρχιτεκτονική επιτρέπει στους χρήστες να αλληλεπιδρούν με το μοντέλο εκτενώς και γρήγορα χωρίς να περιορίζονται από το μήκος εισόδου. Αυτή η αποτελεσματικότητα είναι ιδιαίτερα σημαντική για τη δημιουργία κώδικα.

Σε δοκιμές αναφοράς, το Codestral Mamba ξεπέρασε τα ανταγωνιστικά μοντέλα ανοιχτού κώδικα CodeLlama 7B, CodeGemma-1.17B και DeepSeek στη δοκιμή HumanEval.



Η Mistral δοκίμασε το μοντέλο, το οποίο είναι διαθέσιμο δωρεάν στο La Plateforme API της Mistral και μπορεί να χειριστεί εισόδους έως και 256.000 tokens - διπλάσια από το GPT-4o του OpenAI.

Με την κυκλοφορία του Codestral Mamba, ορισμένοι χρήστες του Διαδικτύου το έχουν χρησιμοποιήσει στο VSCode και είναι πολύ ομαλό.