Νέα

Η παράμετρος 2 δισεκατομμυρίων Gemma 2 της Google φτάνει στο GPT-3.5 και τρέχει πολύ γρήγορα στο iPhone

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Έξυπνα πράγματα (δημόσιος λογαριασμός:zhidxcom
συντάσσωβανίλια
επεξεργασίαLi Shuiqing

Η οικογένεια μικρών μοντέλων ανοιχτού κώδικα του Google DeepMind καλωσορίζει νέα μέλη!

Ο Zhidongzhi ανέφερε την 1η Αυγούστου ότι νωρίς σήμερα το πρωί, το Google DeepMind κυκλοφόρησε το ελαφρύ μοντέλο Gemma 2 2B.


▲Gemma 2 2B

Με μόνο 2 δισεκατομμύρια παραμέτρους, το Gemma 2 2B μπορεί να τρέξει εύκολα και γρήγορα σε κινητά τηλέφωνα, υπολογιστές και άλλες τερματικές συσκευές. Σύμφωνα με πραγματικές δοκιμές από προγραμματιστές στο Google AI Studio, η ταχύτητα συμπερασμάτων φτάνει τα 30~40 tokens/s.


▲Οι προγραμματιστές δοκιμάζουν το Gemma 2 2B

Μαζί με το Gemma 2 2B κυκλοφορούν το Gemma Scope, ένα εργαλείο για τη βελτίωση της ερμηνευσιμότητας των μοντέλων, και το ShieldGemma, ένα μοντέλο ταξινόμησης ασφαλείας για το φιλτράρισμα επιβλαβούς περιεχομένου.

Το Gemma Scope βασίζεται στον αραιό αυτόματο κωδικοποιητή (SAE) για την ενίσχυση συγκεκριμένων σημείων στο μοντέλο και χρησιμοποιεί την αρχιτεκτονική JumpReLU για να το βελτιστοποιήσει, βοηθώντας έτσι στην ανάλυση των πυκνών και πολύπλοκων πληροφοριών που επεξεργάζονται στο μοντέλο, επιτρέποντας στους ερευνητές να «δουν» το μοντέλο όπως π. ένα εσωτερικό μικροσκόπιο.

Το ShieldGemma έχει δημιουργηθεί για τέσσερις ζημιές: ρητορική μίσους, παρενόχληση, πορνογραφικό περιεχόμενο και επικίνδυνο περιεχόμενο και υπερβαίνει τα μοντέλα αναφοράς όπως το GPT-4 σε δοκιμές απόκρισης.

Η σειρά μοντέλων Gemma, που κυκλοφόρησε αρχικά τον Φεβρουάριο του τρέχοντος έτους, είναι μοντέλα ανοιχτού κώδικα που δημιουργήθηκαν από την Google DeepMind με βάση την εμπειρία του μοντέλου Gemini. Τον Ιούνιο, η Google κυκλοφόρησε το μοντέλο ανοιχτού κώδικα δεύτερης γενιάς Gemma 2, συμπεριλαμβανομένων δύο μεγεθών παραμέτρων 9B και 27B Ανάμεσά τους, το μοντέλο 27B αναπήδησε γρήγορα στην πρώτη γραμμή των μοντέλων ανοιχτού κώδικα στη μεγάλη αρένα μοντέλων LMSYS.

1. Νικήστε ένα μεγάλο μοντέλο με 35 φορές περισσότερες παραμέτρους, κανένα πρόβλημα σε σύγκριση με το Gemma 2

Το Gemma 2 2B είναι βελτιωμένο από ένα μεγαλύτερο μοντέλο και είναι το τρίτο μοντέλο Gemma 2 που κυκλοφόρησε από την Google μετά το 27B και το 9B.

Ως ελαφρύ μοντέλο με μόνο 2 δισεκατομμύρια παραμέτρους, το Gemma 2 2B δεν θυσιάζει την απόδοση για φορητότητα. Στην κατάταξη LMSYS Large Model Arena (Chatbot Arena), η Gemma 2 2B ξεπέρασε το GPT-3,5 με βαθμολογία 1126 βαθμών, καθώς και τα μοντέλα Mixtral 8x7B και Llama 2 70B με δεκάδες φορές την κλίμακα παραμέτρων.


▲Τα αποτελέσματα του Gemma 2 2B στη μεγάλη αρένα μοντέλων

Ορισμένοι χρήστες του Διαδικτύου δοκίμασαν το πρόβλημα αναλογίας 9,9 και 9,11 της «ανατροπής» του Gemma 2 2B σε πολλά μεγάλα μοντέλα και το Gemma 2 2B έδωσε γρήγορα τη σωστή απάντηση.


▲Gemma 2 2B απαντήσεις

Η ταχύτητα τρεξίματος είναι ένα μεγάλο πλεονέκτημα των ελαφρών μοντέλων. Πόσο γρήγορα ακριβώς; Ο ερευνητής μηχανικής μάθησης της Apple, Awni Hannun, δοκίμασε το Gemma 2 2B στο MLX Swift στο iPhone 15 pro και η ταχύτητα συμπερασμάτων του ήταν εμφανώς γρήγορη.


▲Ταχύτητα λειτουργίας Gemma 2 2B

Μετά από πραγματικές δοκιμές, ο προγραμματιστής Tom Huang είπε ότι η ταχύτητα λειτουργίας του στο Google AI Studio είναι περίπου 30~40 tokens/s, κάτι που είναι "γρηγορότερο από το μοντέλο της Apple".

Όσον αφορά την ανάπτυξη, το Gemma 2 2B παρέχει ευέλικτες μεθόδους ανάπτυξης και μπορεί να λειτουργήσει αποτελεσματικά σε μια ποικιλία υλικού, συμπεριλαμβανομένων των συσκευών edge, των φορητών υπολογιστών ή της ανάπτυξης cloud που βασίζεται σε Vertex AI.

Οι προγραμματιστές μπορούν να κατεβάσουν τα βάρη μοντέλων του Gemma 2 2B από πλατφόρμες όπως το Hugging Face και το Kaggle για έρευνα και εμπορικές εφαρμογές ή να δοκιμάσουν τις λειτουργίες του στο Google AI Studio.

Διεύθυνση ανοιχτού κώδικα:

https://huggingface.co/google/gemma-2-2b

δύο,Δημιουργήστε έναν ταξινομητή για τέσσερις τύπους περιεχομένου, με ποσοστό απόκρισης καλύτερο από το GPT-4

Προκειμένου να βελτιώσει την ασφάλεια και την προσβασιμότητα του μοντέλου, η Google κυκλοφόρησε το ShieldGemma, ένα σύνολο μοντέλων ταξινομητή περιεχομένου που έχουν δημιουργηθεί στο Gemma 2, το οποίο χρησιμοποιείται για να φιλτράρει την είσοδο και την έξοδο του μοντέλου AI τα υπάρχοντα μοντέλα στην υπεύθυνη εργαλειοθήκη τεχνητής νοημοσύνης της Google. Μια προσθήκη στη σουίτα ταξινομητών ασφαλείας.


▲Πώς λειτουργεί το ShieldGemma

Το ShieldGemma έχει κατασκευαστεί για τέσσερις επιβλαβείς περιοχές: ρητορική μίσους, παρενόχληση, πορνογραφικό περιεχόμενο και επικίνδυνο περιεχόμενο και παρέχει μια ποικιλία μεγεθών μοντέλων για την κάλυψη διαφορετικών αναγκών, συμπεριλαμβανομένων των 2B, 9B και 27B. Μεταξύ αυτών, το μοντέλο παραμέτρων 2Β είναι κατάλληλο για εργασίες ταξινόμησης στο διαδίκτυο, ενώ οι εκδόσεις 9Β και 27Β χρησιμοποιούνται για την παροχή υψηλότερης απόδοσης για εφαρμογές εκτός σύνδεσης.

Στα αποτελέσματα αξιολόγησης σε εξωτερικά σύνολα δεδομένων, το ShieldGemma ξεπέρασε τα βασικά μοντέλα όπως το OpenAI Mod και το GPT-4.


▲Αποτελέσματα αξιολόγησης ShieldGemma

Η τεχνική έκθεση της ShieldGemma δημοσιοποιήθηκε επίσης ταυτόχρονα, η οποία εξηγούσε τη μέθοδο κατασκευής, την πηγή δεδομένων και την αποτελεσματικότητα του μοντέλου. Στη δοκιμή απόκρισης τεσσάρων τύπων επιβλαβούς περιεχομένου, το ποσοστό απόκρισης του ShieldGemma σε τρεις κλίμακες είναι καλύτερο από το GPT-4.


▲Δοκιμή απόκρισης ShieldGemma

Διεύθυνση τεχνικής έκθεσης:

https://storage.googleapis.com/deepmind-media/gemma/shieldgemma-report.pdf

τρία,"Μικροσκόπιο" μέσα σε μεγάλα μοντέλα για ανάλυση της συμπεριφοράς του μοντέλου με μηδενικό κωδικό

Προκειμένου να μελετήσει τις εσωτερικές αρχές λειτουργίας των γλωσσικών μοντέλων, η Google κυκλοφόρησε έναν ολοκληρωμένο και ανοιχτό αραιό αυτόματο κωδικοποιητή Gemma Scope. Λειτουργεί σαν μικροσκόπιο, βοηθώντας τους ερευνητές να «δουν» μέσα στο μοντέλο για να κατανοήσουν καλύτερα πώς λειτουργεί.

Το Gemma Scope ενισχύει συγκεκριμένα σημεία του μοντέλου χρησιμοποιώντας Sparse Autoencoders (SAE) Αυτά τα SAE βοηθούν στην ανάλυση των πυκνών και πολύπλοκων πληροφοριών που επεξεργάζονται το μοντέλο, επεκτείνοντάς τις σε μια μορφή που είναι πιο εύκολη στην ανάλυση και κατανόηση.


▲ Τυποποιημένη αναπαράσταση ενεργοποίησης μοντέλου με χρήση ερμηνείας SAE

Μελετώντας αυτές τις διευρυμένες απόψεις, οι ερευνητές μπορούν να κατανοήσουν πώς το Gemma 2 αναγνωρίζει μοτίβα, επεξεργάζεται πληροφορίες και τελικά κάνει προβλέψεις, διερευνώντας πώς να δημιουργήσουν συστήματα τεχνητής νοημοσύνης που είναι πιο κατανοητά, πιο αξιόπιστα και αξιόπιστα.

Προηγουμένως, η έρευνα για το SAE είχε επικεντρωθεί κυρίως στη μελέτη της εσωτερικής λειτουργίας ενός μόνο στρώματος είτε σε μικροσκοπικό μοντέλο είτε σε μεγάλο μοντέλο. Η σημαντική ανακάλυψη του Gemma Scope είναι ότι εκπαιδεύει το SAE σε κάθε έξοδο επιπέδου και υποστρώματος του μοντέλου Gemma 2. Δημιούργησε περισσότερα από 400 SAE και έμαθε περισσότερα από 30 εκατομμύρια χαρακτηριστικά.


▲ Παράδειγμα ενεργοποίησης της δυνατότητας εντοπισμού SAE του Gemma Scope

Το Gemma Scope χρησιμοποιεί επίσης τη νέα αρχιτεκτονική JumpReLU SAE για εκπαίδευση. Είναι δύσκολο για την αρχική αρχιτεκτονική SAE να εξισορροπήσει τους δύο στόχους του εντοπισμού των χαρακτηριστικών που υπάρχουν και της εκτίμησης της ισχύος τους. Η αρχιτεκτονική JumpReLU μπορεί να επιτύχει αυτή την ισορροπία πιο εύκολα, μειώνοντας σημαντικά τα σφάλματα.

Το Gemma Scope έχει ανοίξει συνολικά περισσότερα από 400 δωρεάν SAE, καλύπτοντας όλα τα επίπεδα του Gemma 2 2B και 9B, και παρέχει διαδραστικές επιδείξεις Οι ερευνητές μπορούν να μελετήσουν τα χαρακτηριστικά του SAE και να αναλύσουν τη συμπεριφορά του μοντέλου χωρίς να γράφουν κώδικα.


▲ Διαδραστική επίδειξη Gemma Scope

Επίδειξη διεύθυνση:

https://www.neuronpedia.org/gemma-scope

Διεύθυνση τεχνικής έκθεσης:

https://storage.googleapis.com/gemma-scope/gemma-scope-report.pdf

Συμπέρασμα: ΓεννητικόΌλα συμπεριλαμβάνονταιΟ άνεμος φυσάει προς το μικρό μοντέλο καιΌλα συμπεριλαμβάνονταιΑσφάλεια

Από την ανάπτυξη της γενετικής τεχνητής νοημοσύνης, το μοντέλο έχει περάσει από τις παραμέτρους "όγκου" και την κλίμακα "όγκου" στο τώρα "όγκο" ελαφρύ και "όγκο" ασφάλεια, γεγονός που αντικατοπτρίζει ότι στη διαδικασία εφαρμογής της τεχνολογίας, είναι πιο κοντά στους χρήστες, χαμηλότερο κόστος, και καλύτερη ικανοποίηση συγκεκριμένων αναγκών.

Οι υπολογιστές με τεχνητή νοημοσύνη και τα κινητά τηλέφωνα με τεχνητή νοημοσύνη εισέρχονται σταδιακά στη ζωή των καταναλωτών.