νέα

η cerebras λανσάρει την ταχύτερη λύση συμπερασμάτων ai στον κόσμο, 20 φορές ταχύτερη από τη λύση της nvidia

2024-08-28

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

η cerebras λανσάρει την ταχύτερη λύση συμπερασμάτων ai στον κόσμο, 20 φορές ταχύτερη από τη λύση της nvidia

28/8/2024 9:51:23 πηγή: it house συγγραφέας: yuanyang επιμέλεια: yuanyang

σχόλια: 2

το it house ανέφερε στις 28 αυγούστου ότι η cerebras systems ανακοίνωσε σήμερα την κυκλοφορία του cerebras inference, το οποίο αξιωματούχοι λένε ότι είναι η ταχύτερη λύση συμπερασμάτων τεχνητής νοημοσύνης στον κόσμο. η νέα λύση παρέχει 1800 tokens ανά δευτερόλεπτο για το llama 3.1 8b και 450 tokens ανά δευτερόλεπτο για το llama 3.1 70b, το οποίο είναι 20 φορές ταχύτερο από τις λύσεις συμπερασμάτων τεχνητής νοημοσύνης που βασίζονται σε gpu nvidia που διατίθενται σε σύννεφα υπερκλίμακας όπως το microsoft azure.

εκτός από την απίστευτη απόδοση, αυτή η νέα λύση συμπερασμάτων κοστίζει σημαντικά χαμηλότερη από τα δημοφιλή σύννεφα gpu, ξεκινώντας από μόλις 10 σεντς ανά εκατομμύριο μάρκες, παρέχοντας 100 φορές καλύτερη απόδοση για φόρτους εργασίας τεχνητής νοημοσύνης, σχέση ποιότητας-τιμής.

αυτό το πρόγραμμα θα επιτρέψει στους προγραμματιστές εφαρμογών ai να δημιουργήσουν την επόμενη γενιά εφαρμογών ai χωρίς συμβιβασμούς στην ταχύτητα ή το κόστος. αυτή η λύση χρησιμοποιεί το σύστημα cerebras cs-3 και τον επεξεργαστή wafer scale engine 3 (wse-3) ai το εύρος ζώνης μνήμης του cs-3 είναι 7.000 φορές μεγαλύτερο από αυτό του nvidia h100, επιλύοντας τις τεχνικές προκλήσεις εύρους ζώνης μνήμης της γενετικής τεχνητής νοημοσύνης.

σύμφωνα με το it house, το cerebras inference παρέχει τα ακόλουθα τρία επίπεδα:

το δωρεάν επίπεδο παρέχει δωρεάν πρόσβαση στο api και γενναιόδωρα όρια χρήσης σε οποιονδήποτε συνδέεται.

το επίπεδο προγραμματιστών έχει σχεδιαστεί για ευέλικτες αναπτύξεις χωρίς διακομιστή, παρέχοντας στους χρήστες ένα τελικό σημείο api με ένα κλάσμα του κόστους των εναλλακτικών λύσεων στην αγορά, με το llama 3.1 με τιμή 10 σεντς ανά εκατομμύριο διακριτικά για μοντέλα 8b και 70b αντίστοιχα.

το εταιρικό επίπεδο παρέχει βελτιωμένα μοντέλα, προσαρμοσμένες συμφωνίες επιπέδου υπηρεσιών και αποκλειστική υποστήριξη. οι επιχειρήσεις μπορούν να έχουν πρόσβαση στο cerebras inference μέσω ενός ιδιωτικού cloud που διαχειρίζεται η cerebras ή σε εγκαταστάσεις πελατών, καθιστώντας το ιδανικό για συνεχείς φόρτους εργασίας.

η ομάδα της cerebras είπε: "με επιδόσεις ρεκόρ, κορυφαίες τιμές στον κλάδο και ανοιχτή πρόσβαση api, το cerebras inference θέτει ένα νέο πρότυπο για την ανάπτυξη και ανάπτυξη ανοιχτού llm. ως η μόνη λύση που μπορεί να προσφέρει εκπαίδευση υψηλής ταχύτητας και συμπέρασμα ταυτόχρονα, το cerebras opens up εντελώς νέες δυνατότητες για την τεχνητή νοημοσύνη."

ο τομέας της τεχνητής νοημοσύνης εξελίσσεται γρήγορα και ενώ η nvidia κυριαρχεί επί του παρόντος στην αγορά της τεχνητής νοημοσύνης, η εμφάνιση εταιρειών όπως η cerebras και η groq είναι ένα σημάδι ότι η δυναμική του κλάδου μπορεί να αλλάξει. καθώς η ζήτηση για ταχύτερες, πιο αποδοτικές λύσεις συμπερασμάτων τεχνητής νοημοσύνης συνεχίζει να αυξάνεται, αυτοί οι αμφισβητίες ανατρέπουν την κυριαρχία της nvidia, ειδικά στον τομέα των συμπερασμάτων.