νέα

ποιος μπορεί να γίνει αντικαταστάτης της nvidia;

2024-09-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

συγγραφέας 丨barry

editor丨guan ju

πηγή εικόνας丨midjourney

ποιος μπορεί να αντικαταστήσει τη nvidia;

στον τομέα των gpu των κέντρων δεδομένων, οι αποστολές της nvidia θα φτάσουν τις 3,76 εκατομμύρια μονάδες το 2023, αντιπροσωπεύοντας σχεδόν το 98% του παγκόσμιου μεριδίου αγοράς, το οποίο μπορούμε να πούμε ότι είναι ασυναγώνιστο.

τα τσιπ τεχνητής νοημοσύνης, γνωστά και ως επιταχυντές τεχνητής νοημοσύνης ή υπολογιστικές κάρτες, είναι ενότητες που χρησιμοποιούνται ειδικά για τον χειρισμό μεγάλου αριθμού εργασιών υπολογιστών σε εφαρμογές τεχνητής νοημοσύνης. περιλαμβάνουν κυρίως επεξεργαστές γραφικών (gpu), προγραμματιζόμενες πύλες πεδίου (fpga) και συγκεκριμένες εφαρμογές. ολοκληρωμένα κυκλώματα (asic) κ.λπ.

σύμφωνα με την gartner, η αγορά τσιπ ai θα φτάσει τα 53,4 δισεκατομμύρια δολάρια ηπα το 2023, σημειώνοντας αύξηση 20,9% από το 2022 και θα αυξηθεί κατά 25,6% στα 67,1 δισεκατομμύρια δολάρια ηπα το 2024. μέχρι το 2027, τα έσοδα από τσιπ ai αναμένεται να υπερδιπλασιαστούν από το μέγεθος της αγοράς το 2023, φτάνοντας τα 119,4 δισεκατομμύρια δολάρια.

ο αγώνας εξοπλισμών υπολογιστικής ισχύος που διοργανώθηκε από μεγάλες εταιρείες κολοσσούς έχει αναμφισβήτητα γίνει μια ισχυρή κινητήρια δύναμη για την αγορά των τσιπ τεχνητής νοημοσύνης.

από το 2024, σχεδόν όλα τα μεγάλα μεγάλα μοντέλα θα έχουν περισσότερες από 100 δισεκατομμύρια παραμέτρους, το llama3 έχει 400 δισεκατομμύρια παραμέτρους και το gpt4 έχει 1,8 τρισεκατομμύρια παραμέτρους. ένα μεγάλο μοντέλο με τρισεκατομμύρια παραμέτρους αντιστοιχεί σε ένα εξαιρετικά μεγάλο σύμπλεγμα υπολογιστικής ισχύος με κλίμακα μεγαλύτερη από 10.000 kilobyte.

το openai έχει τουλάχιστον 50.000 nvidia high-end gpu, η meta έχει δημιουργήσει το δικό της σύμπλεγμα καρτών super-10.000 που αποτελείται από 24.576 h100 και η google έχει έναν υπερυπολογιστή a3 που αποτελείται από 26.000 h100... περισσότερες από 40.000 εταιρείες gpu, via εταιρείες έχουν αγοράσει όπως η meta, η microsoft, η amazon και η google συνεισέφεραν συνολικά το 40% των εσόδων της.

η οικονομική έκθεση δείχνει ότι το μικτό περιθώριο κέρδους της nvidia έφτασε το 71%, από το οποίο το μικτό περιθώριο κέρδους των σειρών a100 και h100 έφτασε το 90%. ως εταιρεία υλικού, η nvidia έχει υψηλότερο μικτό περιθώριο κέρδους από τις εταιρείες διαδικτύου.

αναφέρεται ότι τα τσιπ τεχνητής νοημοσύνης της nvidia για κέντρα δεδομένων κοστίζουν 25.000-40.000 $ ανά τεμάχιο, που είναι 7-8 φορές μεγαλύτερη από τα παραδοσιακά προϊόντα. ο kazuhiro sugiyama, σύμβουλος διευθυντής στην ερευνητική εταιρεία omdia, δήλωσε ότι οι υψηλές τιμές των προϊόντων nvidia αποτελούν βάρος για τις εταιρείες που θέλουν να επενδύσουν στην τεχνητή νοημοσύνη.

η υψηλή τιμή πώλησης έχει επίσης κάνει πολλούς μεγάλους πελάτες να αρχίσουν να αναζητούν εναλλακτικές λύσεις. στις 30 ιουλίου, η apple ανακοίνωσε ότι το μοντέλο ai της εκπαιδεύτηκε χρησιμοποιώντας 8.000 tpu της google. το πρώτο τσιπ του openai παρουσιάστηκε επίσης σήμερα. θα χρησιμοποιεί την πιο προηγμένη διαδικασία σε επίπεδο angstrom a16 της tsmc και είναι ειδικά κατασκευασμένο για εφαρμογές βίντεο sora.

σε όλο τον κόσμο, νεοσύστατες εταιρείες με τσιπ τεχνητής νοημοσύνης και μονόκεροι έχουν εμφανιστεί η μία μετά την άλλη, προσπαθώντας να κλέψουν φαγητό από τη nvidia. μεταξύ αυτών, υπάρχουν οι μονόκεροι που υποστηρίζονται από την κίνα, η sambanova και η νεοεμφανιζόμενη etched, καθώς και η cerebras systems, ένας μονόκερος που επένδυσε ο διευθύνων σύμβουλος της openai, altman, ο οποίος ετοιμάζεται για μια ipo πρόεδρο του ομίλου softbank, masayoshi son, αφού εισήγαγε με επιτυχία την arm πέρυσι, στο in τον ιούλιο του τρέχοντος έτους, εξαγόρασε τη βρετανική εταιρεία τσιπ ai graphcore σε μια προσπάθεια να κατασκευάσει την επόμενη nvidia.

sambanova, ένας μονόκερος τσιπ ai που κατασκευάστηκε από κινέζους στο στάνφορντ

στις 27 αυγούστου, η εκκίνηση τσιπ τεχνητής νοημοσύνης των ηπα sambanova παρουσίασε για πρώτη φορά λεπτομερώς το νέο σύστημα τσιπ τεχνητής νοημοσύνης που κυκλοφόρησε πρόσφατα στον κόσμο για μοντέλα τεχνητής νοημοσύνης (ai) κλίμακας τρισεκατομμυρίων παραμέτρων - με βάση το τσιπ ai sn40l με δυνατότητα επαναδιαμόρφωσης μονάδας ροής δεδομένων (rdu). .

σύμφωνα με αναφορές, το σύστημα 8 τσιπ που βασίζεται στο sn40l της sambanova μπορεί να παρέχει υποστήριξη για 5 τρισεκατομμύρια μοντέλα παραμέτρων και το μήκος ακολουθίας σε έναν μόνο κόμβο συστήματος μπορεί να φτάσει τα 256k+. σε σύγκριση με το τσιπ h100 της yingwei, το sn40l όχι μόνο επιτυγχάνει 3,1 φορές την απόδοση συμπερασμάτων του h100, αλλά διπλασιάζει και την απόδοση εκπαίδευσης και το συνολικό κόστος ιδιοκτησίας είναι μόνο 1/10.

διευθύνων σύμβουλος της sambanova, rodrigo liang

οι τρεις συνιδρυτές της εταιρείας έχουν όλοι υπόβαθρο του stanford, ο διευθύνων σύμβουλος rodrigo liang είναι ο πρώην αντιπρόεδρος μηχανικής της sun/oracle. επιπλέον, υπάρχουν πολλοί κινέζοι μηχανικοί στην ομάδα.

η sambanova αποτιμάται επί του παρόντος στα 5 δισεκατομμύρια δολάρια ηπα (περίπου 36,5 δισεκατομμύρια γιουάν) και έχει ολοκληρώσει 6 γύρους χρηματοδότησης συνολικού ύψους 1,1 δισεκατομμυρίων δολαρίων.

όχι μόνο αμφισβητούν τη nvidia σε τσιπ, αλλά προχωρούν επίσης περισσότερο από την nvidia όσον αφορά το επιχειρηματικό μοντέλο: συμμετέχουν άμεσα στο να βοηθήσουν εταιρείες να εκπαιδεύσουν ιδιωτικά μεγάλα μοντέλα. και τα τσιπ δεν πωλούνται μόνα τους, αλλά οι προσαρμοσμένες στοίβες τεχνολογίας τους, από τσιπ μέχρι συστήματα διακομιστών, ακόμη και ανάπτυξη μεγάλων μοντέλων.

οι φιλοδοξίες της για πελάτες-στόχους είναι ακόμη μεγαλύτερες - στοχεύοντας στις 2.000 μεγαλύτερες εταιρείες του κόσμου. επί του παρόντος, τα τσιπ και τα συστήματα της sambanova έχουν κερδίσει πολλούς μεγάλους πελάτες, συμπεριλαμβανομένων των κορυφαίων εργαστηρίων υπερυπολογιστών στον κόσμο, του fugaku της ιαπωνίας, του εθνικού εργαστηρίου argonne των ηνωμένων πολιτειών, του εθνικού εργαστηρίου lawrence και της εταιρείας συμβούλων accenture.

ο rodrigo liang πιστεύει ότι το επόμενο πεδίο μάχης για την εμπορευματοποίηση μεγάλων μοντέλων και γενετικής τεχνητής νοημοσύνης είναι τα ιδιωτικά δεδομένα των επιχειρήσεων, ιδιαίτερα των μεγάλων επιχειρήσεων. τελικά, αντί να τρέχει ένα πολύ μεγάλο μοντέλο όπως το gpt-4 ή το google gemini, η εταιρεία θα δημιουργήσει 150 μοναδικά μοντέλα βασισμένα σε διαφορετικά υποσύνολα δεδομένων, με περισσότερες από ένα τρισεκατομμύριο συγκεντρωτικές παραμέτρους.

αυτή η στρατηγική έρχεται σε πλήρη αντίθεση με προσεγγίσεις όπως το gpt-4 και το google gemini, όπου οι περισσότεροι γίγαντες ελπίζουν να δημιουργήσουν ένα γιγάντιο μοντέλο που μπορεί να γενικευτεί σε εκατομμύρια εργασίες.

etched, μια εταιρεία τσιπ τεχνητής νοημοσύνης που ιδρύθηκε από δύο εγκαταλείψεις του χάρβαρντ που γεννήθηκαν τη δεκαετία του 2000

οι ιδρυτές του etched είναι δύο άτομα που εγκατέλειψαν το χάρβαρντ που γεννήθηκαν το 2000. ο gavin uberti κατείχε ανώτερες θέσεις στο octoml και στο xnor.ai, ενώ ο chris zhu είναι κινέζος.

ήταν αισιόδοξοι για την κατεύθυνση των μεγάλων μοντέλων πριν από την κυκλοφορία του chatgpt, έτσι εγκατέλειψαν το πανεπιστήμιο του χάρβαρντ το 2022 και ίδρυσαν από κοινού με τον robert wachen και τον πρώην επικεφαλής τεχνολογίας cypress semiconductor mark ross για να δημιουργήσουν μεγάλα μοντέλα αφιερωμένα στην τεχνητή νοημοσύνη.

gavin uberti (αριστερά) και chris zhu (δεξιά)

ακολούθησαν μια μοναδική διαδρομή: μπορούσαν να τρέξουν μόνο το τσιπ ai του transformer και υιοθέτησαν ένα σχέδιο asic. προς το παρόν, σχεδόν όλες οι λύσεις στην αγορά υποστηρίζουν ευρέως μοντέλα τεχνητής νοημοσύνης και έχουν καθορίσει ότι το μοντέλο transformer θα κυριαρχήσει σε ολόκληρη την αγορά από τα τέλη του 2022. πιστεύουν ότι οι αναβαθμίσεις απόδοσης gpu είναι πολύ αργές και ο μόνος τρόπος είναι να χρησιμοποιηθούν εξειδικευμένα τσιπ asic μόνο με αυτόν τον τρόπο μπορούμε να επιτύχουμε ένα άλμα στην απόδοση.

μετά από δύο χρόνια, στις 27 ιουνίου φέτος, η etched κυκλοφόρησε το πρώτο της τσιπ ai sohu, αποτελώντας το πρώτο τσιπ στον κόσμο αφιερωμένο στον υπολογισμό transformer.

τρέχει μεγάλα μοντέλα 20 φορές πιο γρήγορα από το nvidia h100 και πάνω από 10 φορές πιο γρήγορα από το κορυφαίο chip b200, το οποίο κυκλοφόρησε τον μάρτιο του τρέχοντος έτους. ένας διακομιστής εξοπλισμένος με οκτώ τσιπ sohu μπορεί να αντικαταστήσει πλήρεις 160 gpu nvidia h100. ενώ μειώνεται σημαντικά το κόστος, δεν θα υπάρξει απώλεια απόδοσης.

εφόσον το sohu υποστηρίζει μόνο έναν αλγόριθμο, οι περισσότερες μονάδες ροής ελέγχου μπορούν να εξαλειφθούν. για μια μικρή ομάδα σχεδιασμού, η διατήρηση μιας στοίβας λογισμικού ενιαίας αρχιτεκτονικής είναι προφανώς λιγότερο αγχωτική.

την ίδια στιγμή που κυκλοφόρησε το τσιπ sohu, η etched ανακοίνωσε επίσης ότι είχε ολοκληρώσει μια χρηματοδότηση 120 εκατομμυρίων δολαρίων της σειρά α, με επικεφαλής τους primary venture partners και positive sum ventures.

οι σημαντικότεροι επενδυτές σε αυτόν τον κύκλο χρηματοδότησης περιλαμβάνουν τον γνωστό επενδυτή της silicon valley peter thiel, τον πρώην cto της πλατφόρμας συναλλαγών κρυπτονομισμάτων coinbase και τον πρώην γενικό συνεργάτη της a16z balaji srinivasan, τον διευθύνοντα σύμβουλο της github thomas dohmke, τον συνιδρυτή της cruise kyle vogt και τον quora από κοινού ιδρυτή charlie cheever και περισσότερο.

η cerebras systems, ο μονόκερος τσιπ ai που επενδύθηκε από την ultraman, σχεδιάζει να σπεύσει για ipo

το πιο μοναδικό πράγμα για την cerebras systems, που ιδρύθηκε το 2015, είναι ότι τα τσιπ της είναι πολύ διαφορετικά από τις mainstream gpu της nvidia. στο παρελθόν, τα τσιπ έγιναν ολοένα και μικρότερα υπό την καθοδήγηση του νόμου του moore, λαμβάνοντας ως παράδειγμα το nvidia h100, έχει 80 δισεκατομμύρια τρανζίστορ σε μια περιοχή πυρήνα 814 τετραγωνικών χιλιοστών.

το τσιπ ai της cerebras επιλέγει να κάνει ολόκληρο το τσιπ όλο και μεγαλύτερο, ισχυριζόμενος ότι «δημιούργησε το μεγαλύτερο τσιπ περιοχής στον κόσμο». σύμφωνα με αναφορές, το τσιπ wse 3 που αναπτύχθηκε από την cerebras κόβεται από μια ολόκληρη γκοφρέτα, η οποία είναι μεγαλύτερη από ένα πιάτο και απαιτεί από ένα άτομο να το κρατά ψηλά και με τα δύο χέρια. ένα τσιπ wse 3 έχει 4.000 δισεκατομμύρια τρανζίστορ (50 φορές περισσότερο από το h100) σε μια περιοχή πυρήνα μεγαλύτερη από 46.000 τετραγωνικά χιλιοστά.

τα τσιπ μεγαλύτερα από το πιάτο απαιτούν να τα κρατούν και τα δύο χέρια. πηγή: ars technica

η cerebras ισχυρίζεται ότι το μέγεθος του μεγάλου μοντέλου ai που μπορεί να εκπαιδεύσει το τσιπ τους είναι 10 φορές μεγαλύτερο από τα κορυφαία μεγάλα μοντέλα της τρέχουσας βιομηχανίας (όπως το gpt-4 του openai ή το gemini της google).

στις 27 αυγούστου φέτος, η cerebras systems ανακοίνωσε την κυκλοφορία της υπηρεσίας συμπερασμάτων ai cerebras inference, η οποία τιμολογείται ως «η ταχύτερη στον κόσμο». σύμφωνα με τον επίσημο ιστότοπο, αυτή η υπηρεσία συμπερασμάτων είναι 20 φορές ταχύτερη από την υπηρεσία της nvidia, ενώ διασφαλίζει ότι το εύρος ζώνης της μνήμης του επεξεργαστή είναι 7.000 φορές μεγαλύτερο από αυτό της nvidia, ενώ η τιμή είναι μόνο το 1/5 της gpu και η αναλογία τιμής/απόδοσης έχει. αυξήθηκε κατά 100 φορές. το cerebras inference παρέχει επίσης πολλαπλά επίπεδα υπηρεσιών, συμπεριλαμβανομένων των δωρεάν, προγραμματιστών και εταιρικών επιπέδων, για την κάλυψη διαφορετικών αναγκών από ανάπτυξη μικρής κλίμακας έως ανάπτυξη μεγάλης κλίμακας για επιχειρήσεις.

ο συνιδρυτής και διευθύνων σύμβουλος andrew feldman είναι κάτοχος mba από το πανεπιστήμιο του στάνφορντ και ο chief technology officer gary lauterbach αναγνωρίζεται ως ένας από τους κορυφαίους αρχιτέκτονες υπολογιστών στον κλάδο. το 2007, οι δυο τους ίδρυσαν την εταιρεία μικροδιακομιστών seamicro, η οποία εξαγοράστηκε από την amd έναντι 334 εκατομμυρίων δολαρίων το 2012, και στη συνέχεια εντάχθηκαν στην amd.

σύμφωνα με δημοσιεύματα ξένων μέσων ενημέρωσης, η cerebras systems υπέβαλε κρυφά αίτηση για ipo στις ηνωμένες πολιτείες και θα εισαχθεί στο χρηματιστήριο τον οκτώβριο του 2024. επί του παρόντος, η εταιρεία έχει συγκεντρώσει 720 εκατομμύρια δολάρια και εκτιμάται σε περίπου 4,2 δισεκατομμύρια δολάρια ηπα έως 5 δισεκατομμύρια δολάρια ένας από τους μεγαλύτερους μεμονωμένους επενδυτές είναι ο διευθύνων σύμβουλος της openai, sam altman. ο altman φέρεται να συμμετείχε στη χρηματοδότηση 81 εκατομμυρίων δολαρίων της cerebras series d.

το tenstorrent, μαζί με το θρυλικό chip master, θα γίνει ο «αντικαταστάτης» της nvidia

πριν από το 2021, η tenstorrent ήταν ακόμα μια άγνωστη εταιρεία. ωστόσο, η εταιρεία έγινε διάσημη για λίγο καθώς ο jim keller, μια σπουδαία φυσιογνωμία στη βιομηχανία ημιαγωγών, γνωστή ως "silicon immortal", ανακοίνωσε ότι θα ενταχθεί στην εταιρεία ως επικεφαλής τεχνολογίας και πρόεδρος.

η καριέρα του jim keller μπορεί να ονομαστεί ιστορία της βιομηχανίας υπολογιστών. από το 1998 έως το 1999, ο jim keller εργάστηκε στην αρχιτεκτονική k7/k8 που υποστήριξε την amd από το 2008 έως το 2012, ανέλαβε την ηγεσία στην ανάπτυξη των επεξεργαστών a4 και a5 στην apple από το 2012 έως το 2015 έργο στην amd, αρχιτεκτονική zen από το 2016 έως το 2018, ανέπτυξε τσιπ αυτόματου πιλότου fsd στην tesla και από το 2018 έως το 2020 συμμετείχε σε μυστηριώδη έργα στην intel.

ο jim keller εντάσσεται στο tenstorrent, ελπίζοντας να προσφέρει μια «αντικατάσταση» για τις ακριβές gpu της nvidia. πιστεύει ότι η nvidia δεν εξυπηρετεί καλά ορισμένες αγορές και αυτές οι αγορές είναι ακριβώς αυτό που προσπαθεί να κατακτήσει η tenstorrent.

η tenstorrent λέει ότι το σύστημα galaxy της είναι τρεις φορές πιο αποτελεσματικό και 33% λιγότερο ακριβό από τον nvidia dgx, τον πιο δημοφιλή διακομιστή ai στον κόσμο.

σύμφωνα με αναφορές, η tenstorrent αναμένεται να κυκλοφορήσει τον επεξεργαστή πολλαπλών χρήσεων ai δεύτερης γενιάς πριν από το τέλος του τρέχοντος έτους. σύμφωνα με τον τελευταίο οδικό χάρτη της tenstorrent το περασμένο φθινόπωρο, η εταιρεία σκοπεύει να κυκλοφορήσει τον αυτόνομο επεξεργαστή τεχνητής νοημοσύνης black hole και τα chiplet χαμηλής κατανάλωσης και χαμηλού κόστους quasar για λύσεις τεχνητής νοημοσύνης πολλαπλών τσιπ.

η εταιρεία ισχυρίζεται ότι οι επερχόμενοι επεξεργαστές της προσφέρουν αποδοτικότητες απόδοσης συγκρίσιμες με τις gpu ai της nvidia. ταυτόχρονα, η tenstorrent λέει ότι η αρχιτεκτονική της καταναλώνει λιγότερο εύρος ζώνης μνήμης από τους ανταγωνιστές της, κάτι που είναι βασικός λόγος για την υψηλότερη απόδοση και το χαμηλότερο κόστος.

το κύριο χαρακτηριστικό του τσιπ tentorrent είναι ότι κάθε ένας από τους περισσότερους από 100 πυρήνες του έχει μια μικρή cpu, έναν «εγκέφαλο μέσα σε έναν εγκέφαλο». να απορρίψετε ορισμένα δεδομένα που θεωρούνται ανεπιθύμητα απαραίτητα, αυξάνοντας έτσι τη συνολική αποτελεσματικότητα.

μέχρι στιγμής, η tentorrent έχει ολοκληρώσει τουλάχιστον 6 γύρους χρηματοδότησης. προηγουμένως, οι επενδυτές της tentorrent ήταν κυρίως επιχειρηματικά κεφάλαια, δηλαδή, μετά την ένταξη του jim keller, η εταιρεία ολοκλήρωσε έναν νέο γύρο χρηματοδότησης 100 εκατομμυρίων δολαρίων τον αύγουστο του 2023 και το βιομηχανικό κεφάλαιο άρχισε να εμφανίζεται μεταξύ των επενδυτών - hyundai automotive group και samsung catalyst fund , ένας βραχίονας επιχειρηματικών κεφαλαίων της samsung.

η softbank εξαγοράζει το graphcore με έκπτωση για να δημιουργήσει έναν ανταγωνιστή της nvidia

η graphcore ιδρύθηκε το 2016 από τον cto simon knowles και τον ceo nigel toon. η εταιρεία έχει δεσμευτεί να αναπτύξει τη μονάδα επεξεργασίας νοημοσύνης (ipu), έναν επεξεργαστή ειδικά σχεδιασμένο για τεχνητή νοημοσύνη και μηχανική μάθηση, με μοναδική αρχιτεκτονική και πλεονεκτήματα, όπως μαζικά παράλληλη αρχιτεκτονική mimd, υψηλό εύρος ζώνης μνήμης και στενά συνδεδεμένη τοπική κατανεμημένη sram κ.λπ.

η graphcore κυκλοφόρησε διαδοχικά μια σειρά από προϊόντα που βασίζονται σε ipu, όπως επεξεργαστή gc200 ipu, bow ipu, κ.λπ., και συνεχίζει να πραγματοποιεί τεχνικές αναβαθμίσεις και βελτιώσεις.

ωστόσο, τον ιούλιο του τρέχοντος έτους, αυτή η μαχόμενη βρετανική εταιρεία τσιπ ai εξαγοράστηκε από τη softbank.

σύμφωνα με τη συμφωνία, η graphcore θα γίνει εξ ολοκλήρου θυγατρική της softbank και θα συνεχίσει να λειτουργεί με την τρέχουσα επωνυμία της. σύμφωνα με αναφορές, η συνολική αξία συναλλαγής μπορεί να φτάσει περίπου τα 400 εκατομμύρια λίρες (περίπου 500 εκατομμύρια δολάρια ηπα, 3,56 δισεκατομμύρια γιουάν), η οποία είναι περίπου 82% χαμηλότερη από την αποτίμηση του τελευταίου γύρου χρηματοδότησης της graphcore στα 2,8 δισεκατομμύρια δολάρια ηπα. η softbank το αγόρασε μόνο με έκπτωση 20%.

το graphcore κάποτε θεωρούνταν η «βρετανική έκδοση της nvidia». ωστόσο, από το 2020, η εταιρεία δεν έχει λάβει νέες επενδύσεις και έχει χάσει επίσης σημαντικές παραγγελίες από τη microsoft. ταυτόχρονα, οι ηνωμένες πολιτείες συνεχίζουν να εντείνουν τους ελέγχους των εξαγωγών στους ημιαγωγούς τεχνητής νοημοσύνης της κίνας, γεγονός που επηρεάζει επίσης την ανάπτυξη της graphcore στην κίνα.

αυτή η εξαγορά της graphcore όχι μόνο εδραιώνει τη θέση της softbank στον τομέα των τσιπ ai, αλλά είναι επίσης ένα σημαντικό βήμα στη στρατηγική ai της son.

πρώην μηχανικοί της google ίδρυσαν την groq για να δημιουργήσουν ένα νέο είδος lpu

τον αύγουστο του τρέχοντος έτους, η groq ανακοίνωσε την ολοκλήρωση της χρηματοδότησης της σειράς d των 640 εκατομμυρίων δολαρίων, μεταξύ των οποίων οι επενδυτές blackrock, cisco investments, samsung catalyst fund, κ.λπ.

η εταιρεία, που ιδρύθηκε το 2016 από τον πρώην μηχανικό της google, jonathan ross, ισχυρίζεται ότι το υλικό της μονάδας επεξεργασίας γλώσσας lpu μπορεί να τρέξει υπάρχοντα μοντέλα genai, όπως το gpt-4, δέκα φορές πιο γρήγορα ενώ καταναλώνει μόνο το ένα δέκατο της ενέργειας. η εταιρεία σημείωσε ένα νέο ρεκόρ απόδοσης μοντέλου μεγάλων γλωσσών (llm) χρησιμοποιώντας το llama 2 της meta, στα 300 tokens ανά δευτερόλεπτο ανά χρήστη.

σε σύγκριση με την ευελιξία της gpu, παρόλο που το lpu αποδίδει καλά στην επεξεργασία γλώσσας, το εύρος εφαρμογής του είναι στενό. αυτό περιορίζει τη γενίκευσή τους σε ένα ευρύτερο φάσμα εργασιών ai. επιπλέον, ως αναδυόμενη τεχνολογία, το lpu δεν έχει λάβει ακόμη ευρεία υποστήριξη από την κοινότητα και η χρηστικότητα αντιμετωπίζει επίσης προκλήσεις.

η groq σχεδιάζει να αναπτύξει περισσότερους από 108.000 lpu μέχρι το τέλος του πρώτου τριμήνου του 2025, τη μεγαλύτερη ανάπτυξη συμπερασμάτων τεχνητής νοημοσύνης εκτός μεγάλων τεχνολογικών κολοσσών.