Nachricht

Apple gibt zu: KI-Modell wird mit Googles benutzerdefiniertem Chip trainiert

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Nachrichten vom 30. Juli, Montag, US-Zeit,ApfelDas Unternehmen gab an, dass esKIDas Kernmodell des Systems ist inGoogle Führen Sie eine Vorschulung für den entwickelten Prozessor durch.Dies ist ein Zeichen dafür, dass große Technologieunternehmen nach Möglichkeiten suchen, die über die Schulung modernster künstlicher Intelligenz hinausgehen.NvidiaGrafikkarteAlternativen.

Apple gab in seinem neuesten Fachartikel zu, dass es die Tensor-Processing-Units (TPUs) von Google verwendet, um seine Modelle der künstlichen Intelligenz zu trainieren. Unabhängig davon hat Apple am Montag für einige Benutzer eine Vorschauversion von Apple Intelligence herausgebracht.

Lange Zeit dominierten die Hochleistungs-GPUs von NVIDIA den Markt für High-End-Modelltraining mit künstlicher Intelligenz. Viele Technologieunternehmen, darunter OpenAI, Microsoft und Anthropic, haben ihre GPUs übernommen, um das Modelltraining zu beschleunigen. In den letzten Jahren waren Nvidia-GPUs jedoch Mangelware. Aus diesem Grund haben Unternehmen wie Google, Meta, Oracle und Tesla alle ihre eigenen Chips entwickelt, um den Anforderungen ihrer jeweiligen Systeme für künstliche Intelligenz und Produktentwicklung gerecht zu werden .

Mark Zuckerberg, CEO von Meta, und Sundar Pichai, CEO von Alphabet, gaben letzte Woche Einblicke und deuteten auf mögliche Fortschritte in der Infrastruktur für künstliche Intelligenz zwischen ihren Unternehmen und anderen in der Branche hin. Es gibt ein Phänomen der Überinvestition, es wird jedoch auch betont, dass dies nicht der Fall ist birgt äußerst hohe Geschäftsrisiken. Zuckerberg wies ausdrücklich darauf hin, dass wir in den nächsten 10 bis 15 Jahren unseren Wettbewerbsvorteil in wichtigen Technologiefeldern verlieren könnten, wenn wir in dieser Hinsicht zurückfallen.

Obwohl Apple in dem 47-seitigen technischen Dokument Google oder NVIDIA nicht direkt erwähnt, heißt es doch deutlich, dass sein Attentional Factorization Machines (AFM)-Modell und sein AFM-Server in einer „Cloud-TPU-Cluster“-Umgebung trainiert werden, was indirekt darauf hinweist, dass Apple Resources Die von Cloud-Dienstleistern bereitgestellten Daten werden zur Ausführung von Rechenaufgaben verwendet.

In dem Papier betonte Apple: „Die Anwendung dieses Systems ermöglicht es uns, AFM-Modelle effizient und skalierbar zu trainieren, vom geräteseitigen AFM bis zum serverseitigen AFM und sogar größeren Modellen.“

Bisher haben offizielle Vertreter von Apple und Google nicht auf Anfragen nach Kommentaren geantwortet.

Im Vergleich zu vielen Mitbewerbern stellte Apple seinen strategischen Entwurf für künstliche Intelligenz später vor. Nachdem OpenAI Ende 2022 ChatGPT eingeführt hatte, begannen andere Unternehmen schnell mit einer enthusiastischen Beschäftigung mit der Technologie der generativen künstlichen Intelligenz. Am Montag stellte Apple offiziell Apple Smart vor, das mit einer Reihe innovativer Funktionen debütierte, wie etwa dem neuen Interface-Design von Siri, deutlich verbesserten Fähigkeiten zur Verarbeitung natürlicher Sprache und der automatischen Zusammenfassung von Textfeldern durch künstliche Intelligenz.

Im nächsten Jahr plant Apple die Einführung weiterer Funktionen, die auf generativer künstlicher Intelligenz basieren, einschließlich der automatischen Generierung von Bildern und Ausdrücken sowie einer erweiterten Version von Siri, die in der Lage sein wird, personalisierte Informationen der Benutzer zu nutzen, um in verschiedenen komplexen und komplexeren Anwendungen eine bessere Leistung zu erzielen personalisierte Aufgaben.

In einem am Montag veröffentlichten technischen Papier enthüllte Apple die spezifischen Details des AFM-Modelltrainings auf seinen Geräten, nämlich dass das Modell auf einem separaten „Slice“ mit 2048 der neuesten TPU v5p-Chips vervollständigt wird. TPU v5p ist derzeit die fortschrittlichste Tensor-Verarbeitungseinheit und wurde erstmals im Dezember letzten Jahres eingeführt. Das Training des AFM-Servers ist noch größer. Er verwendet 8192 TPU v4-Chips, die sorgfältig in acht Slices konfiguriert sind und im Rechenzentrum über das Netzwerk zusammenarbeiten, um gemeinsam die leistungsstarken Rechenanforderungen des Servers zu unterstützen.

Nach offiziellen Angaben von Google kostet der Betrieb der neuesten TPU weniger als 2 US-Dollar pro Stunde, Kunden müssen sie jedoch drei Jahre im Voraus reservieren, um die Nutzung sicherzustellen. Seit seiner Einführung im Jahr 2015, die speziell für interne Arbeitslasten entwickelt wurde, und der Öffnung durch Google im Jahr 2017 hat sich TPU zu einem der ausgereiftesten und fortschrittlichsten kundenspezifischen Chips im Bereich der künstlichen Intelligenz entwickelt.

Es ist erwähnenswert, dass Google trotz einer selbst entwickelten TPU weiterhin seinen Status als Top-Kunde von Nvidia beibehält, indem es Nvidias GPUs und seine eigene TPU zum Trainieren von Systemen der künstlichen Intelligenz nutzt und auf seiner Cloud-Plattform Zugriff auf Nvidia-Technologie bietet.

Apple hat zuvor erklärt, dass der Inferenzprozess (unter Verwendung vorab trainierter Modelle der künstlichen Intelligenz zur Generierung oder Vorhersage von Inhalten) teilweise auf Chips in seinen eigenen Rechenzentren durchgeführt wird.

Dies ist das zweite technische Papier, das Apple kürzlich über sein künstliches Intelligenzsystem veröffentlicht hat, nach einer umfassenderen Version im Juni, die den Einsatz von TPUs durch das Unternehmen in seinem Entwicklungsprozess weiter bestätigt. (wenig)