Nachricht

Offizielle Ankündigung von Apple: Modelle, die Apple Intelligence unterstützen, werden auf den benutzerdefinierten Chips von Google trainiert

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Autor dieses Artikels: Li Dan

Quelle: Harte KI

Aus öffentlichen Dokumenten geht hervor, dass Apples Entwicklung seines eigenen künstlichen Intelligenzsystems (KI), Apple Intelligence, untrennbar mit der Unterstützung der benutzerdefinierten Chips von Google verbunden ist.

Am Montag, 29. Juli, Eastern Time, veröffentlichte Apples offizielle Website ein technisches Dokument, in dem einige grundlegende Sprachmodelle beschrieben werden, die zur Unterstützung von Apples persönlichem Intelligenzsystem Apple Intelligence entwickelt wurden, darunter ein etwa 3 Milliarden Sprachmodell, das zur effizienten Ausführung auf dem Gerät verwendet wird – das clientseitiges „Apple Basic Model“ (AFM) und ein großes Server-Sprachmodell – Server-AFM, das für Apples Cloud-KI-Architektur „Private Cloud Compute“ entwickelt wurde.

In dem Papier stellte Apple vor, dass clientseitiges AFM und Server-AFM Mitglieder einer Familie generativer Modelle sind, die von Apple entwickelt wurden. Diese Modelle werden zur Unterstützung von Benutzern und Entwicklern verwendet. In dem Papier gab Apple bekannt, dass das Trainingsmodell den AI-ASIC-Chip TPUv4 der vierten Generation und den von Google entwickelten Chip TPUv5 der neueren Generation verwendet. Der Artikel lautet:

„Wir haben das Server-AFM von Grund auf auf 8192 TPUv4-Chips trainiert und dabei eine Sequenzlänge von 4096 und eine Stapelgröße von 4096 Sequenzen verwendet, um ein 6,3 Billionen Token-Training durchzuführen.“
„Das terminalseitige AFM ist auf 2048 TPUv5p-Chips trainiert.“

In dem 47-seitigen Papier erwähnte Apple Google oder Nvidia nicht namentlich, sagte jedoch, dass seine AFM- und AFM-Dienste auf „Cloud-TPU-Clustern“ trainiert seien. Das bedeutet, dass Apple Server von Cloud-Dienstleistern mietet, um Berechnungen durchzuführen.

Tatsächlich haben die Medien während der Worldwide Developers Conference (WWDC) im Juni dieses Jahres anhand der Details der von Apple veröffentlichten technischen Dokumente entdeckt, dass Google zu einem weiteren Gewinner der Bemühungen von Apple im Bereich KI geworden ist. Apple-Ingenieure nutzten die vom Unternehmen selbst entwickelte Framework-Software und eine Vielzahl von Hardware, um das Basismodell zu erstellen, darunter Tensor-Processing-Units (TPUs), die nur in der Google Cloud verfügbar sind. Apple gab jedoch nicht bekannt, wie stark Apple im Vergleich zu anderen KI-Hardware-Anbietern wie Nvidia auf die Chips und Software von Google angewiesen ist.

Daher wurde am Montag in einem Kommentar auf Social Media


In einigen Kommentaren hieß es, Apple hasse Nvidia nicht, aber TPU sei schneller. Es gibt auch Kommentare, dass TPU schneller ist, daher ist es für Apple sinnvoll, es zu verwenden. Natürlich kann es auch günstiger sein als die Chips von Nvidia.


In Medienkommentaren hieß es am Montag, dass Googles TPU ursprünglich für interne Arbeitslasten entwickelt wurde und nun in größerem Umfang eingesetzt wird. Die Entscheidung von Apple, Google-Chips zum Trainieren von Modellen zu verwenden, deutet darauf hin, dass einige Technologieriesen beim KI-Training möglicherweise nach Alternativen zu Nvidias KI-Chips suchen und diese gefunden haben.

Das Wall Street Journal erwähnte, dass Meta-CEO Zuckerberg und Alphabet-CEO Pichai beide in ihren Reden angedeutet haben, dass ihre Unternehmen und andere Technologieunternehmen möglicherweise zu viel in die KI-Infrastruktur investiert haben. Sie alle erkennen jedoch an, dass die Geschäftsrisiken zu hoch sind, wenn man dies nicht tut.

Zuckerberg sagte:

„Ein Rückstand hat zur Folge, dass man in den nächsten 10 bis 15 Jahren in den wichtigsten Technologien im Nachteil ist.“

Pichai sagte:

KI ist kostspielig, aber das Risiko einer Unterinvestition ist noch größer. Möglicherweise hat Google zu viel in die KI-Infrastruktur investiert, vor allem in den Kauf von Nvidia-GPUs. Auch wenn der KI-Boom nachlässt, können die von Unternehmen gekauften Rechenzentren und Computerchips für andere Zwecke genutzt werden. Für uns ist das Risiko einer Unterinvestition weitaus größer als das Risiko einer Überinvestition.