noticias

Anuncio oficial de Apple: los modelos compatibles con Apple Intelligence están entrenados en los chips personalizados de Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Autor de este artículo: Li Dan

Fuente: IA dura

Los documentos públicos muestran que el desarrollo por parte de Apple de su propio sistema de inteligencia artificial (IA), Apple Intelligence, es inseparable del soporte de los chips personalizados de Google.

El lunes 29 de julio, hora del este, el sitio web oficial de Apple publicó un documento técnico que detalla algunos modelos de lenguaje básicos desarrollados para respaldar el sistema de inteligencia personal de Apple, Apple Intelligence, incluido un modelo de aproximadamente 3 mil millones de lenguajes utilizado para ejecutarse de manera eficiente en el dispositivo: el modelo paramétrico. "Apple Basic Model" (AFM) del lado del cliente y un modelo de lenguaje de servidor grande: el servidor AFM diseñado para la arquitectura de inteligencia artificial en la nube de Apple "Private Cloud Compute".

En el documento, Apple presentó que el AFM del lado del cliente y el AFM del servidor son miembros de una gran familia de modelos generativos desarrollados por Apple. Estos modelos se utilizan para ayudar a los usuarios y desarrolladores. En el documento, Apple reveló que el modelo de entrenamiento utiliza el chip AI ASIC TPUv4 de cuarta generación y el chip TPUv5 de nueva generación desarrollado por Google. El artículo dice:

"Entrenamos el servidor AFM desde cero en 8192 chips TPUv4, utilizando una longitud de secuencia de 4096 y un tamaño de lote de 4096 secuencias para realizar un entrenamiento de 6,3 billones de tokens".
"El AFM del lado del terminal está entrenado en chips 2048 TPUv5p".

En el documento de 47 páginas, Apple no menciona a Google ni a Nvidia por su nombre, pero dice que sus servicios AFM y AFM están entrenados en "clústeres de TPU en la nube". Esto significa que Apple alquila servidores a proveedores de servicios en la nube para realizar cálculos.

De hecho, durante la Conferencia Mundial de Desarrolladores (WWDC) en junio de este año, los medios descubrieron en los detalles de los documentos técnicos publicados por Apple que Google se ha convertido en otro ganador de los esfuerzos de Apple en el campo de la IA. Los ingenieros de Apple utilizaron el software marco de desarrollo propio de la empresa y una variedad de hardware para construir el modelo básico, incluidas unidades de procesamiento de tensores (TPU) que solo están disponibles en Google Cloud. Sin embargo, Apple no reveló cuánto depende de los chips y el software de Google en comparación con otros proveedores de hardware de IA como Nvidia.

Por lo tanto, un comentario en la red social X el lunes señaló que hubo noticias sobre el uso de chips de Google por parte de Apple en junio, y ahora tenemos más detalles sobre la pila de capacitación.


Algunos comentarios decían que Apple no odia a Nvidia, pero el TPU es más rápido. También hay comentarios de que el TPU es más rápido, por lo que tiene sentido que Apple lo utilice. Por supuesto, también puede ser más barato que los chips de Nvidia.


Los comentarios de los medios del lunes dijeron que la TPU de Google se creó originalmente para cargas de trabajo internas y ahora se está utilizando más ampliamente. La decisión de Apple de utilizar chips de Google para entrenar modelos sugiere que algunos gigantes tecnológicos pueden estar buscando y han encontrado alternativas a los chips de IA de Nvidia en lo que respecta al entrenamiento de IA.

El Wall Street Journal mencionó que la semana pasada, el director ejecutivo de Meta, Zuckerberg, y el director ejecutivo de Alphabet y Google, Pichai, insinuaron en sus discursos que sus empresas y otras empresas de tecnología pueden haber invertido demasiado en infraestructura de inteligencia artificial. Pero todos reconocen que los riesgos comerciales de no hacerlo son demasiado altos.

Zuckerberg dijo:

"La consecuencia de quedarse atrás es que en los próximos 10 a 15 años estarás en desventaja en las tecnologías más importantes".

Pichai dijo:

La IA es costosa, pero el riesgo de una inversión insuficiente es aún mayor. Es posible que Google haya invertido demasiado en infraestructura de inteligencia artificial, incluida principalmente la compra de GPU Nvidia. Incluso si el auge de la IA se desacelera, los centros de datos y los chips de computadora que compran las empresas pueden usarse para otros fines. Para nosotros, el riesgo de invertir insuficientemente es mucho mayor que el riesgo de invertir excesivamente.