noticias

Apple lo admite: el modelo de IA se entrena con el chip personalizado de Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Noticias el lunes 30 de julio, hora de EE. UU.manzanaLa empresa afirmó que suAIEl modelo central del sistema está enGoogle Complete la capacitación previa en el procesador diseñado.Es una señal de que las grandes empresas tecnológicas están explorando opciones más allá del entrenamiento de inteligencia artificial de vanguardia.NVIDIAGPUalternativas.

Apple admitió en su último documento técnico que utiliza las unidades de procesamiento tensorial (TPU) de Google para entrenar sus modelos de inteligencia artificial. Por otra parte, Apple lanzó el lunes una versión preliminar de Apple Intelligence para algunos usuarios.

Durante mucho tiempo, las GPU de alto rendimiento de NVIDIA han dominado el mercado de entrenamiento de modelos de inteligencia artificial de alta gama. Muchas empresas de tecnología, incluidas OpenAI, Microsoft y Anthropic, han adoptado sus GPU para acelerar el entrenamiento de modelos. Sin embargo, en los últimos años, las GPU de Nvidia han escaseado. Por esta razón, empresas como Google, Meta, Oracle y Tesla han desarrollado sus propios chips para satisfacer las necesidades de sus respectivos sistemas de inteligencia artificial y desarrollo de productos. .

El director ejecutivo de Meta, Mark Zuckerberg, y el director ejecutivo de Alphabet, Sundar Pichai, ofrecieron ideas la semana pasada que insinúan posibles avances en la infraestructura de inteligencia artificial entre sus empresas y otras en la industria. Existe un fenómeno de sobreinversión, pero también se enfatiza que no hacerlo. implica riesgos comerciales extremadamente altos. Zuckerberg señaló específicamente que si nos quedamos atrás en este sentido, podemos perder nuestra ventaja competitiva en campos tecnológicos clave en los próximos 10 a 15 años.

En el documento técnico de 47 páginas, aunque Apple no menciona directamente a Google o NVIDIA, establece claramente que su modelo Attentional Factorization Machines (AFM) y su servidor AFM están entrenados en un entorno de "clúster de TPU en la nube", lo que indirectamente indica que Apple Resources proporcionados por los proveedores de servicios en la nube se utilizan para realizar tareas informáticas.

En el documento, Apple enfatizó: "La aplicación de este sistema nos permite entrenar modelos AFM de manera eficiente y escalable, abarcando desde AFM del lado del dispositivo hasta AFM del lado del servidor, e incluso modelos a mayor escala".

Hasta ahora, los representantes oficiales de Apple y Google no han respondido a las solicitudes de comentarios.

En comparación con muchos pares, Apple dio a conocer su plan estratégico de inteligencia artificial más tarde. Después de que OpenAI lanzó ChatGPT a fines de 2022, otras empresas rápidamente lanzaron una búsqueda entusiasta de la tecnología de inteligencia artificial generativa. El lunes, Apple lanzó oficialmente Apple Smart, que debutó con una serie de características innovadoras, como el nuevo diseño de interfaz de Siri, capacidades de procesamiento de lenguaje natural significativamente mejoradas y resumen automático de inteligencia artificial en campos de texto.

El próximo año, Apple planea lanzar más funciones basadas en inteligencia artificial generativa, incluida la generación automática de imágenes y expresiones, y una versión mejorada de Siri que podrá utilizar la información personalizada de los usuarios para funcionar mejor en diversas aplicaciones complejas y. Tareas personalizadas.

En un documento técnico publicado el lunes, Apple reveló los detalles específicos del entrenamiento del modelo AFM en sus dispositivos, es decir, que el modelo se completa en una "porción" separada que contiene 2048 de los últimos chips TPU v5p. TPU v5p es actualmente la unidad de procesamiento de tensor más avanzada y se lanzó por primera vez en diciembre del año pasado. La capacitación del servidor AFM es aún mayor. Utiliza chips 8192 TPU v4. Estos chips se configuran cuidadosamente en ocho segmentos y trabajan juntos en el centro de datos a través de la red para respaldar conjuntamente las potentes necesidades informáticas del servidor.

Según la información oficial de Google, su último TPU cuesta menos de 2 dólares por hora para funcionar, pero los clientes deben reservarlo con tres años de antelación para garantizar su uso. Desde su introducción en 2015, diseñado específicamente para cargas de trabajo internas y la apertura de Google al público en 2017, TPU se ha convertido en uno de los chips personalizados más maduros y avanzados en inteligencia artificial.

Vale la pena señalar que a pesar de tener una TPU de desarrollo propio, Google aún mantiene su estatus como uno de los principales clientes de Nvidia, utilizando las GPU de Nvidia y su propia TPU para entrenar sistemas de inteligencia artificial y brindando acceso a la tecnología de Nvidia en su plataforma en la nube.

Apple ha dicho anteriormente que el proceso de inferencia (utilizando modelos de inteligencia artificial previamente entrenados para la generación o predicción de contenido) se realizará parcialmente en chips en sus propios centros de datos.

Este es el segundo documento técnico que Apple publica recientemente sobre su sistema de inteligencia artificial, después de una versión más amplia publicada en junio, lo que confirma aún más el uso de TPU por parte de la compañía en su proceso de desarrollo. (pequeño)