noticias

Amazon adquiere una empresa de chips

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon ha llegado a un acuerdo para adquirir el fabricante de chips y empresa de compresión de modelos de IA Perceive, una filial de Xperi que cotiza en bolsa con sede en San José, California, por 80 millones de dólares en efectivo. Perceive es una empresa que desarrolla soluciones innovadoras de inferencia de redes neuronales, centrándose en tecnología que ofrece modelos de inteligencia artificial a gran escala en dispositivos periféricos.

Amazon no ha revelado sus pensamientos específicos sobre la tecnología. "Estamos contentos de haber firmado un acuerdo para adquirir Perceive y traer su talentoso equipo para unirse a nuestros esfuerzos para llevar grandes modelos de lenguaje y experiencias multimodales a dispositivos capaces de funcionar en el borde", dijo un portavoz de Amazon.

Xperi ha estado buscando un comprador para Perceive desde principios de este año. Una vez que se cierre el trato, se espera que la mayoría de los 44 empleados de Perceive se unan a Amazon. Amazon dijo que no esperaba que el acuerdo requiriera aprobación regulatoria, calificándolo de adquisición de rutina.

Introducción del chip de Perceive

La información muestra que Perceive está dirigida por los codirectores ejecutivos Murali Dharan y Steve Teig. La empresa tiene empleados ubicados en todo el mundo. La empresa operará un laboratorio en Idaho. Teig impulsó la creación de Perceive durante su mandato como director de tecnología de Xperi, donde supervisó el desarrollo tecnológico, incluidas las innovaciones centrales de audio e imágenes, y al mismo tiempo dirigió el equipo de aprendizaje automático de la empresa. Dharan, que anteriormente era responsable de la dirección estratégica, la gestión y el crecimiento del negocio de licencias de Xperi, ahora es responsable de liderar las operaciones comerciales de Perceive, incluidas las ventas, el marketing, el éxito del cliente y las operaciones.

Perceive ofrece productos que sirven grandes modelos de IA en dispositivos perimetrales. Su producto estrella es el procesador Ergo AI, que puede ejecutar redes neuronales a nivel de centro de datos en una variedad de entornos, incluso cuando la energía es limitada.

Según los informes, este es un procesador de inteligencia artificial que brinda un rendimiento y eficiencia energética revolucionarios a los dispositivos de vanguardia. Capaz de ejecutar grandes redes neuronales a velocidad de fotogramas completa y admitir una variedad de arquitecturas y tipos de redes, incluidas CNN estándar, RNN, LSTM y más. Ergo es lo suficientemente flexible y potente como para manejar una amplia gama de tareas de aprendizaje automático, desde clasificación y detección de objetos, hasta segmentación y pose de imágenes, procesamiento de señales de audio y lenguaje. Incluso puedes pedirle que realice múltiples tareas, ya que Ergo puede ejecutar varias redes a la vez.

A pesar de la potencia de procesamiento de Ergo, no requiere DRAM externa y su pequeño paquete de 7 mm x 7 mm lo hace ideal para usar en dispositivos compactos como cámaras, computadoras portátiles o gafas AR/VR.

Perceive dijo que Ergo es entre 20 y 100 veces más eficiente energéticamente que otros productos y requiere solo 9 mW de potencia informática para realizar inferencias en video de 30 fps. Esto significa que su dispositivo puede ofrecer una duración de batería incomparable y generar menos calor, lo que permite un paquete más pequeño y versátil.

A principios de 2023, Perceive lanzó el nuevo procesador de IA Ergo 2. Según los informes, el chip puede proporcionar el rendimiento necesario para casos de uso más complejos, incluidos aquellos que requieren modelos de transformadores, redes neuronales más grandes, múltiples redes funcionando simultáneamente y entradas multimodales, manteniendo al mismo tiempo una eficiencia energética líder en la industria.

Al profundizar en la oportunidad de mercado para los últimos chips Ergo, el fundador y director ejecutivo de Perceive, Steve Teig, dijo: "Con los nuevos procesadores Ergo 2, hemos ampliado las capacidades que ofrecemos a los fabricantes de dispositivos para construir los mejores chips de su clase. Capacidades en camino hasta productos ambiciosos, "incluidos modelos de transformación para el procesamiento del lenguaje o la visión, procesamiento de video con mayor velocidad de fotogramas e incluso la combinación de múltiples redes neuronales grandes en una sola aplicación".

Ergo 2 funciona cuatro veces más rápido que el chip Ergo de primera generación de Perceive y tiene mucha más potencia de procesamiento que los chips típicos diseñados para micro-ML. Los desarrolladores de productos ahora pueden aprovechar redes neuronales avanzadas como YOLOv5, RoBERTa, GAN y U-Nets para ofrecer resultados precisos rápidamente. Todo el procesamiento de Ergo 2 se realiza en el chip y no requiere memoria externa, lo que mejora la eficiencia energética, la privacidad y la seguridad. El chip Ergo 2 permite:

1106 inferencias por segundo con MobileNet V2

979 inferencias por segundo al ejecutar ResNet-50

La ejecución de YoloV5-S realiza 115 inferencias por segundo

Para proporcionar las mejoras de rendimiento necesarias para ejecutar estas grandes redes, el chip Ergo 2 utiliza una arquitectura de canalización y un diseño de memoria unificada, lo que aumenta su flexibilidad y eficiencia operativa general. Como resultado, Ergo 2 puede admitir sensores de mayor resolución y una gama más amplia de aplicaciones, que incluyen:

Aplicaciones de procesamiento del lenguaje, como conversión de voz a texto y finalización de oraciones.

Aplicaciones de audio como cancelación de eco acústico y detección de eventos de audio más rica

Tareas exigentes de procesamiento de vídeo, como superresolución de vídeo y detección de pose.

El procesador Ergo 2 mide 7 mm x 7 mm, es fabricado por GlobalFoundries utilizando la plataforma 22FDX y no requiere DRAM externa para funcionar. Su bajo consumo de energía también significa que no requiere refrigeración. El chip puede ejecutar múltiples redes heterogéneas simultáneamente, brindando capacidades inteligentes de video y audio a dispositivos como cámaras de nivel empresarial utilizadas para seguridad, control de acceso, imágenes térmicas o análisis de video minorista, adecuadas para casos de uso industrial que incluyen inspección visual o integrada; productos de consumo como computadoras portátiles, tabletas y dispositivos portátiles avanzados.

La historia de los chips de desarrollo propio de AWS

AWS ha estado construyendo su propio silicio interno personalizado para cargas de trabajo de IA y optimización de la nube durante años, en gran parte gracias a la adquisición de Annapurna Labs por parte de la compañía hace más de una década. Esto ha llevado a AWS a construir sus propios procesadores Graviton, chips Inferentia y procesadores de aprendizaje automático Trainium en los últimos años para entrenar modelos de IA en la nube.

Este año, Amazon dio un gran paso adelante en el avance de la tecnología de inteligencia artificial (IA).

En su conferencia anual AWS re:Invent, AWS anunció dos nuevos chips personalizados: AWS Trainium2 y Graviton4. Los dos chips representan un esfuerzo audaz de Amazon Web Services (AWS) para satisfacer la creciente demanda de capacidades de inteligencia artificial, especialmente cuando el mercado enfrenta una grave escasez de unidades de procesamiento de gráficos (GPU) de alto rendimiento, producidas principalmente por Nvidia.

La necesidad de mejorar la potencia informática surge de la creciente popularidad de la inteligencia artificial generativa, que requiere una infraestructura poderosa para entrenar e implementar modelos. Según se informa, las GPU de Nvidia se han agotado hasta 2024, y fuentes de la industria, incluido el director ejecutivo de TSMC, predicen que esta crisis de suministro podría continuar hasta 2025. Teniendo esto en cuenta, los nuevos chips de Amazon pretenden reducir la dependencia de Nvidia proporcionando una alternativa diseñada específicamente para cargas de trabajo de IA.

El chip Trainium2 está diseñado para entrenar modelos de IA a gran escala, con un rendimiento cuatro veces mayor que la generación anterior de chips y dos veces más eficiente energéticamente que la generación anterior de chips. Según Amazon, el chip puede manejar 65 exaflops cuando se utiliza en un grupo de nubes de hasta 100.000 unidades. Esta capacidad reduce el tiempo necesario para entrenar modelos complejos, como aquellos con cientos de miles de millones de parámetros, de meses a semanas. Estos avances convierten a Trainium2 en un líder en infraestructura de formación en IA.

Reconocido por su potencial, el chip Trainium2 ya ha atraído el interés de varios actores de la industria, incluido Anthropic, una empresa centrada en la construcción de modelos de IA amigables.El cofundador Tom Brown enfatizó que Trainium2 les permitirá escalar rápidamente y procesar hasta cuatro veces más rápido que el modelo anterior. Las asociaciones entre AWS y empresas como Anthropic ilustran la creciente tendencia de aprovechar la tecnología patentada en la nube para optimizar las operaciones de IA.

El chip Graviton4, por otro lado, es el procesador más potente y eficiente de Amazon hasta el momento, diseñado para una variedad de cargas de trabajo en la nube. En comparación con la generación anterior Graviton3, se espera que este chip de cuarta generación mejore el rendimiento en un 30%, aumente la cantidad de núcleos en un 50% y aumente el ancho de banda de la memoria en un 75%. Estas mejoras permiten a los usuarios reducir los costos operativos y aumentar la velocidad de procesamiento de datos, lo que lo hace ideal para empresas que ejecutan bases de datos de alto rendimiento y aplicaciones de análisis intensivo.

Los primeros en adoptar Graviton4 incluyen empresas como Datadog, Epic Games y SAP. Por ejemplo, Roman Visintine, ingeniero jefe de nube de Epic, señaló que el chip funciona bien en cargas de trabajo sensibles a la latencia y es particularmente beneficioso para las experiencias de juego en línea. En un entorno altamente competitivo donde el acceso y el procesamiento rápidos de los datos son fundamentales para el éxito, esta tendencia de optimización de los servicios en la nube es crucial.

El anuncio de Amazon también destaca una tendencia más amplia en la industria tecnológica, en la que las empresas invierten cada vez más en soluciones de chips personalizados para satisfacer necesidades informáticas específicas, especialmente tareas de inteligencia artificial y aprendizaje automático. Al desarrollar hardware propietario, Amazon espera diferenciarse y reducir su dependencia de fabricantes de chips establecidos como Nvidia y AMD.

A medida que la tecnología de IA siga evolucionando y prevaleciendo en diversos campos, desde la atención sanitaria hasta el entretenimiento, la necesidad de chips eficientes y de alto rendimiento no hará más que crecer. Los analistas de tecnología esperan que el lanzamiento de estos nuevos chips de Amazon no sólo satisfaga de inmediato las necesidades actuales, sino que también siente las bases para el futuro desarrollo de la inteligencia artificial.

Sorprendentemente, el lanzamiento de estos chips llega en un momento estratégico, ya que Microsoft también ha anunciado su propio desarrollo de chips para inteligencia artificial y servicios en la nube. Esto ha provocado una feroz competencia en el campo del hardware de IA, lo que ha llevado a las empresas a innovar rápidamente y traspasar límites.

Se espera que los chips AWS Trainium2 y Graviton4 estén disponibles para los clientes en un futuro próximo; Trainium2 se lanzará en algún momento del próximo año y Graviton4 ya está en versión preliminar. A medida que la industria tecnológica continúa avanzando hacia la computación en la nube y las soluciones impulsadas por la inteligencia artificial, Amazon está preparada para desempeñar un papel importante en esta transformación digital.

Los chips de IA tienen un gran potencial

AWS desarrolla chips con frecuencia, además de satisfacer las necesidades comerciales de la empresa, y demuestra una vez más que los chips de IA tienen un gran potencial, que no sólo se refleja en la nube, sino también en el lado de los dispositivos.

Según Futurum Intelligence, para 2023, Nvidia representará el 92% del mercado de GPU de IA y el 75% de todo el mercado de semiconductores de IA para centros de datos. Este dominio continuará en un mercado ya enorme, que se espera que crezca casi la mitad para 2024.

La firma de analistas estima que el valor de mercado total de procesadores y aceleradores para aplicaciones de inteligencia artificial de centros de datos alcanzará los 56.300 millones de dólares, un aumento del 49,3% con respecto al valor de mercado anual de 37.700 millones de dólares en 2023. Los analistas de mercado predicen que el mercado crecerá a una tasa de crecimiento anual compuesta del 29,7% durante los próximos cinco años, lo que elevará el tamaño del mercado a 98.400 millones de dólares en 2026 y 138.300 millones de dólares en 2028.

Futurum divide el mercado de procesadores de centros de datos de IA en cuatro categorías: CPU, GPU, aceleradores especializados (llamados XPU) y aceleradores de nube patentados producidos por empresas como Google, AWS y Microsoft.

En 2023, las CPU representarán el 20,5% del mercado, las GPU representarán el 73,5% del mercado y las XPU y los productos específicos de la nube representarán el 3% cada uno.

1. En 2023, las CPU representarán el 20% del procesamiento de IA en los centros de datos y seguirán desempeñando un papel importante. Futurum estima que crecerán a una tasa de crecimiento anual compuesta a cinco años del 28%, de 7.700 millones de dólares en 2023 a 26.000 millones de dólares en 2028. Futurum estima que Nvidia tendrá una participación de mercado del 37% en 2023, seguida de Intel con un 23%.

2. Para 2023, las GPU representarán el 74 % de los conjuntos de chips utilizados en las aplicaciones de inteligencia artificial de los centros de datos y experimentarán una tasa de crecimiento anual compuesta en cinco años del 30 %, pasando de 28 mil millones de dólares en 2023 a 102 mil millones de dólares en 2028. Futurum estima que Nvidia posee el 92% del mercado de GPU de IA.

3. XPU experimentará una tasa de crecimiento anual compuesta a cinco años del 31%, pasando de mil millones de dólares en 2023 a 3,7 mil millones de dólares en 2028.

4. Los aceleradores de IA en la nube pública experimentarán una tasa de crecimiento anual compuesta en cinco años del 35%, pasando de 1.300 millones de dólares en 2023 a 6.000 millones de dólares en 2028.

Futurum excluye de este estudio los procesadores y aceleradores de IA si no están disponibles para uso público en centros de datos, excluyendo así los conjuntos de chips de IA diseñados y utilizados por Meta, Tesla y Apple.

Desde una perspectiva geográfica, América del Norte domina el mercado y representará el 55% de la cuota de mercado en 2023. Europa, Medio Oriente y África (EMEA) y Asia Pacífico (APAC) le siguen como mercados importantes, mientras que América Latina (LATAM) representa una región en desarrollo con un enorme potencial de crecimiento.

Los análisis visuales y de audio serán los casos de uso más importantes en 2023. Futurum predice que los tres principales casos de uso en 2028 serán el análisis visual y de audio, la simulación y el modelado, y la generación, el análisis y el resumen de texto.

Específicamente para la IA de vanguardia, una nueva investigación de Omdia predice que el mercado de procesadores de IA de vanguardia generará 60.200 millones de dólares en ingresos para 2028, con una tasa de crecimiento anual compuesta del 11%.

El último pronóstico de procesadores de borde de Omdia señala que el crecimiento de los ingresos será impulsado por una mayor demanda de hardware a medida que diversas industrias y dispositivos adopten la inteligencia artificial. Una de las áreas que impulsa el crecimiento del mercado es el segmento de PC, con una creciente oferta de productos de los principales proveedores como Intel, AMD y Apple. Según se informa, los proveedores de PC están intentando comercializar la inclusión de procesadores de IA en sus dispositivos como un "punto de venta único".

Además del sector de las computadoras personales, el informe también destaca la rápida aplicación de procesadores de inteligencia artificial en áreas como automóviles, drones, cámaras de seguridad y robots.

A partir de esto podemos ver las intenciones detrás de la adquisición de AWS.