noticias

AI Weekly | Character AI se vendió a Google por más de 2.500 millones de dólares; Huang Renxun habla con Zuckerberg: Internet es aún mejor si es de código abierto

2024-08-08

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

La IA de personajes se vende a Google por más de 2.500 millones de dólares
En la madrugada del 3 de agosto, hora de Beijing, Character.AI anunció que Google acordó pagar tarifas de licencia de modelo a la empresa de unicornio humano digital AI Character.AI y permitirá que el cofundador y director ejecutivo, presidente y 30 personajes para trabajar en él Los empleados que trabajan en el entrenamiento de modelos y la inteligencia artificial del habla se han unido a Google para participar en el proyecto Gemini AI. Según los informes, las acciones de los inversores se adquirirán a una valoración de aproximadamente 88 dólares por acción, y la adquisición general de Character.AI por parte de Google tendrá un valor de más de 2.500 millones de dólares.
Comentario: Aunque Character.AI es muy conocido, hace tiempo que carece de financiación. La última ronda de financiación se celebró todavía en marzo de 2023, cuando la conocida firma de capital riesgo Andreessen Horowitz (A16z) lideró una financiación Serie A de 150 millones de dólares. Los medios han revelado anteriormente que Character.AI está teniendo dificultades de financiación y está buscando fusiones y adquisiciones con Meta y se reveló que xAI de Musk era uno de los adquirentes importantes, lo que luego fue negado por Musk.
Huang Renxun habla con Zuckerberg: Internet es aún mejor si es de código abierto
El 29 de julio, hora local, en la 51ª conferencia de gráficos SIGGRAPH en Denver, EE. UU., el fundador y director ejecutivo de NVIDIA, Jensen Huang, y el fundador y director ejecutivo de Meta, Zuckerberg, sostuvieron una charla informal para discutir el futuro de la inteligencia artificial y la simulación. Durante la conversación, Huang Renxun elogió el modelo grande de código abierto de Meta. Tanto él como Zuckerberg estuvieron de acuerdo en que se debe seguir la ruta del modelo grande de código abierto. Como "director" de una empresa representativa con grandes modelos de código abierto, Zuckerberg admitió generosamente en la conversación que parte del motivo del código abierto es que "llegamos más tarde que otras empresas de tecnología cuando construimos estas instalaciones, no existían". Tiene una ventaja competitiva." Sin embargo, a largo plazo, cree que algún día cada empresa tendrá su propia IA, al igual que cada uno tiene su propio perfil en las redes sociales.
Comentario: Se trata de una colisión de opiniones entre NVIDIA, el proveedor de potencia informática más importante en la industria de los modelos grandes, y Meta, el editor del modelo grande Llama 2, que es el más conocido en el campo del código abierto y es considerado como un punto de referencia de código abierto en la industria. Al observar la industria de la IA, desde una perspectiva de ganancias, NVIDIA definitivamente se convertirá en un firme defensor del código abierto para modelos grandes, porque solo el código abierto puede atraer a más empresas para unirse a las "pepitas" de IA, y NVIDIA, el mayor proveedor. de la potencia informática de la IA, puede seguir ganando dinero "vendiendo palas".
Meta planea gastar millones de dólares para buscar el apoyo de las estrellas de Hollywood
El 3 de agosto, varias fuentes familiarizadas con las negociaciones dijeron que Meta Corporation está ofreciendo millones de dólares a las estrellas de Hollywood para obtener sus grabaciones y los derechos para usar sus voces en proyectos de inteligencia artificial. Según personas familiarizadas con el asunto, Meta ha discutido internamente el desarrollo de un chatbot que pueda servir como asistente digital o "amigo" para los usuarios, similar a Siri de Apple. Por ejemplo, los usuarios pueden conversar con chatbots que tienen voces de estrellas de Hollywood.
Meta se apresura a completar estos acuerdos para ganar más tiempo para el desarrollo de herramientas de inteligencia artificial, que planea exhibir en la conferencia Connect 2024 en septiembre. Aunque no está claro cómo Meta utilizará estas voces, este movimiento muestra el énfasis y la inversión de la empresa en el desarrollo de tecnología de inteligencia artificial.
Comentario: OpenAI ha estado involucrado anteriormente en una controversia de infracción porque cierta voz del robot de chat de voz GPT-4o es similar a la de la actriz Scarlett Johansson. Por lo tanto, las negociaciones de Meta para comprar la voz con grandes sumas de dinero son necesarias. Sin embargo, las negociaciones entre Meta y los representantes de algunos actores supuestamente se estancaron y luego se reiniciaron varias veces porque las partes no pudieron ponerse de acuerdo sobre los términos para el uso de las voces de los actores. Meta quiere los derechos para usar la voz varias veces durante un período fijo en un solo proyecto, y los representantes del elenco buscan restricciones más estrictas.
Nvidia puede enfrentar una investigación antimonopolio
Hay noticias de que el Departamento de Justicia de Estados Unidos podría iniciar una investigación antimonopolio sobre Nvidia. Según personas familiarizadas con el asunto, el Departamento de Justicia de EE. UU. recibió recientemente quejas de los competidores de Nvidia, como AMD y las nuevas empresas de chips de IA, que involucran las amenazas de Nvidia de castigar a los clientes que también compran productos de sus competidores y la adquisición de nuevas empresas por parte de Nvidia para fortalecer la IA. Preocupaciones por el control del software utilizado. El Departamento de Justicia de Estados Unidos está recopilando información relevante y llevando a cabo una investigación.
Comentario: Los reguladores vigilan de cerca a los gigantes de la IA. En junio de este año, también se informó que los reguladores federales de EE. UU. habían llegado a un acuerdo para permitir investigaciones antimonopolio sobre Microsoft, OpenAI y Nvidia con respecto a su dominio en la industria de la inteligencia artificial. De hecho, además de vender chips de IA, Nvidia también está fortaleciendo su voz en el campo de la IA a través de inversiones. Este año, Nvidia ha participado en nada menos que 16 financiaciones o adquisiciones, incluida la adquisición de Shoreline.io y Run:ai. Las dos empresas adquiridas desarrollan respectivamente software para desarrolladores empresariales para optimizar el rendimiento de los grupos de tarjetas gráficas.
Intel despedirá al 15% de su plantilla y suspenderá los dividendos
El 1 de agosto, hora local, Intel publicó su informe financiero del segundo trimestre para el año fiscal 2024. En el segundo trimestre, los ingresos de Intel fueron de 12.800 millones de dólares, un 1% menos interanual; su pérdida neta fue de 1.600 millones de dólares, en comparación con los 1.500 millones de dólares del mismo período del año pasado, una disminución interanual. El mismo día, el precio de las acciones de Intel cayó un 5,5% para cerrar en 29,05 dólares por acción. El 2 de agosto, el precio de las acciones de Intel cayó más del 20%. Junto a los resultados se anunciaron los planes de Intel de recortar el gasto y la suspensión de dividendos a partir del cuarto trimestre de 2024. Intel dijo que implementaría recortes integrales de gastos, incluido el recorte del 15% de su fuerza laboral.
Comentario: El pobre desempeño de Intel en el segundo trimestre está relacionado con su inversión en PC con IA. En una conferencia telefónica después de la publicación del informe de ganancias, la gerencia de Intel señaló que la rentabilidad del segundo trimestre fue menor de lo esperado, en parte debido a la decisión de la compañía de acelerar la producción de CPU para PC Ultra AI. Intel ha dicho anteriormente que las inversiones para definir e impulsar la categoría de PC con IA ejercerán presión sobre las ganancias en el corto plazo. Vale la pena señalar que, aunque AI PC tiene buenas expectativas de crecimiento, la implementación de modelos grandes en PC aún se encuentra en sus primeras etapas.
La plataforma de generación de imágenes de IA LiblibAI completa una financiación de cientos de millones de yuanes
El 29 de julio, la plataforma de generación de imágenes de IA LiblibAI anunció que había completado tres rondas de financiación el año pasado, por un monto total de cientos de millones de yuanes. Esta escala de financiación es la mayor cantidad de financiación en el sector de imágenes de IA nacional y cuenta con la participación conjunta de varias instituciones de capital de riesgo importantes: la ronda ángel está invertida por Source Code Capital, Gaorong Venture Capital y Jinshajiang Venture Capital; inversores estratégicos; la última ronda de inversión fue dirigida por Mingshi Capital; los antiguos accionistas continuaron apoyando en múltiples rondas. LiblibAI declaró que el monto del financiamiento se utilizará principalmente en tres aspectos: construir un centro de potencia informática a gran escala para respaldar el razonamiento del usuario y capacitar las necesidades de potencia informática, el desarrollo de complementos, modelos de ajuste y capacidades de control basados ​​en modelos de imágenes; ; ecología del desarrollador y modelos originales Soporte y operaciones del autor.
Comentario: Fundada en mayo de 2023, LiblibAI es una de las primeras plataformas de generación de imágenes de IA en China. Según el anuncio, LiblibAI ha acumulado casi 10 millones de creadores profesionales de imágenes de IA, más de 100.000 modelos originales y ha producido y compartido más de 230 millones de imágenes de IA. Los miembros principales de LiblibAI se graduaron de prestigiosas universidades nacionales y extranjeras como la Universidad de Tsinghua, la Universidad de Pekín y la Universidad Carnegie Mellon, y tienen experiencia en empresas de Internet como Tencent y Alibaba.
La empresa de robótica de IA Stardust Intelligence recibe decenas de millones de dólares en financiación
El 31 de julio, China Business News se enteró por la empresa de robots de IA Astribot de que la empresa completó decenas de millones de dólares en financiación de la ronda Pre-A, liderada por Matrix Partners, Daotong Investment, Qinghui Investment y otros capitales industriales. Antiguo accionista Yunqi Capital también participó en la inversión, y China Renaissance Capital actuó como asesor financiero exclusivo. Esta ronda de financiación se utilizará para la contratación de los mejores talentos, la inversión en I+D, el despliegue comercial y otros trabajos.
Comentario: Continúa la financiación para empresas de robots humanoides. En julio, la startup de robots humanoides generales Zhuji Dynamics también completó su financiación Serie A. Las empresas de robots humanoides que han recibido financiación este año también incluyen Galaxy Universal Robots, Kepler Exploration Robots, Yushu Technology y Xingdong Era. A juzgar por los antecedentes de Stardust Intelligence, el fundador de la empresa, Lai Jie, trabajó una vez en Tencent Robotics Laboratory y en el "Xiaodu Robot" de Baidu. La compañía espera completar el lanzamiento del producto de primera generación en un futuro próximo y completar la comercialización en 2024.
Apple utiliza chips de Google para entrenar modelos
El lunes, hora local, Apple dijo en un documento técnico que los dos modelos de inteligencia artificial que respaldan Apple Intelligence fueron entrenados previamente en los chips de nube de Google. El chip de desarrollo propio de Google es TPU (Procesador Tensor), que Google utiliza principalmente internamente y no se vende externamente. Esto puede significar que los chips de desarrollo propio de Google se utilizan más ampliamente y que las grandes empresas de tecnología pueden buscar activamente alternativas a las GPU (procesadores gráficos) de Nvidia fuera de Nvidia. El 30 de julio, las acciones estadounidenses, el precio de las acciones de Nvidia cayeron más del 7%, cerrando a 103,73 dólares por acción.
Comentario: Los competidores de Nvidia nunca dejan de desafiarla. Google tiene sus propios chips (procesadores tensoriales) y Apple también es fabricante de chips, con chips de la serie A y chips de la serie M. Además de los chips Nvidia, Microsoft también utiliza el chip MI300 de AMD. Además de utilizar chips de Google para entrenar modelos, en términos de aplicaciones del lado del cliente, Apple anunció anteriormente que utilizará chips de las series A17 Pro y M para impulsar Apple Intelligence.
Vidu, la herramienta de generación de vídeo con IA propiedad de Shengshu Technology, se lanza a nivel mundial
El 30 de julio, Shengshu Technology anunció que su herramienta de generación de videos de inteligencia artificial, Vidu, se lanzó a nivel mundial y se puede acceder a ella en la Web en www.vidu.studio. La velocidad de inferencia más rápida es de 30 segundos. En abril de este año, Zhu Jun, vicedecano del Instituto de Inteligencia Artificial de la Universidad de Tsinghua y científico jefe de Shengshu Technology, presentó Vidu en el Foro Zhongguancun 2024. Shengshu Technology dijo que la duración máxima del video generado por este modelo es de 16 segundos, una comparación completa con Sora. Esta vez, Vidu ha abierto dos funciones principales: Wensheng Video y Tusheng Video, que ofrecen dos opciones de duración de 4 y 8 segundos, con una resolución de hasta 1080P.
Comentarios: A juzgar por la evaluación, el rendimiento de Vidu es casi perfecto en términos de requisitos básicos para videos de IA, incluida la coherencia, el contenido de la imagen, la fluidez, etc. Las imágenes generadas son básicamente estables y fluidas con buenos detalles. Al mismo tiempo, los videos generados por Vidu tienen hermosos estilos, texturas fuertes y una velocidad de generación rápida, pero también tienen algunas deficiencias, incluido el recorte ocasional y la adhesión de las imágenes para comprender el texto. Vidu básicamente puede comprender y cumplir con la mayoría; requisitos, pero todavía hay respuestas insuficientes a las palabras clave ocasionales.
La serie Google Gemma 2 agrega un modelo de 2 mil millones de parámetros
El 31 de julio, hora local, Google anunció que la serie Gemma 2 agregó un nuevo modelo pequeño Gemma 2B (2 mil millones de parámetros). En el ámbito de modelos grandes LMSYS Chatbot Arena, Gemma 2B obtuvo una puntuación superior a GPT-3.5-Turbo. Lanzados con Gemma 2B se incluyen el modelo clasificador de contenido de seguridad ShieldGemma y la herramienta de interpretabilidad de modelos Gemma Scope. Gemma 2 es un modelo de código abierto de Google. En junio de este año, Google lanzó la serie Gemma 2, que incluye Gemma 2 27B y 9B.
Comentario: Google también está desarrollando modelos con parámetros muy pequeños. En julio, OpenAI lanzó un nuevo modelo grande y liviano, GPT-4o mini. Google también lanzó el modelo liviano Gemini 1.5 Flash en mayo de este año. La serie Claude 3 lanzada por Anthropic en marzo incluye el liviano Claude 3 Haiku. Los modelos pequeños consumen menos energía para funcionar y son adecuados para aplicaciones finales, y hay margen de mejora en las capacidades del modelo.
AMD eleva el pronóstico de ventas de GPU para centros de datos para este año
El 30 de julio, hora local, AMD anunció su informe financiero del segundo trimestre para el año fiscal 2024. En el segundo trimestre, los ingresos de AMD fueron de 5.835 millones de dólares, un aumento interanual del 9%, y el beneficio neto (no GAAP) fue de 1.126 millones de dólares, un aumento interanual del 19%. En términos de unidades de negocio, los ingresos de la división de centros de datos, incluidas CPU, GPU, etc., alcanzaron los 2.834 millones de dólares, un aumento interanual del 115%. Los ingresos de la División de Clientes, que incluye las ventas de PC, fueron de 1.492 millones de dólares, un aumento interanual del 49%. El director ejecutivo de AMD, Su Zifeng, dijo en una conferencia telefónica que se espera que las ventas de GPU para centros de datos de AMD alcancen los 4.500 millones de dólares en 2024, más que los 4.000 millones de dólares esperados en abril de este año.
Comentario: La IA catalizó el desempeño de AMD en el segundo trimestre. En el segundo trimestre, el crecimiento de los ingresos de su división de centros de datos se vio impulsado principalmente por un aumento significativo en los envíos de GPU Instinct y un fuerte crecimiento en las ventas de CPU AMD EPYC de cuarta generación. Su Zifeng también reveló que después de la entrega del chip acelerador MI300 de AMD para IA y computación de alto rendimiento, los ingresos del chip superaron los mil millones de dólares en el segundo trimestre. Microsoft ha aumentado el uso de chips MI300 como soporte de potencia informática para GPT-4 Turbo. Además, AMD también ha acelerado su implementación de IA mediante inversiones este año.
(Este artículo proviene de China Business News)
Informe/Comentarios