noticias

musk persigue billones en openai

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai es muy fuerte. si desea ponerle un número a esta fortaleza, entonces este número puede ser de 150 mil millones de dólares estadounidenses.

el 11 de septiembre, hora local, bloomberg informó que openai estaba financiando con una valoración de 150.000 millones de dólares, recaudando 6.500 millones de dólares de inversores y también estaba negociando un préstamo de 5.000 millones de dólares de los bancos en forma de préstamo renovable.

la noticia de que openai iba a recaudar fondos comenzó a difundirse a finales de agosto. en ese momento, los medios revelaron que estaba "valorado en más de 100 mil millones de dólares y recaudaría varios miles de millones de dólares". mundo. después de todo, openai fue valorada en 86 mil millones de dólares a fines del año pasado cuando los empleados vendieron sus acciones existentes.

según noticias anteriores, además de microsoft, los gigantes que participan en la actual ronda de financiación de openai incluyen a apple y nvidia. el aumento de la valoración y las apuestas de los gigantes demuestran el atractivo de openai.

la otra cara de la historia es la asombrosa tasa de quema de dinero de openai y su situación de problemas internos y externos.

la última financiación importante de openai se produjo en enero de 2023, cuando microsoft invirtió aproximadamente 10 mil millones de dólares. en otras palabras, openai quemó decenas de miles de millones de dólares en menos de dos años. the information informó anteriormente que las pérdidas de openai este año pueden alcanzar los 5 mil millones de dólares. en ese momento, los medios predijeron que openai pronto necesitaría financiación, lo que lamentablemente fue cierto.

debido a preocupaciones internas, openai no solo ralentizó sus actualizaciones, sino que también experimentó frecuentes salidas de ejecutivos.

en 2023, openai lanzará la tienda gpt y lanzará gpt-4, y estará muy ocupado. ha pasado más de la mitad de este año y los nuevos productos de openai son en su mayoría populares pero no tangibles. sora se anunció oficialmente a principios de este año, pero aún no se ha probado a gran escala el nuevo modelo que se rumorea desde hace mucho tiempo; "fresa" es aún más misteriosa.

al mismo tiempo, sólo 2 de los 11 cofundadores siguen trabajando en openai. recientemente, alexis conneau, la figura clave detrás de gpt-4o y gpt-5, anunció su salida de openai.

debido a la agresión extranjera, gigantes como google y microsoft han adquirido competidores de openai disfrazados, y otras nuevas empresas estrella de ia en silicon valley, incluidas inflection ai y character ai, ya tienen “propietarios” de facto.

lo que es aún más problemático es que el viejo enemigo elon musk ha pasado de una disputa verbal con openai a una pelea cuerpo a cuerpo con armas reales.

xai, fundada por musk, solo lleva 15 meses establecida y se ha convertido en uno de los rivales más poderosos de openai. la financiación de la serie b finalizó en mayo de este año. xai no solo recibió una financiación única de 6.000 millones de dólares, solo superada por openai, sino que su valoración también alcanzó los 24.000 millones de dólares, lo que la convierte en la segunda startup de ia más valorada después de openai.

en términos de productos, el modelo grok de xai ha pasado por muchas iteraciones y el rendimiento actual de grok 2 ha seguido de cerca al gpt-4.

justo cuando la aparente guerra estaba estancada, elon musk anunció el 3 de septiembre que se había lanzado oficialmente colossus, un grupo de supercomputación que contiene 100.000 nvidia h100, ocupando el primer lugar en el mundo en términos de escala.

la expansión de la potencia informática cumple objetivos ambiciosos. grok 3 ya está en camino y musk ha amenazado con desarrollar la inteligencia artificial más poderosa del mundo para finales de este año.

openai, que ha estado luchando con la potencia informática durante mucho tiempo, ha lanzado múltiples planes de nuevos centros de datos con microsoft, ya sea ampliando las supercomputadoras de microsoft existentes o construyendo nuevas instalaciones. incluso se reveló que el "proyecto stargate" tiene millones de chips nvidia.

sin embargo, la diferencia entre preparación y "lanzamiento oficial" es obvia. en la competencia de ia, donde el tiempo se acaba, el tiempo no espera a nadie. según the information, altman ha expresado su preocupación a los ejecutivos de microsoft de que la potencia informática de xai supere la de openai.

la guerra por el poder informático entre musk y ultraman ha comenzado.

uno es musk, que dice "no me casaré con una familia rica, yo también soy una familia rica" ​​y está haciendo grandes progresos con xai. uno es openai, que cuenta con el respaldo de gigantes y sigue siendo el punto de referencia en la industria de la ia. la batalla por la potencia informática ha comenzado y el desafío no es sólo si se tiene dinero o no.

musk y altman son cofundadores de openai. los dos se llevaron bien cuando google estaba usando deepmind para dominar el campo de la inteligencia artificial, pero se separaron justo antes de que la organización sin fines de lucro openai avanzara hacia una comercialización limitada.

chatgpt se convirtió en un éxito instantáneo hace dos años. musk lanzó un feroz ataque contra openai e incluso contra el propio ultraman, diciendo que openai "violó su intención original" y se convirtió en vasallo de microsoft. este último es el mayor financista de openai e invierte decenas de miles de millones de dólares.

el desempeño de ultraman es mediocre la mayor parte del tiempo. pero a partir de las pocas palabras de altman, no es difícil ver sus emociones encontradas de disgusto e incapacidad para despreciar a musk. altman dijo una vez que musk "es un imbécil". seis meses después, altman dijo algo bueno sobre musk: "elon es definitivamente un imán para el talento y el foco de atención, y tiene algunos superpoderes reales".

en este momento, la xai de musk se ha establecido y altman es muy consciente de las capacidades de este loco de silicon valley.

cuando se anunció oficialmente en julio de 2023, se consideró que xai apuntaba a openai. musk tampoco se avergüenza de esto.

pero en ese momento, el mundo exterior tenía una actitud de esperar y ver qué pasaba con respecto a xai. después de todo, empezó tarde y es de pequeña escala. además de openai y microsoft, también hay gigantes como google y empresas emergentes estrella como anthropic. xai no sólo tiene sólo 11 miembros iniciales, sino que su filosofía también excluye, naturalmente, las grandes inversiones de los gigantes tecnológicos. algunos medios conocidos, incluido "wired", satirizaron el desafío de xai a openai como más bien una "ilusión" de musk.

sin embargo, la velocidad de desarrollo de xai supera la imaginación de todos.esto es exactamente lo que altman dijo sobre musk: superpoderes.

al ordenar la línea de tiempo, no es difícil descubrir que los lanzamientos e iteraciones de productos xai son muy rápidos. fundada hace 13 meses, lanzó el primer modelo grande de grok, el iterativo grok 1.5, el multimodal grok 1.5v, grok 2 y el modelo pequeño grok 2mini.

musk, que conoce bien el marketing, le ha dado a grok una personalidad distinta. cuando los usuarios hablan con grok, encontrarán que este robot es simplista, sarcástico, le encanta gastar bromas y desafía la "corrección política".

sin embargo, bajo la apariencia de bromas, el modelo grok siempre ha tenido un firme control de openai.

tomemos como ejemplo la última situación de batalla. xai lanzó dos modelos, grok 2 y grok 2 mini, en agosto. el rendimiento en términos de codificación, matemáticas y razonamiento ha mejorado enormemente en comparación con la generación anterior y se ha agregado la función de diagrama vincent. en ese momento, en la lista general de lmsys, la primera versión de grok 2, sus-column-r, ocupaba el tercer lugar. podía competir con gpt-4o en la parte superior y superó directamente al claude 3.5 sonnet de anthropic en la parte inferior. en uso específico, grok 2 mantiene el estilo de pintura "irregular". la función de generación de imágenes recientemente lanzada permite a la ia "dibujar" imágenes de otros modelos grandes conocidos caminando, como musk sosteniendo un arma y el personaje animado de disney. escenas, etc., alguna vez encendieron el entusiasmo de los internautas por la vida.

lo que es aún más inesperado es que xai completó la financiación de serie b en mayo de este año, con un monto total de financiación de 6.000 millones de dólares.en el campo de los modelos grandes, esta es la financiación única, sólo superada por openai. el monto total de financiación de openai es de 14 mil millones de dólares, el mayor de los cuales se produjo en enero de 2023, con una inversión masiva de 10 mil millones de dólares de microsoft.

a modo de comparación, antes del financiamiento de xai, el tamaño de financiamiento único solo superado por openai era anthropic, que recibió 4 mil millones de dólares en financiamiento en septiembre de 2023 y 2 mil millones de dólares en financiamiento en octubre, seguido por inflection ai, y su monto de financiamiento único en en junio de 2023 alcanzó los 1.300 millones de dólares.

entre ellos, xai comenzó el último, un año después de su creación, pero no solo ideó un modelo grande que capta firmemente la fortaleza del producto openai, sino que también lo siguió de cerca en términos de escala de financiamiento.

hoy en día, xai se ha convertido en un competidor que openai no puede ignorar, ni siquiera en uno de sus competidores más poderosos.

ya sea una competencia en términos de producto o escala de financiamiento, es una batalla abierta entre los dos. bajo el agua, la batalla oculta por la potencia informática entre xai y openai también continúa ferozmente.

recién el 3 de septiembre, musk anunció en x que colossus (gigante) había sido lanzado oficialmente.

colossus es el súper clúster de entrenamiento de ia de xai, ubicado en el área de memphis, tennessee, y equipado con 100.000 gpu nvidia h100.

además, musk también prometió que en los próximos meses colossus seguirá aumentando su inversión, duplicando el número de gpu y aumentando el número de gpu en todo el clúster a 200.000, incluidas 50.000 nvidia h200.

¿cuál es el concepto de un clúster compuesto por 100.000 nvidia h100?

en pocas palabras, actualmente es el número uno del mundo. para explicarlo con más detalle, dado que las grandes empresas están acaparando gpu, es difícil ver cifras públicas sobre la cantidad real de gpu activas. sin embargo, en junio del año pasado, inflection ai, que recaudó 1.300 millones de dólares, hizo una audaz declaración de que construiría la "supercomputadora más grande del mundo" y estaría compuesta por (sólo) 22.000 nvidia h100. en marzo de este año, meta anunció dos nuevos clústeres de centros de datos, cada uno con 24.000 chips h100. varias empresas están planeando construir una supercomputadora que contenga 100.000 chips nvidia o más, pero solo musk dio un paso al frente y dijo que ya estaba construida.

lo sorprendente del lanzamiento oficial de colossus no es sólo su escala, sino también el tiempo que llevó implementarlo. en palabras de musk, al equipo le tomó sólo 122 días, o 4 meses, construir colossus. en términos generales, se necesitaría un año para construir un grupo de entrenamiento de ia de este tamaño.

musk reveló por primera vez que xai estaba construyendo una "superfábrica de potencia informática" en mayo de este año. en julio, musk anunció que algunas empresas, incluidas xai, x y nvidia, habían comenzado las pruebas. en ese momento, el clúster se llamó "memphis supercluster".

"juega para ganar o no juegues en absoluto".un mensaje x de musk en junio es la mejor explicación de sus ambiciones, y su plan más específico es entrenar "la inteligencia artificial más poderosa del mundo según todos los parámetros" para diciembre de este año.

según el propio musk, se necesitan 20.000 chips nvidia h100 para entrenar grok 2, mientras que entrenar grok 3 puede requerir 100.000 chips h100.

debemos saber que las capacidades de grok 2 están cercanas a las de gpt-4. no es difícil ver que musk quiere trabajar duro esta vez para lograr milagros. también es evidente quién es el objetivo clave para superar a la ia "más poderosa".

estas noticias son, naturalmente, una especie de presión para openai.

según un informe de the information, personas familiarizadas con el asunto revelaron que altman ha expresado su preocupación a los ejecutivos de microsoft porque le preocupa que la potencia informática de xai pronto supere a la de openai.

ultraman tenía muchos motivos para preocuparse.

actualmente, las iteraciones de modelos grandes de openai se limitan a la serie "4". según la clasificación global actualizada por lmsys el 4 de septiembre, la última versión chatgpt-4o de openai se actualizó el 8 de agosto de este año y actualmente ocupa el primer lugar, pero en términos de puntuación integral, no es tan buena como gemini-1.5-pro. grok-2 abre una gran brecha. gpt-4o, que se actualizó el 13 de mayo de este año, ocupa el quinto lugar.

se puede decir que la gente ha estado esperando gpt-5 desde que openai lanzó gpt-4 en marzo del año pasado. el consenso inicial fue que gpt-5 se lanzaría a finales de 2023 o el verano de 2024, pero hace unos meses, mira murati, directora de tecnología de openai, había declarado públicamente que el lanzamiento de gpt-5 podría retrasarse. finales de 2025 o principios de 2026.

el motivo del retraso del gpt-5 probablemente sean "dos deficiencias": potencia informática insuficiente y datos insuficientes. mulati reveló que los parámetros de gpt-5 alcanzarán los 52 billones, un aumento significativo en comparación con los 2 billones de gpt-4.

no sólo el desarrollo de la próxima generación de gpt requiere suficiente potencia informática. en marzo de este año, la organización de investigación de mercado facrorial funds publicó un informe que analiza los recursos de hardware necesarios por openai para implementar sora, creyendo que se espera que sora necesite 720.000 chips nvidia h100 para satisfacer sus necesidades informáticas durante el período pico. este informe también puede explicar por qué sora no ha sido hecho público.

la potencia informática actual de openai proviene principalmente de microsoft o se beneficia de la inversión de microsoft. en 2020, microsoft construyó una supercomputadora que contenía 10.000 tarjetas gráficas para respaldar el trabajo de openai. esta era una de las cinco supercomputadoras más rápidas del mundo en ese momento.

en marzo del año pasado, microsoft anunció nuevos avances en su cooperación con la infraestructura openai. la supercomputadora original de 10.000 cpu se ha actualizado para incluir decenas de miles de chips a100, y el costo del sistema "puede exceder" varios cientos de millones de dólares.

la potencia informática es el punto clave del que más habla ultraman.ya en mayo de 2023, altman se sentó en la sala de audiencias del congreso de los estados unidos y expresó su preocupación por los cuellos de botella en la potencia informática.

este año, la declaración de altman al hablar de potencia informática fue más grandiosa y firme. creía que las dos “monedas” en el futuro serán la potencia informática y la energía: “ésta (la potencia informática) puede ser el bien más preciado del mundo. deberíamos hacer una inversión significativa para hacer más cálculos".

en marzo, ultraman también envió un mensaje x quejándose de que no había suficientes gpu nvidia para respaldar el desarrollo de la ia. se informa que después de eso, openai obtuvo más derechos de uso de servidores de microsoft. a mediados de 2025, oracle y microsoft proporcionarán a openai uno de los clústeres de servidores nvidia más potentes del mundo, con un alquiler anual de aproximadamente 2.500 millones de dólares. .

según un informe de the information, microsoft está planeando más actualizaciones y planea construir múltiples infraestructuras de inteligencia artificial para 2030.

el plan de potencia informática de microsoft y openai se puede dividir en cinco etapas.las dos partes se encuentran actualmente en la tercera fase del plan. la cuarta fase es la supercomputadora que microsoft está construyendo para openai, que se prevé que entre en funcionamiento alrededor de 2026. la autoridad de desarrollo económico de wisconsin dijo que microsoft ha comenzado la construcción para ampliar un centro de datos de mil millones de dólares allí, y personas familiarizadas con el asunto revelaron que el costo final del centro de datos puede llegar a los 10 mil millones de dólares.

la quinta fase es el sensacional proyecto "stargate". el plan fue expuesto por los medios en marzo de este año: microsoft y openai están planeando construir una supercomputadora con "millones" de chips, y el costo del proyecto puede llegar a los 100 mil millones de dólares estadounidenses.

además de intentar obtener más recursos informáticos del mundo exterior, ultraman también entró personalmente en la batalla para intentar hacer avanzar sus ambiciones de chips.ultraman está ansioso por tener chips de desarrollo propio para reducir los costos centrales. actualmente, los chips de inteligencia artificial de alta gama de nvidia no sólo son caros, sino que también tienen pocos recursos.

a principios de este año, salió la noticia de que ultraman quería construir un imperio de chips de 7 billones, pero esto era demasiado ambicioso y descabellado. según varios informes, ultraman ha estado muy activo en cuestiones de chips durante el año pasado y negocia activamente con todas las partes.

por un lado, se trata de investigación y desarrollo de chips. en julio, se informó que openai estaba estableciendo un equipo de chips interno, dirigido por richard ho, ex presidente senior de ingeniería de tpu de google. broadcom, que ha colaborado con google para producir tpu, ya se ha comunicado con el equipo del chip openai. además, los competidores de broadcom también están promocionando sus servicios en openai.

por otro lado está la producción de chips. se dice que altman está negociando con ejecutivos de los principales fabricantes y proveedores de chips, incluido tsmc, para aumentar la capacidad de producción y producir más chips nvidia, o incluso nuevos chips openai. además, es posible que ultraman haya estado en contacto con los fabricantes de chips de memoria samsung y sk hynix a principios de este año.

y el primer paso de ultraman parece llegar pronto. recientemente, el taiwan economic daily informó que openai ordenó el uso del chip a16 de tsmc en sora.el chip a16 es el nodo de proceso más avanzado que tsmc ha revelado hasta ahora. también es el primer paso para que tsmc ingrese al sistema angstrom y se espera que se produzca en masa en la segunda mitad de 2026. además de openai, apple también es uno de los primeros clientes de a16.

la competencia por la potencia informática entre musk y ultraman ya está en pleno apogeo, pero la expansión de la potencia informática requiere algo más que dinero. cada uno tiene su propia "maldición de la ventaja".

musk tiene muchas empresas en sus manos que son su ventaja, entre las que las relacionadas con xai son principalmente x y tesla. x puede proporcionar datos y usuarios a xai, mientras que tesla es más "útil". no solo envía al menos 11 miembros a xai, sino que también puede proporcionar gpu directamente a xai. además, musk ha dicho que xai puede utilizar la gran cantidad de datos visuales recopilados por tesla para entrenar modelos de gran tamaño. en julio de este año, musk incluso publicó una encuesta sobre x, preguntando a los fanáticos si aprobaban que tesla invirtiera 5 mil millones de dólares en xai.

pero "mano izquierda y mano derecha" le brinda comodidad a musk, pero también le trae problemas.

tesla no está en su apogeo. al contrario, las ventas de vehículos eléctricos de tesla son débiles y su nuevo modelo sedán insignia se ha retrasado. los inversores de tesla reaccionaron fuertemente a la “transfusión de sangre” de tesla para xai, con una oposición continua e incluso provocando múltiples demandas.

la controversia obligó a musk, que siempre ha sido un tipo duro, a presentarse para apaciguar a los accionistas de tesla. después de que se conoció la noticia de que musk le había dado prioridad a nvidia en el envío de chips a xai, explicó que tesla no tenía dónde comenzar con los chips y enfatizó que el proyecto de expansión de tesla en el sur de gigatexas se completaría. también reveló que tesla gastaría 3 mil millones en esto. año 4 mil millones de dólares para comprar chips nvidia.

por otro lado, otra ventaja importante que musk ha hecho prosperar a xai es la "independencia". al no "colaborar" con los gigantes tecnológicos, musk y xai ocupan un lugar destacado en la opinión pública. también le ayuda a atraer inversiones y convertirse en una fuerza para controlar y equilibrar a los gigantes.

pero esto también significa que musk no tendrá "financiadores" en empresas de nueva creación como openai, anthropic e inflection, a las cuales los gigantes les han inyectado grandes sumas de dinero en algún momento. el camino hacia la expansión de la potencia informática está pavimentado de oro, y el coste de sólo 100.000 nvidia h100 ronda los 2.500 millones de dólares (a menos que nvidia ofrezca descuentos por volumen).

una de las ventajas de openai es que cuenta con el respaldo de microsoft, que ha sido su patrocinador más importante en los dos años transcurridos desde que la empresa saltó a la fama con chatgpt.

pero hay una sutil vergüenza en la estrecha relación entre openai y microsoft, que ya es un secreto a voces.

la contradicción más directa es que openai y microsoft son socios y compiten entre sí. en otras palabras, los productos de microsoft como copilot y new bing, que están profundamente arraigados en el modelo openai, tienen que competir con el propio openai por los clientes. anteriormente, altman voló a san francisco, nueva york, londres y otros lugares para dar conferencias personalmente a cientos de ejecutivos de empresas fortune 500 para promover los productos y servicios de nivel empresarial de openai.

apenas el 5 de septiembre, openai también anunció con alto perfil que la versión empresarial del servicio de suscripción chatgpt lanzada hace un año ahora tiene más de 1 millón de usuarios pagos.

microsoft ya ha realizado ajustes a nivel estratégico. anteriormente, microsoft adquirió inflection ai disfrazada, absorbió casi todos sus talentos y estableció un equipo interno de inteligencia artificial "microsoft ai" para estar en línea con otros gigantes. en mayo, the information informó que microsoft estaba a punto de lanzar un nuevo modelo de ia, cuyo nombre en código interno es mai-1, con 50 mil millones de parámetros.

permítanme preguntar, si microsoft tiene su propio modelo grande "natural" y su rendimiento es alto, ¿qué razón hay para no reemplazar openai?

además, la estructura de gobierno especial de openai ha colocado una enorme bomba de tiempo en la cooperación entre las dos partes: según el acuerdo, la autorización de openai a microsoft terminará con la llegada de agi.

se esfuerza por proporcionar dinero y potencia informática para promover openai para lograr agi, pero también se promociona a sí mismo para perder openai. esta es una paradoja que enfrenta microsoft.

los clústeres de supercomputación que microsoft y openai ya están construyendo o planean construir implican enormes inversiones financieras. tomemos como ejemplo el "proyecto stargate". el coste del proyecto es de 100.000 millones de dólares, una cantidad inasequible incluso para microsoft. los gastos de capital de microsoft para el año fiscal 2024 (que finaliza el 30 de junio) ascienden a 55.700 millones de dólares.

en el camino hacia la expansión de la potencia informática, openai tendrá que "bloquear" su relación con microsoft o tendrá que encontrar una salida lo antes posible. de lo contrario, lo que le espera a openai será una situación de ". éxito y fracaso".

finalmente, en la competencia por el poder de computación entre musk y ultraman, existe otro obstáculo llamado "energía".

the information estima que las gpu requieren más energía que los chips tradicionales, con un grupo de 100.000 chips que potencialmente requieren 100 megavatios de potencia dedicada. esto es 10 veces la energía consumida por los centros de datos tradicionales y puede alimentar entre 70.000 y 100.000 hogares.

por lo tanto, se ha cuestionado la autenticidad del enorme cúmulo colossus de musk "ya en línea". la compañía eléctrica dijo que xai podrá obtener alrededor de 50 megavatios de electricidad hasta agosto. una central eléctrica en construcción puede proporcionar otros 150 megavatios de electricidad, pero no se realizará hasta 2025.

también se ha especulado que musk está abandonando la compañía eléctrica e intentando alimentar el grupo con generadores de combustibles fósiles, lo que provocó una queja de un grupo ambientalista en memphis, tennessee.

esto no es sólo un problema para xai y openai. según las estadísticas de the infomation, actualmente hay 17 centros de supercomputación en uso o en construcción en 7 estados de estados unidos (excluyendo proyectos como el "proyecto stargate" cuya realización es dudosa, si todos se ponen en funcionamiento, ee.uu. el departamento de energía lo hará. si es demasiado, es posible que no haya suficiente energía.

parece que fue ayer cuando musk y altman tuvieron una disputa verbal, pero ahora han caído en una cautelosa pelea cuerpo a cuerpo. la expansión de la potencia informática a menudo se desarrolla en una gran narrativa, con miles de millones o incluso decenas de miles de millones de dólares de inversión levantando muros de decenas de miles o incluso cientos de miles de chips. pero en el camino, ustedes dos todavía tienen muchos obstáculos que superar.