noticias

iFlytek invertirá 400 millones de dólares de Hong Kong para centrarse en el desarrollo de grandes modelos de lenguaje Nvidia Mistral AI;

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Noticias financieras de hoy

iFlytek invertirá 400 millones de dólares de Hong Kong en Hong Kong y establecerá una sede internacional

iFlytek anunció un plan de inversión de cinco años de 400 millones de dólares de Hong Kong y estableció una sede internacional en Hong Kong. La compañía dijo que este plan de inversión la ayudará a formar un equipo de I+D de 150 personas para centrarse en el desarrollo de grandes modelos de lenguaje, así como aplicaciones de inteligencia artificial en áreas como el habla inteligente, la educación y la atención médica. Duan Dawei, vicepresidente de iFlytek, dijo: "Nuestro presupuesto inicial es de 400 millones de dólares de Hong Kong. Si todo va bien en Hong Kong, esta cifra aumentará (South China Morning Post).

Shell Intelligence recibió una inversión estratégica de 120 millones de RMB de Tianyang Technology Investment

Shell Intelligence es una empresa de inteligencia artificial comprometida con la innovación. Tiene múltiples modelos básicos de lenguaje grande, como modelos grandes generales, modelos grandes de código, modelos grandes de gráficos y texto multimodales y modelos grandes de voz multimodal que son adecuados para una implementación rápida. por empresas nacionales.

Tianyang Technology firmó el "Acuerdo de inversión sobre Beijing Shell Intelligent Technology Co., Ltd." con Benghu Chuang, Bengshell Consulting, Bengshell Management y Benghu Chuangzhi, invirtiendo 120 millones de yuanes en Bengshell Intelligent y suscribiéndose a Bengshell Intelligent New Technology Co., Ltd. El capital social se incrementará en 870.000 RMB y los 119 millones de RMB restantes se incluirán en el fondo de reserva de capital para obtener el 8% del capital social de clamshell Intelligence una vez completado el aumento de capital.

Gantu Technology, un desarrollador de productos y tecnología de visión por computadora, recibió cientos de millones de yuanes en financiación de la ronda C2

Sentu Technology es un desarrollador de tecnología y productos de visión por computadora. Su negocio principal es aplicar la tecnología de visión por computadora a escenarios de inspección de apariencia de precisión. Actualmente, Gantu Technology se centra en el control de calidad inteligente y la gestión del rendimiento en el campo de la fabricación de alta gama, y ​​proporciona soluciones inteligentes integrales para la fabricación de alta gama a través de su marco de IA subyacente y sus tecnologías centrales desarrolladas de forma independiente. Gantu Technology completó cientos de millones de yuanes en la ronda de financiación C2. Esta ronda de financiación contó con el apoyo de fondos industriales del gobierno local y recibió apoyo crediticio de varios bancos. (comunidad inversora)

La plataforma de pagos B2B liderada por IA, Slope, obtiene 65 millones de dólares en financiación estratégica de capital y deuda

Slope, una plataforma de pagos B2B impulsada por IA, ha recibido 65 millones de dólares en financiación estratégica de capital y deuda de JPMorgan Chase. Y Combinator, Notable Capital, Jack Altman y el nuevo fondo Saga de Max Altman también participaron en la ronda.

Planned, un proveedor de soluciones integrales para viajes y actividades, recauda 35 millones de dólares en financiación Serie B

Fundada en 2017, Planned es una empresa de servicios "desde el origen hasta el pago" que acelera los viajes y las actividades a través de la tecnología. La empresa combina servicios humanos con inteligencia artificial para brindar servicios personalizados de compras y reservas para clientes como PwC, Block, AWS e Instacart.

Esta ronda de financiación estuvo liderada por Drive Capital, con la participación de Outsiders Fund y otras dos empresas. Además de anunciar la financiación, Planned también incorporó a su junta directiva al director ejecutivo y cofundador de Hopper, Frederic Lalonde, ex vicepresidente de Expedia.

La empresa de automatización del ciclo de ingresos impulsada por IA Thoughtful AI recauda 20 millones de dólares en financiación

Thoughtful Automation Inc., una startup de gestión del ciclo de ingresos impulsada por IA centrada en la industria de la salud, ha lanzado tres agentes de IA: CAM, EVA y PHIL para manejar el procesamiento de reclamos, la verificación de elegibilidad del paciente y la publicación de pagos, respectivamente. La ronda fue liderada por Nick Solaro de Drive Capital, con la participación de TriplePoint Capital.

El proveedor de nube de GPU SF Compute recibe 12 millones de dólares en financiación liderada por Alt Capital

SF Compute, fundada por Evan Conrad y su compañero de cuarto Alex Gajewski, quienes trabajaron en la aceleradora de startups OpenAI y AI Grant, anunció que recibió 12 millones de dólares en financiamiento liderado por Alt Capital, fundada por el hermano de Sam Altman, con una valoración de US 70 millones de dólares.

Debido a la falta de potencia informática suficiente en el mercado, es difícil para las empresas emergentes obtener las grandes cantidades de semiconductores necesarios para la IA. SF Compute espera ayudar a las empresas emergentes a obtener estos recursos y crear una plataforma de comercio de potencia informática actualmente. Recibimos 8.000 pedidos del H100 para iniciar este proyecto. (Hay nuevo Newin)

Gafas de guía con IA.lumen completa una financiación de 5 millones de euros

.lumen se compromete a crear tecnología que cambie vidas. Fundada por Cornel Amariei, su producto estrella .lumen Glasses y la tecnología de inteligencia artificial subyacente brindan independencia y seguridad a las personas con discapacidad visual. Las gafas para ciegos de .lumen utilizan la tecnología de conducción autónoma de peatones (PAD AI) para imitar las funciones de un perro guía. .lumen ha recaudado 5 millones de euros en una ronda de financiación de la empresa de inversión y gestión de capital SeedBlink. (Zpotenciales)

El servicio de atención al cliente de IA Xinlian Times recibió 20 millones de yuanes en financiación de ronda ángel

Basado en tecnología de inteligencia artificial, Xinlian Times ofrece a las empresas productos y servicios inteligentes, que cubren servicio al cliente inteligente, marketing inteligente y otros campos. Esta ronda de financiación fue liderada por United Capital Co., Ltd.

El proveedor de motores de IA Artificial.Agency completa una ronda de financiación inicial multimillonaria

Artificial.Agency se fundó en 2023 y se centra en proporcionar motores de comportamiento basados ​​en IA a creadores y estudios de juegos. El motor integra decisiones de tiempo de ejecución en la dinámica del juego para ofrecer una experiencia dinámica a los jugadores. Los inversores incluyen BDC Venture Capital, Kaya, Radical Ventures, TIRTA Ventures y Toyota Ventures.

La empresa de IA generativa EdgeRunner AI completa una ronda de financiación inicial de 5,5 millones de dólares

EdgeRunner AI está diseñado para crear IA generativa segura, confiable y transparente para el borde. La empresa desarrolla modelos de lenguaje pequeños, ultraeficientes y para tareas específicas que se ejecutan sin acceso a Internet, mejorando la privacidad, la seguridad y el cumplimiento de los datos. Esta ronda de financiación fue liderada por Four Rivers Group, con la participación de Madrona Ventures e inversores ángeles estratégicos.

La plataforma de edición de IA Edit Cloud obtiene una financiación de £2 millones

Edit Cloud es un proveedor de plataforma de edición de inteligencia artificial basada en la nube con sede en Londres, Reino Unido, que ofrece una plataforma de producción en la nube diseñada para crear contenido de alta calidad a través de tecnología de inteligencia artificial. También reúne herramientas basadas en la nube para permitir que los equipos trabajen juntos de manera eficiente. Esta ronda de financiación fue liderada por Edge, con inversores ángeles como Simon Ward y Justin Cooke.

La plataforma de desarrollo de grandes modelos de IA Arcee.ai completa la financiación Serie A

Arcee.ai se fundó en febrero de 2023 y se compromete a desarrollar un sistema de modelo de lenguaje adaptable al dominio, con el objetivo de proporcionar un LLM personalizado para dominios específicos e integrar perfectamente DALM con las operaciones comerciales para lograr una toma de decisiones basada en datos y conocimientos de valor efectivos. El sistema de la empresa no sólo ayuda a los clientes a obtener un LLM, sino que también crea un sistema auténtico y confiable. Los inversores en esta ronda incluyen Center Street Partners, Emergence, Flybridge Capital y Journey Ventures. (millones de euros)

La empresa de inteligencia artificial Nobikan completó la ronda de financiación D+

Nobikan se centra en aplicar tecnología avanzada de inteligencia artificial y tecnología de gemelos digitales a escenarios abiertos de alta complejidad, proporcionando productos de inteligencia artificial altamente universales y orientados a la operación y mantenimiento del transporte ferroviario, energía inteligente, ciudades inteligentes, entornos inteligentes, etc. Soluciones industriales en el campo . El inversor de esta ronda es Peikun Investment.

Ingemar Robot Technology recibió inversión estratégica del Centro Nacional de Supercomputación de Wuxi

EnigmaRobotics es una empresa de nueva creación fundada en 2023 que se centra en el desarrollo y promoción de robots acompañantes inteligentes, modelos integrales multimodales y sus aplicaciones. El Centro Nacional de Supercomputación Wuxi anunció una inversión estratégica en Ingmar Robotics Technology.

La plataforma de financiación de crédito impulsada por IA New Frontier Funding recibe inversión

New Frontier Funding se compromete a utilizar IA generativa para ayudar a las pequeñas y medianas empresas a encontrar financiación de crédito y deuda. La empresa utiliza sus datos patentados y afina el modelo de lenguaje de OpenAI para la búsqueda semántica y los flujos de trabajo de los agentes para reducir el trabajo administrativo y con precisión. Los prestatarios se emparejan con los prestamistas. Actualmente cerrando una ronda de financiación de capital de crecimiento para Homsher Family Office. El monto de la transacción no fue revelado.

Edge Innovation recibe una inversión de la ronda ángel

El escenario de aplicación principal de Edge Innovation es utilizar sensores multimodales + tecnología de inteligencia artificial para cuantificar los datos de los pacientes mentales durante el proceso de diagnóstico y tratamiento, mejorar la eficiencia del tratamiento de los psiquiatras y centrarse en los cambios de los músculos faciales, la frecuencia cardíaca y la respiración. y otros indicadores. Recientemente, recibió una inversión ángel de Qiji Chuangtan. El director ejecutivo Zhao Zihe se graduó de la Universidad de Ciencia y Tecnología de Hong Kong y es un emprendedor en serie. Tiene una amplia experiencia en el desarrollo de algoritmos robóticos y en investigación y desarrollo de productos, y ha trabajado en DJI.

Galaxy General, un desarrollador de robots multimodales a gran escala, recibió inversión de una empresa de inversión de Hong Kong

Galaxy General es un desarrollador de robots multimodal a gran escala que se centra en la fabricación de robots con AGI integrado y proporciona robots de uso general en todo el mundo. Hong Kong Investment Management Co., Ltd., la "versión de Hong Kong de Temasek", anunció su inversión en "Galaxy General". El monto de la inversión no fue revelado. En junio anterior, Galaxy General Motors había recibido 700 millones de yuanes en financiación ángel de los principales inversores estratégicos e industriales, como Meituan-Dianping Venture Capital, BAIC Industrial Investment, SenseTime Guoxiang Fund, iFlytek Fund, etc. Light Source Capital sirvió como financiero exclusivo. Asesor y participó en Invest Early.

(Bienvenido a agregar AIyanxishe2 en WeChat para obtener más información sobre AIGC y las condiciones financieras, y charlar sobre los productos Shixin AI con amigos de ideas afines)

Los rumores de las grandes fábricas de hoy

Nvidia Mistral AI lanza conjuntamente el modelo pequeño Mistral Nemo con parámetros 12B, aplastando el tiempo de ejecución de Llama 3 single 4090

NVIDIA colaboró ​​con Mistral AI para lanzar un nuevo modelo pequeño de IA, Mistral NeMo, que tiene 12 mil millones de parámetros y admite contexto de 128K, derrotando a modelos similares Gemma 2 9B y Llama 3 8B en múltiples pruebas comparativas. Mistral NeMo está diseñado para servir a los usuarios empresariales, facilitando la personalización e implementación de aplicaciones empresariales que admitan chatbots, tareas multilingües, codificación y resumen. Los modelos Mistral NeMo ofrecen alto rendimiento, compatibilidad, facilidad de uso y pueden ser reemplazos directos para cualquier sistema que utilice Mistral 7B. El modelo utiliza el formato de datos FP8 para la inferencia, lo que reduce el tamaño de la memoria y acelera la implementación manteniendo la precisión. Mistral NeMo también admite aplicaciones en varios idiomas y tiene un eficiente segmentador de palabras Tekken, que mejora la eficiencia del procesamiento de múltiples idiomas. Además, Mistral NeMo está listo para ejecutarse en cualquier lugar, incluida la nube, el centro de datos o la estación de trabajo RTX, y los desarrolladores pueden probar Mistral NeMo utilizando mistral-inference.

Los modelos grandes de Xiaomi Xiaoai están a punto de actualizarse por completo: todo de forma gratuita y serán totalmente compatibles con teléfonos móviles, tabletas y televisores a finales de este mes.

Los modelos grandes de Xiaomi Xiaoai recibirán una actualización completa y todos serán gratuitos. El modelo actualizado será más inteligente, admitirá preguntas y respuestas inteligentes, creación y otras funciones, y mejorará la experiencia de chat. La compatibilidad con el nuevo modelo estará disponible en dispositivos como teléfonos, tabletas y televisores a finales de julio. La versión para teléfonos móviles y tabletas es V6.126.5 y la versión para TV es V4.30.1. La capacidad de memoria debe ser superior a 1G. Los parlantes sin pantalla se actualizarán a fines de agosto y los parlantes con pantalla se actualizarán a fines de octubre. (Tecnología rápida)

Apple lanza el modelo DCLM-7B de código abierto con rendimiento súper Mistral-7B

Apple lanzó el modelo de código abierto DCLM-7B en Hugging Face. Las prestaciones de este modelo han superado al Mistral-7B y se acercan al Llama 3 y Gemma. Los recursos de código abierto para el modelo DCLM-7B incluyen pesos de modelo, código de entrenamiento y conjuntos de datos previos al entrenamiento. El equipo de investigación propuso un nuevo DCLM de referencia para evaluar el rendimiento de modelos de lenguaje grandes, especialmente en el dominio multimodal. El punto de referencia DCLM emplea un marco experimental estandarizado, que incluye arquitectura de modelo fijo, código de entrenamiento, hiperparámetros y evaluación, para identificar las estrategias de manipulación de datos más adecuadas para entrenar modelos de alto rendimiento. El modelo DCLM-7B utiliza una solución de preentrenamiento basada en el marco OpenLM y su precisión de 5 disparos en el punto de referencia MMLU alcanza el 64%, lo que es comparable a Mistral-7B-v0.3 y Llama 3 8B, pero el requerido El monto del cálculo es solo Llama 3 1/6 de 8B.

Google y el fabricante Ray-Ban desarrollan gafas inteligentes equipadas con el modelo Gemini AI

Google se ha puesto en contacto con EssilorLuxottica (la empresa detrás de la marca Ray-Bans) y planea cooperar en la producción de las gafas inteligentes Gemini. EssilorLuxottica ha cooperado anteriormente con Meta Company para lanzar dos generaciones de gafas inteligentes Ray-Ban Meta, y la última noticia es que Meta planea gastar miles de millones de dólares para adquirir aproximadamente el 5% de las acciones de EssilorLuxottica. (El borde)

Noticias de productos de hoy

Lista caliente de búsqueda de productos, Flow Studio

Flow Studio es una herramienta desarrollada por el equipo de Flow GPT que puede convertir texto en videos cortos de alta calidad. La plataforma fue desarrollada conjuntamente por Lifan Wang, Sam Xu, Qianhua Ge, Jay Dang y Luke Pioneero y se lanzó en Product Hunt el 18 de julio de 2024. Lo más destacado de Flow Studio es su capacidad de generar automáticamente un video completo que incluye historia, doblaje, música de fondo y efectos de sonido a través de un único mensaje de texto, lo que simplifica enormemente el proceso de producción de video. Flow GPT está altamente valorado por los usuarios, con una puntuación media de 4,9/5 estrellas.

El fundador Jay Dang estudió informática en la Universidad de California, Berkeley. Es el fundador de FlowGPT, Markit AI y LUUM. También ha trabajado como científico de datos e investigador independiente en C. Light Technologies, Inc. y Glaucomark.

?https://flowgpt.com/flow-studio?ref=producthunt

GitHub Trending Hot List, Langflow, un marco para crear RAG y múltiples agentes

Langflow es un marco visual diseñado para ayudar a los desarrolladores a crear aplicaciones RAG y multiagente. El proyecto está desarrollado en base a Python, es de código abierto, se puede personalizar completamente y admite diferentes modelos de lenguaje y almacenamiento vectorial. Los usuarios pueden instalar Langflow a través de pip y deben asegurarse de que la versión de Python instalada en el sistema sea al menos 3.10. El proyecto proporciona documentación detallada y guías de implementación.

https://github.com/langflow-ai/langflow

Atención especial

Yi Tay, ex investigador principal de Google Brain y cofundador de Reka AI, explica: ¿Por qué no hemos visto más extensiones de modelos de codificadores después de BERT?

Yi Tay es el cofundador y científico jefe de Reka AI, que ha recaudado 100 millones de dólares en financiación. Trabajó en modelos de lenguaje a gran escala e investigación de inteligencia artificial en Google Brain. Desde 2020 hasta principios de 2023, estuvo profundamente involucrado en la mayoría de los modelos de lenguaje a gran escala y el trabajo multimodal. Ha ganado premios al mejor artículo en conferencias ICLR y WSDM, y fue profesor invitado en el curso CS25 de la Universidad de Stanford.

Yi Tay publica el primero de una serie de blogs en la plataforma X, con el objetivo de explorar la arquitectura de modelos en la era de los grandes modelos de lenguaje. Se analizan varias arquitecturas, incluido el codificador Transformer, el codificador-decodificador, PrefixLM y los objetivos de eliminación de ruido. Yi Tay citó una pregunta común sobre por qué no hemos visto más extensiones de modelos de codificador después de BERT y el destino de los modelos codificador-decodificador o solo codificador. También cuestionó la eficacia de eliminar objetivos y compartió sus pensamientos en una publicación de blog.

El blog mencionó por primera vez la confusión en el campo del procesamiento del lenguaje natural sobre la desaparición de los modelos de codificador en los últimos años, así como el desarrollo de modelos como BERT y T5. Se enfatizan las diferencias y conexiones entre los modelos codificador-decodificador, modelos solo codificador y modelos solo decodificador, y se señalan las características de la arquitectura PrefixLM. Se explica con más detalle el concepto de objetivos de eliminación de ruido, incluidos los métodos de eliminación de ruido "in situ" estilo BERT y de secuencia a secuencia estilo T5, y se analizan las ventajas y desventajas de los objetivos de eliminación de ruido.

Yi Tay también analizó el costo computacional de los modelos de codificador-decodificador y por qué los modelos de estilo BERT se están eliminando gradualmente. Y señaló que los objetivos de eliminación de ruido a menudo son complementarios de los modelos de lenguaje causales y desempeñan un papel en el entrenamiento previo de modelos de lenguaje grandes. Además, también se discute el papel de los mecanismos de atención bidireccional en modelos de diferentes tamaños. Finalmente, Yi Tay resumió las ventajas y desventajas de la arquitectura codificador-decodificador y enfatizó la importancia de comprender el sesgo inductivo y las estrategias de preentrenamiento, así como las razones por las que el modelo BERT fue reemplazado por el modelo T5 más flexible.

https://www.yitay.net/blog/model-architecture-blogpost-encoders-prefixlm-denoising

¡Estén atentos a las últimas actualizaciones mañana!

leifeng.com