noticias

Las empresas estrella de la IA luchan por modelos pequeños, el coste se desploma y ahorran más en la factura de la luz, acelerando la popularización de la IA

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Cosas inteligentes (cuenta pública:zhidxcom
Compilado por Meng Qiang
Editor Yunpeng

Según informes de Venture Beat, la semana pasada, Hugging Face, Mistral AI y OpenAI lanzaron sus respectivos modelos pequeños (SLM) el 16 y 18 de julio, prometiendo popularizar las capacidades avanzadas de procesamiento del lenguaje natural. En el pasado, las empresas de tecnología han competido para buscar redes neuronales más grandes y complejas en la vía de los grandes modelos de lenguaje. Venture Beat cree que estos modelos pequeños han abierto nuevas vías y también pueden afectar la forma en que las empresas utilizan las soluciones de IA.

Los modelos pequeños, como sugiere el nombre, generalmente tienen menos parámetros y menores requisitos de recursos informáticos que los modelos de lenguaje grande (LLM). En comparación con los grandes modelos de lenguaje con parámetros a menudo de cientos de miles de millones o incluso billones, los parámetros de los tres nuevos modelos pequeños: SmolLM, Mistral NeMo y GPT-4o mini pueden oscilar entre cientos de millones y decenas de miles de millones, dependiendo del entrenamiento. El consumo de energía es menor que el de los modelos de idiomas grandes. Aunque los tres modelos utilizan diferentes métodos para popularizar la IA, todos tienen un objetivo común: llevar potentes capacidades de procesamiento del lenguaje a más dispositivos y aplicaciones.

1. Cómo los modelos pequeños cambian la informática de punta

Venture Beat cree que SmolLM de Hugging Face es el más innovador de los tres. Está especialmente diseñado para ejecutarse en dispositivos móviles y tiene tres especificaciones: 135 millones, 360 millones y 1,7 mil millones de parámetros, lo que facilita el procesamiento de IA en dispositivos perimetrales y resuelve los problemas clave de privacidad y latencia de los datos.

La importancia de SmolLM va mucho más allá de mejorar la eficiencia. Permitir que los dispositivos periféricos utilicen procesamiento de IA puede permitir que las aplicaciones del dispositivo se ejecuten con baja latencia y alta protección de la privacidad. En el pasado, muchas funciones complejas de IA no se podían realizar debido a problemas de privacidad o conexión. Con SmolLM, estas funciones pueden convertirse en una realidad.

Además, Mistral AI lanzó el modelo Mistral NeMo, que tiene 12 mil millones de parámetros y una ventana de contexto de hasta 128k. Mistral NeMo está dirigido a computadoras de escritorio y se posiciona entre los grandes modelos de nube y la IA móvil ultracompacta. El primero es un modelo de IA a gran escala entrenado y ejecutado en una plataforma de computación en la nube, mientras que el segundo es un dispositivo móvil con recursos limitados. como un teléfono móvil) y dispositivos portátiles).

Venture Beat dijo que el método informático de Mistral NeMo puede traer cambios considerables al campo empresarial. El modelo tiene el potencial de aprovechar el hardware de consumo para democratizar capacidades complejas de IA que alguna vez fueron dominio exclusivo de los gigantes tecnológicos y las instituciones de investigación bien financiadas. Esto puede ayudar a varias industrias a popularizar las aplicaciones impulsadas por la IA, como optimizar el servicio al cliente y proporcionar herramientas de análisis de datos más sofisticadas.

2. El eficiente modelo pequeño GPT-4o mini de OpenAI tiene un precio atractivo

OpenAI también se unió a la competencia de modelos pequeños con el lanzamiento del GPT-4o mini, considerado el modelo pequeño más rentable del mercado. La entrada solo cuesta 15 centavos por millón de tokens y la salida 60 centavos por millón de tokens. Venture Beat afirma que GPT-4o mini reduce en gran medida el acceso a los fondos de integración de IA.

Más allá de eso, la estrategia de precios de GPT-4o mini podría generar una nueva ola de innovación impulsada por la IA, especialmente entre las nuevas empresas y las pequeñas empresas. Al reducir significativamente el costo de la integración de la IA, este modelo reduce efectivamente la barrera de entrada para la adopción de soluciones impulsadas por la IA. Ventrue Beat cree que esto puede acelerar la innovación tecnológica y la reforma en múltiples industrias. Además, este cambio hacia modelos más pequeños refleja nuevas tendencias en la comunidad de IA: los investigadores y desarrolladores se centran cada vez más en la eficiencia, la accesibilidad y las aplicaciones de nicho. Esta tendencia puede conducir a soluciones de IA más específicas y eficientes optimizadas para tareas e industrias específicas.

3. Los modelos pequeños promueven la innovación en tecnología verde y reducen la huella de carbono de la tecnología.

El cambio hacia modelos más pequeños también se alinea con las crecientes preocupaciones sobre el impacto ambiental de la IA. El entrenamiento y la operación de modelos pequeños consumen menos energía, lo que puede reducir la huella de carbono de la tecnología de inteligencia artificial. A medida que las empresas de tecnología enfrentan una presión cada vez mayor para ser sostenibles, Venture Beat cree que el bajo consumo de energía y las bajas emisiones del modelo pequeño podrían convertirse en un importante punto de venta.

Las implicaciones ambientales de este cambio hacia modelos más pequeños podrían ser profundas. A medida que la IA se vuelve más prevalente, el ahorro de energía derivado de la proliferación de modelos más eficientes podría ser enorme. Esto puede permitir que la IA asuma un papel de liderazgo en la innovación verde en lugar de seguir contribuyendo al calentamiento global.

Sin embargo, el auge de los modelos pequeños no está exento de desafíos. A medida que la IA se vuelve más ubicua, las cuestiones de prejuicio, responsabilidad y uso ético se vuelven más apremiantes. Si no se regula, la difusión de la IA a través de modelos pequeños podría amplificar los sesgos existentes o crear nuevos dilemas éticos. Para los desarrolladores y usuarios de modelos pequeños, además de las capacidades técnicas, también se deben priorizar las cuestiones éticas.

Conclusión: el futuro del desarrollo de la IA apunta a la diversificación y la especialización

Aunque los modelos pequeños tienen ventajas en términos de eficiencia y generalización, es posible que su potencia de procesamiento no coincida con la de los modelos de lenguaje grandes en muchas tareas debido a limitaciones en la cantidad de parámetros. Venture Beat dijo que esto muestra que en el futuro panorama de desarrollo de la IA, habrá modelos de lenguaje de varios tamaños y los modelos más pequeños tendrán aspectos específicos en los que serán buenos.

De cara al futuro, esperamos ver florecer el desarrollo de modelos de IA, ya sea un modelo de lenguaje grande o un modelo pequeño, no es aconsejable un enfoque único. La clave es encontrar un equilibrio entre el tamaño del modelo. requisitos de rendimiento y aplicaciones específicas. Para las empresas y los tomadores de decisiones técnicas, estos tres pequeños modelos representan un cambio hacia soluciones de IA más eficientes, profesionales y desplegables, brindando nuevas posibilidades para la integración de la IA en entornos empresariales. En cuanto a si los modelos pequeños pueden reemplazar el actual dominio de los modelos grandes en la nube, todavía es demasiado pronto para sacar conclusiones.

Fuente: VentureBeat