noticias

¡GPT-4o mini domina la clasificación y se puede ajustar por un tiempo limitado de 2 meses sin costo alguno!Cada día se recogen 2 millones de tokens de entrenamiento de forma gratuita

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuevo informe de sabiduría

Editor: Taozi

[Introducción a la Nueva Sabiduría] Si bien la bestia Llama 3.1 405B era de código abierto, OpenAI volvió a robarse el protagonismo. A partir de ahora, se utilizarán 2 millones de tokens de entrenamiento para ajustar el modelo de forma gratuita todos los días hasta el 23 de septiembre.

El mismo día que se abrió Llama 3.1, también se abrió OpenAI.


GPT-4o mini se puede ajustar de forma gratuita y se pueden usar 2 millones de tokens de entrenamiento todos los días durante un tiempo limitado de 2 meses (a partir del 23 de septiembre).


Los desarrolladores que recibieron el correo electrónico se apresuraron a decirse con entusiasmo que un trozo de lana tan grande debía cosecharse lo antes posible.


Por otro lado, también salió a la luz la clasificación del GPT-4o mini en el ámbito de los modelos grandes LMSYS.

En la lista general, GPT-4o mini y GPT-4o empataron en el primer lugar.


Altman dijo con entusiasmo: "Nunca había estado tan entusiasmado con una evaluación. El rendimiento del GPT-4o mini es tan cercano al del GPT-4o, ¡y el precio es solo la 1/20!"


Al mismo tiempo, dijo que el ajuste fino del GPT-4o mini ya está en línea.


Es realmente inesperado que OpenAI pueda lanzar un modelo tan poderoso para que todos lo utilicen de forma gratuita.

Los internautas alguna vez pensaron que este podría ser el correo electrónico de phishing más avanzado.


2 millones de tokens por día, mini ajuste fino gratuito GPT-4o

En el correo electrónico, OpenAI anunció que lanzó oficialmente la mini función de ajuste fino GPT-4o para que el último modelo pequeño funcione mejor en casos de uso específicos.

Del 23 de julio al 23 de septiembre, los desarrolladores podrán utilizar 2 millones de tokens de formación de forma gratuita todos los días.


El exceso se cobrará en tokens de 3 millones de dólares.

Una vez que expiren los 2 meses de uso gratuito, la capacitación de ajuste también se cobrará a 3 millones de dólares por token.


Además, OpenAI proporcionó en el correo electrónico las razones por las que vale la pena que todos cambien de GPT-3.5 Turbo a GPT-4o mini:

- Más asequible: la tarifa del token de entrada de GPT-4o mini es un 90% menor que la del GPT-3.5 Turbo, y la tarifa del token de salida es un 80% menor. Incluso después de que finalice el período gratuito, el costo de capacitación de GPT-4o mini es la mitad que el de GPT-3.5 Turbo.


- Contexto más largo: la longitud del contexto de entrenamiento de GPT-4o mini es de 65k Tokens, 4 veces mayor que la de GPT-3.5 Turbo, y la longitud del contexto de inferencia es de 128k Tokens, que es 8 veces mayor que la de GPT-3.5 Turbo.

- Más inteligente y más capaz: GPT-4o mini es más inteligente que GPT-3.5 Turbo y admite funciones visuales (aunque el ajuste fino actualmente se limita al texto).


Finalmente, el correo electrónico también menciona que la función de mini ajuste fino GPT-4o estará abierta a clientes empresariales, así como a desarrolladores de Nivel 4 y Nivel 5, y que los derechos de acceso se ampliarán gradualmente a todos los niveles de usuarios en el futuro.


Para aquellos que quieran ponerse manos a la obra, OpenAI ha publicado una guía de ajuste, consulte:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Algunos internautas no son optimistas al respecto y están guardando nuestros datos para entrenar y mejorar los modelos de IA.


"AKA, dame tus datos privados y te cobraré una pequeña tarifa".


Casos de uso de internautas

Los internautas que obtuvieron las calificaciones están ansiosos por comenzar a realizar las pruebas.

Los desarrolladores perfeccionaron el gpt-4o mini utilizando un conjunto de datos de titulares al estilo de The Economist.



Luego comparó el rendimiento del modelo original gpt-4o, gpt-4o min y el modelo ajustado en la generación de titulares.


Los modelos pequeños dominan la lista, comparables al GPT-4o

Una semana después del lanzamiento del GPT-4o mini, finalmente se conocen los resultados en la clasificación de modelos grandes.

Se recibió un total de más de 4K votos de usuarios y el modelo mini GPT-4o subió directamente a la cima de la lista, empatado en el primer lugar con GPT-4o.

¡Lo más importante es que es 20 veces más barato!


Esta es una buena noticia para muchos desarrolladores, que pueden crear aplicaciones más potentes a un costo menor.


En la subdivisión matemática, el rendimiento del GPT-4o mini ha disminuido y ocupa el noveno lugar.


Además, en la evaluación rigurosa, el GPT-4o mini aún mantuvo un rendimiento estable, solo superado por el GPT-4o y el Claude 3.5 Sonnet.


En el campo de la codificación, GPT-4o mini también muestra fuertes capacidades.


Mucha gente ha planteado preguntas sobre por qué GPT-4o mini ocupa un lugar tan alto en Arena.


La explicación oficial para esto es:

- Chatbot Arena se evalúa en función de las preferencias humanas en diferentes áreas. Se anima a todos a seguir no sólo las clasificaciones generales, sino también las clasificaciones en cada categoría (por ejemplo, matemáticas, codificación, etc.).

- La evaluación de la arena se realiza en tiempo real. Se anima a todos a comparar modelos en persona en Arena y verificar sus suposiciones en tiempo real.

- La transparencia es nuestro valor principal; todo el código y el análisis son de código abierto (http://github.com/lm-sys/FastChat). Publicamos periódicamente el 20 % de los datos y conservamos los datos restantes para evitar el sobreajuste y mantener la integridad del punto de referencia.

- Publicaremos datos de mini batalla aleatorios del 20 % de GPT-4o de acuerdo con la política, y podrás comprobar las respuestas por ti mismo.

Sin embargo, otros internautas creen que la victoria de gpt-4o-mini es una prueba sustancial de que la gente corriente no es tan inteligente.

Y, por primera vez en la historia, la IA se ha vuelto lo suficientemente inteligente como para engañarnos. Un poco loco y un poco histórico.



Referencias:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641