noticias

se revela que el misterioso modelo "strawberry" de openai se lanzará en dos semanas. se necesitarán más de diez segundos para responder la pregunta y el precio de la suscripción puede ser 10 veces más caro.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

el mes pasado, altman, director ejecutivo de openai, acaparó muchos titulares con una foto de fresas. ahora bien, tal vez el modelo de la fresa realmente vaya a "madurar".

según the information, como parte del servicio chatgpt,openai planea lanzar el modelo "strawberry" dentro de dos semanas.

por supuesto, el informe también indica que la fecha de lanzamiento final puede cambiar, así que proceda con precaución.

el informante confiable @apples_jimmy cree que se espera que el modelo fresa se lance esta semana.

y también dijo que se espera que openai lance un nuevo modelo llamado versión gpt-4.x en octubre, que podría llamarse gpt-4.5.

en cuanto al modelo gpt-5 más potente, escuché que podría lanzarse en diciembre, pero para estar seguro, le sugiero que lo espere en el primer o segundo trimestre de 2025.

la información informa que no está claro en qué forma se lanzará el modelo fresa.una posibilidad es que el modelo de fresa sea un producto independiente.

otra posibilidad es que el modelo fresase integrará en el menú de selección de modelo de chatgpt., los usuarios pueden cambiar entre diferentes modelos de servicios a voluntad.

informes anteriores también mencionaron que la mayor diferencia entre el modelo fresa y otros modelos es quesabe "pensar" antes de responder una pregunta.

además, el modelo fresa no sólo funciona bien en matemáticas y programación, sino que si se le da más tiempo para "pensar", también puede responder preguntas de los clientes sobre temas subjetivos, como las estrategias de marketing de productos.

la información dice,el tiempo de reflexión del modelo fresa suele durar de 10 a 20 segundos, lo que tiene la ventaja de ayudar a reducir los errores.

y debido a que el modelo fresa dedica más tiempo a pensar, esto le permite darse cuenta de cuándo necesita hacer más preguntas al cliente para comprender completamente las necesidades del usuario.

además, el modelo fresa también tiene algunas diferencias con el modelo gpt-4o. por ejemplo, su versión original.no tiene las capacidades multimodelo de gpt-4o, solo puede recibir y generar respuestas de texto, pero no puede procesar imágenes.

the information cree que esto puede deberse a que los competidores también están lanzando productos similares, por lo que incluso si este producto no es perfecto en algunos aspectos (como no poder procesar imágenes), openai solo puede acelerar el ritmo de lanzamiento.

al respecto, el denunciante @apples_jimmy también mencionó, anthropic y google también están preparando en secreto sus nuevos modelos,y planea lanzarlo en el momento de las elecciones estadounidenses.

es más, el precio de la suscripción ha despertado repetidamente las emociones de los usuarios.

chatgpt lanzó un nuevo nivel pago, chatgpt pro, y ya lo ha ofrecido a algunos usuarios.precio de $200/mes, diez veces más caro que los actuales 20 dólares al mes.

de ser cierto, esto también puede reflejar los informes antes mencionados sobre el modelo de fresa.

la información también señaló que el modelo fresa puede estar limitado en la cantidad de veces que un usuario puede usarlo por hora como chatgpt plus, mientras que los modelos con precios de suscripción más altos tendrán una mejor capacidad de respuesta.

al cierre de esta edición, openai no ha respondido a este asunto.

capa por capa, corta las "fresas"

¿qué significa para nosotros el modelo “fresa” de openai?

de hecho, el predecesor de strawberry model es "q*", una existencia misteriosa que causó revuelo a finales del año pasado.

en noviembre pasado, sam altman fue expulsado de la junta directiva sin previo aviso. incluso fue notificado en la reunión, lo que conmocionó a toda la empresa y a todo el sector.

la razón dada por la junta directiva en ese momento fue que él y el equipo no pudieron llegar a un acuerdo sobre seguridad y gestión de riesgos. y este riesgo estaba relacionado en aquel momento con el proyecto ultrasecreto "q*".

este proyecto fue dirigido originalmente por ilya sutskever. ahora dejó openai para iniciar un negocio relacionado con la seguridad de la ia. teniendo en cuenta que musk dijo una vez que este proyecto "representa una amenaza para la humanidad", es difícil no preguntarse qué está pasando aquí.

anteriormente, the information y reuters hicieron todo lo posible para obtener información privilegiada, pero al final sólo pudieron confirmarla.la capacidad de operación matemática es el foco de "q*"

imagen de: reuters

el modelo grande es bueno en "literatura" y puede manejar el lenguaje y el texto con habilidad. básicamente está a la par de los humanos. pero las operaciones matemáticas nunca han sido muy buenas. aunque "q*" alguna vez provocó un gran cambio en openai, según reuters, su rendimiento en ese momento era aproximadamente el nivel informático de un estudiante de escuela primaria.

la información de última hora conocida actualmente muestra que ya existen proyectos dentro de openai que pueden lograr una precisión del 90% en operaciones matemáticas, lo cual es una mejora sorprendente.

imagen de: reuters

permítanme enfatizar: actualmente es imposible confirmar qué paso ha alcanzado "strawberry".

solo se puede decir que si se utiliza "strawberry" como una versión mejorada de "q*", existe una alta probabilidad de que sea un proyecto que continúe buscando avances en matemáticas e informática.

la relación entre "cálculo matemático" y "razonamiento" no puede equipararse directamente, pero revela las ambiciones de openai.

siempre hablo de razonamiento, ¿de qué estás hablando exactamente?

entonces, ¿qué es exactamente el “razonamiento”?

estas dos palabras obviamente tienen una definición muy amplia en la realidad. a principios de este año, un equipo dirigido por la universidad china de hong kong llevó a cabo una revisión exhaustiva de las capacidades de razonamiento basado en modelos. la definición más fundamental de "razonamiento" es triple:

razonamiento cognitivo: la capacidad de sacar conclusiones significativas a partir de conocimientos incompletos e inconsistentes.

la forma más común de este tipo de razonamiento es armar un rompecabezas. cada pieza pequeña es una esquina de una imagen enorme. si tomas dos piezas al azar, definitivamente no coincidirán.

sólo puedes sostener estos pequeños fragmentos y unirlos para formar lentamente una imagen completa. en este proceso, no hay instrucciones ni diagramas de pasos y, a menudo, hay que confiar en la sensación y la intuición.

razonamiento lógico: sacar conclusiones de manera ordenada basándose en premisas y la relación entre estas premisas, y la conclusión tiene una relación implícita o está establecida lógicamente

la resolución de problemas matemáticos es un razonamiento lógico típico. hay condiciones conocidas y preguntas que deben formularse. en base a ellas, puede calcular los resultados paso a paso. el razonamiento lógico es actualmente el “hueso más duro” en el desarrollo de grandes modelos.

razonamiento en lenguaje natural: este es un proceso de integración de múltiples tipos de conocimiento, que pueden ser conocimientos explícitos o implícitos, para sacar nuevas conclusiones sobre el mundo.

a los amigos a los que les guste leer historias de detectives y novelas de misterio les resultará fácil de entender. este tipo de razonamiento es como encontrarse con una historia de asesinato. hay algunas pistas vagas e información poco clara en el libro. debes combinar varias pistas para deducir quién es el asesino y cuál fue el proceso del crimen.

si simplemente mira los documentos internos de openai obtenidos por reuters, el objetivo de "strawberry" es planificar, acceder a internet y realizar una investigación en profundidad.

estos se parecen más al último tipo de razonamiento en lenguaje natural, que no es más que fortalecerlo. es difícil decir si puede considerarse como una mejora en la capacidad de razonamiento.

pero,openai no es tan rígido en cuanto al "razonamiento", pero tiene una visión más amplia

hace dos meses, john schulman, uno de los fundadores de openai, dijo en el podcast dwarkensh que el progreso de gpt-4 se debe en gran medida a la tecnología posterior al entrenamiento.

"es muy complicado crear un modelo que tenga las funciones que interesan a la gente a través de la formación posterior", dijo john schulman. "esto requiere mucha inversión y la acumulación de mucho trabajo de i+d, lo que crea barreras para un determinado nivel. medida. "

la definición de "razonamiento" de john schulman es la siguiente:

"el razonamiento significa que se requieren algunos cálculos o algunas deducciones. a partir de esta definición, es necesario poder realizar cálculos y cálculos paso a paso mientras se procesa la tarea".

se puede ver que en su definición, los comportamientos de razonamiento y cálculo están muy vinculados, y espera que el razonamiento de las máquinas se pueda realizar en tiempo real; al igual que los humanos, pueden analizar e interpretar información mientras la reciben.

sin embargo, incluso si una persona no es buena en matemáticas, eso no le impide pensar en las cosas de manera lógica y aún puede completar varios tipos de razonamiento. ¿por qué es tan importante la capacidad matemática de las máquinas?

se puede entender así:las matemáticas nunca se tratan solo de hacer operaciones, también son una forma de expresar información.

las matemáticas son un lenguaje que se basa más en la forma simbólica y la precisión del significado, donde 1 es 1 y 0 es 0. cuando se utilizan símbolos y ecuaciones computacionales para presentar información, en realidad tiene menos dimensiones que el lenguaje natural.

en otras palabras, la razón por la que los modelos grandes están "alfabetizados" es que se basan en el "cálculo" y convierten el lenguaje natural en lenguaje informático.

este punto fue planteado ya en el siglo xix por george boole, uno de los matemáticos más importantes de la historia (el mismo boole que creó la variable booleana).

george boole

boole era un hombre profundamente religioso que incluso quiso explicar la existencia de dios mediante razonamientos matemáticos.

independientemente de cuál haya sido su conclusión final, la riqueza que finalmente dejó al mundo, que es el libro "investigación de las leyes del pensamiento", explica su gran objetivo al principio: utilizar el lenguaje simbólico del cálculo para expresar el concepto de razonamiento 1. leyes básicas de las actividades de pensamiento.

esto también explica por qué, cuando se trata del desempeño de la ia en operaciones matemáticas, las expectativas de la gente son un poco más nerviosas:

una vez que domine el lenguaje matemático, es posible que esté realmente cerca de avanzar en las actividades de pensamiento.

los veteranos de la tecnología openai han vuelto a dimitir

hay un fenómeno muy extraño: parece que cada gran noticia sobre los expertos en tecnología de openai siempre va acompañada de cambios drásticos de personal.

casualmente, varios empleados internos de openai también anunciaron oficialmente su renuncia hoy.

por ejemplo, alexis conneau, exdirector de investigación de openai audio agi, anunció que se marcha para iniciar un negocio. en su otra capacidad, es un miembro técnico importante del equipo de investigación de gpt-4o.

antes del lanzamiento de gpt-4o, predijo con entusiasmo que podría marcar el comienzo de una nueva era de interacción entre humanos y computadoras.

se incorporó a openai en abril de 2023 tras tener una amplia experiencia laboral en importantes empresas como google y meta. según sus palabras, la tarea principal es dotar al modelo gpt de una "boca parlante".

prafulla dhariwal, jefa del equipo de investigación detrás de gpt-4o, elogió una vez a conneau:

a alexis conneau se le ocurrió la visión de ella antes que nadie en openai y trabajó incansablemente para ponerla en práctica.

o bien, arvind neelakantan, que ha trabajado en openai durante cuatro años y medio, también pasó hoy al equipo de investigación de meta ai del "campo enemigo".

ha participado en el desarrollo de muchos proyectos importantes de openai, incluidos embeddings, gpt-3 y gpt-4, api y chatgpt, etc.

neelakantan dijo que trabajar en openai fue lo más destacado de su carrera. en meta ai, se centrará en el desarrollo del modelo llama de próxima generación.

en este sentido, el exdirector de relaciones con desarrolladores de openai, logan kilpatrick, también envió sus bendiciones por su renuncia.

desde principios de este año, openai ha provocado una ola de dimisiones y su equipo fundador incluso se ha "roto".

el ex científico jefe ilya sutskever acaba de anunciar su retirada de openai, y jan leike, uno de los inventores de rlhf, también siguió sus pasos y se fue.

las razones para irse son básicamente diferentes, excepto por las secuelas de la "pelea del palacio" del año pasado, también puede deberse a la planificación de su carrera personal.

es poco probable que los drásticos cambios de personal de openai tengan un impacto en el panorama competitivo de la ia en el corto plazo. al mismo tiempo, en medio de la recesión, la inmadura industria de la ia ya no puede tolerar una ventana de un año.

con la exposición continua de novedades sobre modelos, esperamos volver a ver una magnífica era de navegación mediante ia en la segunda mitad del año.

no importa lo malo que sea, al menos será más interesante que las nuevas y aburridas tecnologías de inteligencia artificial en la primera mitad del año.

es previsible que el progreso del modelo subyacente de la tecnología de ia pueda ser como una poderosa fuerza impulsora que impulse la explosión de todo el lado de la aplicación, al igual que la aparición de gpt-4 en ese entonces, que nos trajo sorpresas perdidas hace mucho tiempo.

para entonces, nosotros, como usuarios, siempre seremos los mayores beneficiarios.