mi información de contacto
correo[email protected]
2024-09-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
autor: fanfan, editor: odette, imagen del título de: ai generation
¿todavía recuerdas el terremoto de openai antes?
lo que desencadenó el despido de sam altman, la salida del cofundador greg brockman y la intensificación de los conflictos internos dentro de openai fue un proyecto llamado q* (pronunciado q-star).
según personas familiarizadas con el tema, el proyecto q* ya había logrado avances significativos y ya podía resolver problemas matemáticos básicos. a diferencia de las calculadoras, que solo pueden resolver un número limitado de operaciones, y gpt-4, que da respuestas diferentes cada vez a la misma pregunta,es posible que q* ya tenga la capacidad de generalizar, aprender y comprender, lo cual es un paso clave hacia agi.los investigadores de openai enviaron una carta a la junta directiva advirtiendo que el gran descubrimiento de q* podría amenazar a toda la humanidad, pero sam altman lo ocultó.
openai ha experimentado cambios internos trascendentales y openai en sí nunca ha respondido directamente a la existencia de q *.
hoy, openai lanzó repentinamente un nuevo modelo, que todavía es una versión preliminar. es el legendario q*, más tarde con el nombre en código "strawberry", y ahora openai o1-preview.
un nuevo modelo de razonamiento para resolver problemas complejos, que ya no es la misma serie que chatgpt|openai
o, sigue siendo "omini", que lo abarca todo, pero según openai, este modelo "representa una nueva altura de la inteligencia artificial" y es muy diferente del modelo grande anterior en los métodos de trabajo, por lo que se puede establecer un nuevo modelo por separado. , contando desde 1 (gpt5: ¡soy viejo!).
en cuanto a si este modelo "amenazará a la humanidad", según lo juzgan ilya sutskever y otros antiguos científicos rebeldes de openai, empujando a la humanidad a la era agi (inteligencia general artificial) sin restricciones morales perfectas, puedes leer el artículo luego, juzga por ti mismo.
o1, supera todo
el primero es el conocido vínculo de puntuación.
cada generación de modelos grandes surge y alcanza alturas sin precedentes, pero esta vez el o1 es fundamentalmente diferente.
la mayoría de los modelos grandes actualmente populares tienen la forma de chatbots, cuyas rutas de pensamiento son difíciles de explicar y su dirección de desarrollo es multimodal (puede hablar, ver y escuchar) y se están volviendo cada vez más parecidos a los humanos en términos de tono. y reacciones. o1 es diferente a ellos.
en primer lugar, su objetivo no es volverse cada vez más rápido, ni siquiera volverse cada vez más lento.
el científico de openai, noam brown, dijo que actualmente o1 puede dar respuestas en unos segundos, pero en el futuro necesitará poder pensar durante horas, días o incluso semanas. luego se adjuntó una imagen. o1 diagnosticó un caso después de más de diez segundos de pensar. lo que noam brown quiso decirun tiempo de inferencia prolongado significa que el modelo puede construir cadenas de pensamiento más largas y realizar un pensamiento más profundo.
en segundo lugar, o1 rompe el talón de aquiles de los grandes modelos de lenguaje anteriores: las matemáticas.
aime, el examen por invitación estadounidense de matemáticas, es más simple que la olimpiada y mucho más difícil que el sat. generalmente se utiliza para seleccionar a los mejores estudiantes de secundaria en matemáticas en los estados unidos. cuando se le pidió a gpt4-o que escribiera las preguntas para la competencia por invitación, solo obtuvo 12 puntos, pero o1 respondió las preguntas de una sola vez y obtuvo 74 puntos. si toma muestras 1000 veces y luego reordena las 1000 muestras con la función de puntuación (esto reflejará mejor el nivel esperado del modelo), o1 obtuvo 93 puntos y puede estar entre los 500 mejores en los estados unidos y puede ser preseleccionado para el ranking estadounidense. olimpiada de matemáticas.
comparando el rendimiento de o1 y gpt-4o, el progreso matemático es muy grande |openai
let o1 escribió preguntas para la olimpiada internacional de informática (ioi) de 2024. obtuvo 213 puntos en 10 horas, y cada pregunta se pudo enviar hasta 50 veces, ubicándose entre el 49% superior de los jugadores humanos.si el número de presentaciones aumenta a 10.000, o1 puede obtener 362,14 puntos, obtener la medalla de oro del ioi y ser recomendado para la universidad de tsinghua.
en la prueba real, se utilizó una versión mejorada de o1, no la versión futura que podemos usar openai.
además, hay muchas pruebas que no están disponibles. por ejemplo, en gpqa (una prueba de inteligencia que combina física, química y biología), o1 superó a los doctores en campos relacionados en algunas preguntas.
en breve,la involución en un campo que ya es fuerte ya no es desde hace tiempo el propósito de o1. es lograr avances en una lógica compleja para la que los grandes modelos lingüísticos no son buenos.
un paso atrás, dos pasos adelante
como se mencionó anteriormente, la velocidad de reacción de o1 se ha ralentizado.
se necesita más tiempo para pensar antes de reaccionar, luego refina el proceso de pensamiento, prueba diferentes estrategias y aprende de sus errores. esto da miedo.
además, o1 ya no es un modelo multimodal. openai pasó dos años haciendo que el modelo grande fuera capaz de ver y escuchar. ahora ha vuelto a su naturaleza original y o1 solo puede aceptar entradas de caracteres.
más lento y monótono, para o1,es un paso atrás y dos pasos adelante. las personas que ya han usado o1 dicen que o1 es el modelo más inteligente que jamás hayan usado y las conversaciones con él han ido más allá de las pequeñas peleas anteriores.
en una prueba, el usuario le hizo a o1 una pregunta de paradoja lógica: "¿cuántas palabras hay en la respuesta a esta pregunta?"
o1 pensó durante diez segundos y mostró su proceso de pensamiento. en primer lugar, pensó que se trataba de una paradoja autorreferencial o una pregunta recursiva. cuando la respuesta no está determinada, no se puede determinar el número de palabras de la respuesta.“evitar expresiones innecesarias es importante para obtener respuestas claras y concisas”. el siguiente paso es contar las palabras, donde los números que aparecen en la oración deben coincidir con la cantidad de palabras en la oración. luego enumeró muchas oraciones y encontró la opción de coincidencia más adecuada. descubrió que "esto tiene cinco palabras" tiene cinco palabras, por lo que después de cambiar la estructura de la oración a una respuesta completa, cinco deben reemplazarse por siete.
entonces respondió: "hay siete palabras en la respuesta".
este proceso de razonamiento no es muy diferente de mi proceso de razonamiento|x
en otro ejemplo, o1 tardó 5,6 segundos y 631 fichas en responder la sencilla pregunta "¿cuántas r hay en straberry?"
del ejemplo anterior se puede ver queel método de trabajo de o1 es fundamentalmente diferente al de chatgpt.ahora o1 ha agregado fichas de razonamiento, que dividirán una pregunta en varios pasos, pensarán en ellos por separado y luego eliminarán las fichas de razonamiento para generar respuestas.
la siguiente figura muestra cómo funciona la cadena de ideas, lo que también explica por qué la velocidad de respuesta de o1 se ha vuelto más lenta.
al usar o1, también puedes usar algunos problemas lógicos clásicos y problemas matemáticos para probar su capacidad.
tal vez al responder preguntas simples, la diferencia entre realizar múltiples rondas de razonamiento no sea obvia, pero si se usa para resolver problemas complejos al escribir código, resolver problemas matemáticos y ciencias, este tipo de capacidad de pensamiento es esencial.
openai dijo en el documento que ahora, el personal médico puede usar o1 para anotar datos de secuenciación celular, los físicos pueden usar o1 para generar las fórmulas matemáticas complejas necesarias para la óptica cuántica y los desarrolladores en diversos campos pueden usar o1 para construir y realizar trabajos de varios pasos. . proceso.
es más,este es el prototipo de un modo de pensar y la forma primitiva de sabiduría.
nuevos modelos, nuevos hábitos.
dado que la forma en que funciona o1 es diferente a chatgpt, los tutoriales que vi antes y que le enseñan cómo escribir mensajes ya no son aplicables; en la situación actual, demasiadas descripciones solo consumirán una gran cantidad de tokens, pero no necesariamente los obtendrán. mejores resultados.
para dejar esto claro a todos los usuarios, openai ha escrito nuevas pautas para los tokens. en la guía, openai explica que las mejores indicaciones en o1 son directas y concisas. instruir al modelo para que lo haga paso a paso o dar varias palabras de indicaciones dispersas puede ser contraproducente. aquí hay algunas recomendaciones oficiales:
las indicaciones deben ser simples y directas. los modelos responden mejor a instrucciones breves y claras que no requieren demasiada orientación.
evite cadenas de pensamientos en las indicaciones. o1 hace su propio razonamiento interno, por lo que guiarlo paso a paso y explicarle su camino de pensamiento es inútil.
es mejor utilizar delimitadores para mejorar la claridad. utilice delimitadores como "", <> y § para distinguir claramente las diferentes partes de las indicaciones para ayudar al modelo a procesar los problemas en lotes.
limite la recuperación de contexto adicional en la generación mejorada. proporcione solo la información más relevante para evitar pensar demasiado en el modelo.
cuando vi el tercer artículo, me sentí un poco familiarizado con este formato. es probable que los futuros programadores utilicen la programación en lenguaje natural. las instrucciones básicas siguen siendo las mismas, pero se han vuelto vernáculas. siguiendo las últimas directrices, un buen mensaje sería el siguiente:
o algo como esto:
§ anfitrión § escritor § dueño de bar § pintor al óleo § peletero § platero § cantante § pandero § mochilero § mejilla izquierda dorada § caballero francés § discípulo zen §
deja que el modelo haga el resto.
dame un minuto para hacer una serpiente 3d.
hay una razón para utilizar la serpiente como ejemplo. menos de un día después del lanzamiento de o1, la gente ha hecho muchos intentos con él, incluido 3d snake.
@ammaar reshi en x usó indicaciones extremadamente simples para escribir una serpiente 3d en solo un minuto, y o1 también le enseñó cómo usar el código.
¿has aprendido a escribir indicaciones? |@ammaar reshi
aunque el efecto es un poco tosco, nadie puede decir que no sea una serpiente codiciosa.
y es bastante divertido|@ammaar reshi
el internauta @james wade usó o1 para crear una aplicación de análisis de datos que puede mostrar una breve descripción y un ejemplo de cada distribución. solo tomó 15 minutos, incluido el tiempo de implementación. él dijo: nunca antes había pensado en hacer algo como esto. antes era demasiado problemático.
el efecto es como se muestra en la imagen |@james wade
otro ingeniero full-stack @dallas lones, que ha trabajado durante 16 años, dijo con emoción después de crear una aplicación de desarrollo full-stack react native en unos minutos:no comencé un negocio lo antes posible, pero ahora este oficio se ha convertido en las lágrimas de los tiempos.él dijo,"la programación como profesión termina oficialmente hoy".
hay más personas desafiando los límites de o1, y algunas personas ya lo están jugando."veamos qué pregunta es más difícil y puede hacer pensar a o1 durante más tiempo".juego.
actualmente, o1 está abierto primero para los usuarios de chatgpt plus y team, mientras que el acceso a la api se abrirá primero para los usuarios de nivel 5 que gasten más de $1,000 en la api openai. en el siguiente paso, openai abrirá gradualmente la versión de bajo perfil de o1-mini para usuarios gratuitos.
¿será este el ocaso de la humanidad?