noticias

interpretación | xiao yanghua: ¿qué impacto traerá el modelo o1 con capacidad matemática de nivel doctoral?

2024-09-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·la capacidad de razonamiento de nivel experto no es una táctica de preguntas y respuestas, requiere una gran capacidad de pensamiento. la dificultad para entrenar capacidades de razonamiento de modelos grandes es que una gran cantidad de procesos de pensamiento humano nunca se expresan, por lo que los datos sobre el proceso de pensamiento son extremadamente escasos. especuló que esta vez openai debería utilizar una gran cantidad de datos sintéticos.
·es cada vez más difícil para los humanos mejorar su comprensión de la inteligencia artificial para alcanzar la velocidad de desarrollo de la inteligencia artificial. este es un gran desafío de gobernanza. los seres humanos son quienes desbloquean la magia de la inteligencia artificial. capacidades, es probable que haya momentos en que los humanos no puedan activar sus superpoderes porque están más allá del nivel de cognición humana.
el nuevo modelo o1 lanzado por openai tiene poderosas capacidades de razonamiento. mapa visual de china
el 12 de septiembre, hora local, openai lanzó una serie de modelos de nueva generación o1. en comparación con los modelos anteriores, este modelo ha demostrado una gran capacidad de razonamiento y se ha desempeñado tan bien como los estudiantes de doctorado al manejar tareas de referencia en física, química y biología. esta capacidad es algo que los modelos anteriores no tenían.
el 13 de septiembre, xiao yanghua, profesor y supervisor doctoral de la facultad de ciencias de la computación y tecnología de la universidad de fudan, y director del laboratorio clave de ciencia de datos de shanghai, dijo en una entrevista con the paper que la aparición del modelo o1 significa que las capacidades de razonamiento de los modelos grandes pueden alcanzar completamente el nivel de experto. puede considerarse como un avance histórico en la inteligencia artificial, que mejorará en gran medida la aplicación de los modelos en el lado empresarial.
pero también admitió que a medida que las capacidades intelectuales, perceptivas y racionales del modelo sigan mejorando, superará las capacidades humanas. es difícil predecir qué impacto tendrá la inteligencia artificial en los seres humanos en el futuro. "el proceso de desarrollo ahora excede la velocidad de la comprensión humana del mismo, y la gobernanza de la inteligencia artificial será un gran desafío", dijo xiao yanghua.
bueno para razonar sobre tareas complejas, desempeño similar al de un doctorado.
como modelo inicial, el nuevo modelo de inferencia o1 aún no tiene todas las funciones utilizadas por chatgpt, como explorar información de la red, cargar archivos e imágenes, etc. pero openai dijo que se trata de una mejora significativa para tareas de razonamiento complejas y representa un nuevo nivel de capacidades de inteligencia artificial.
"a través del entrenamiento, aprenden a refinar sus procesos de pensamiento, prueban diferentes estrategias y reconocen sus errores". los algoritmos de aprendizaje por refuerzo a gran escala enseñan a los modelos cómo pensar de manera efectiva usando sus cadenas de pensamiento durante el proceso de entrenamiento, y el modelo o1 puede pensar antes. responder al usuario generar una larga cadena interna de pensamientos. con más aprendizaje por refuerzo y más tiempo para pensar, el rendimiento de o1 continúa mejorando. aprende a dividir los pasos complicados en otros más simples. cuando el método actual no funciona, intenta un enfoque diferente.
el nuevo modelo de inferencia o1 destaca en matemáticas y programación, sobresaliendo en la generación y depuración precisa de código complejo. openai evaluó el rendimiento matemático del modelo en aime (concurso americano de matemáticas por invitación). en el examen aime de 2024, gpt-4o resolvió solo el 12% (1,8/15) de los problemas en promedio. para una sola muestra de cada problema, o1 promedió 74. %(11,1/15). en el examen de calificación de la olimpiada internacional de matemáticas (imo), gpt-4o solo pudo resolver correctamente el 13% de los problemas, mientras que el nuevo modelo de razonamiento obtuvo una puntuación del 83%.
el nuevo modelo puede razonar sobre tareas complejas, actuando como un estudiante de doctorado en tareas de referencia en física, química y biología. openai realizó pruebas comparativas de diamantes gpqa en química, física y biología. para comparar el modelo con humanos, se reclutó a expertos con doctorado para que respondieran preguntas juntos.
"descubrimos que o1 superó a los expertos humanos, convirtiéndose en el primer modelo en hacerlo en este punto de referencia. estos resultados no significan que o1 sea más capaz que los doctores en todos los aspectos, solo que el modelo es mejor para resolver las necesidades de los doctorados", dice openai. los investigadores de atención médica pueden usar o1 para anotar datos de secuenciación celular, los físicos pueden usar o1 para generar las fórmulas matemáticas complejas necesarias para la óptica cuántica y los desarrolladores de todos los campos pueden usar o1 para construir y ejecutar flujos de trabajo de varios pasos.
las capacidades de razonamiento de hitos mejorarán en gran medida los efectos de las aplicaciones.
"el modelo de lenguaje grande anterior se parecía más a un estudiante de artes liberales y todavía está lejos del nivel de un estudiante de ciencias. pero la capacidad central de la inteligencia humana es pensar y pensar. la serie o1 del nuevo modelo de razonamiento openai muestra el proceso de pensamiento humano. "xiao yanghua dijo: la esencia del nuevo modelo de inferencia o1 sigue siendo un modelo de lenguaje grande, pero aprovecha plenamente el potencial del modelo grande. en el pasado, la capacidad de generación de modelos grandes estaba determinada por el corpus, que era como "familiarizarse con trescientos poemas tang, y puedes recitarlos incluso si no sabes cómo componerlos". sin embargo, la capacidad de razonamiento a nivel de experto no es una táctica de preguntas y respuestas, sino que requiere una gran capacidad de pensamiento. la dificultad para entrenar capacidades de razonamiento de modelos grandes es que una gran cantidad de procesos de pensamiento humano nunca se expresan, por lo que los datos sobre el proceso de pensamiento son extremadamente escasos. especuló que esta vez openai debería utilizar una gran cantidad de datos sintéticos.
"openai tiene una clara ventaja de ser el primero en actuar. su modelo base es más fuerte, recopila una gran cantidad de datos de procesos de pensamiento, filtra y sintetiza una gran cantidad de datos de pensamiento de alta calidad y tiene fuertes capacidades de evaluación. ¿qué procesos de razonamiento son correctos? y qué procesos de razonamiento están mal, lo que requiere el uso del aprendizaje por refuerzo. el aprendizaje por refuerzo es esencialmente un proceso de exploración y prueba y error. si no funciona, pruebe con otro método ". dijo xiao yanghua con la ayuda de. con estas tecnologías y datos, openai ha hecho que el modelo grande sea real para estudiantes de ciencias y alcance un nivel experto.
chen yunwen, presidente de daguan data, dijo que los modelos anteriores no podían calcular problemas matemáticos avanzados complejos y que o1 ha mejorado las capacidades matemáticas y de razonamiento, lo cual es una gran mejora. sin embargo, la mejora de las capacidades matemáticas no significa que el paradigma de i+d de modelos grandes haya sufrido cambios esenciales, sino que sólo ha dirigido mejoras a deficiencias anteriores.
en opinión de xiao yanghua, la aparición de o1 no fue inesperada. “de hecho, juzgamos desde el principio que los modelos grandes tendrían capacidades emocionales y racionales más fuertes. lo inesperado fue que no esperábamos verlo tan pronto. está aquí y el efecto es sorprendente”. él cree que en el futuro, openai puede diferenciarse en muchos modelos grandes que sean buenos para hacer cosas diferentes según el modelo grande general.
por ejemplo, las versiones anteriores de gpt-4 estaban familiarizadas con todos los conocimientos y hechos y enfatizaban las habilidades intelectuales; gpt-4o enfatizaba la interacción multimodal y la serie o1 enfatizaba el pensamiento y las habilidades racionales; la mejora de la racionalidad del modelo permitirá que la industria to b marque el comienzo de un tremendo desarrollo. "el mayor problema y cuello de botella de to b radica en las capacidades de razonamiento de los modelos grandes. la aparición del nuevo modelo de inferencia de la serie o1 significa que muchos problemas en la industria de to b se pueden aliviar en gran medida en el futuro".
desafíos que plantea el rápido desarrollo de la inteligencia artificial
“openai es realmente poderoso. aunque la hoja de ruta técnica de openai hasta ahora no ha excedido el alcance de la cognición, todos conocemos la dirección de desarrollo de modelos grandes, incluida la multimodalidad y las capacidades de razonamiento mejoradas, pero solo openai lo ha convertido rápidamente en una realidad. entrenan modelos grandes exactamente de la misma manera que los seres humanos. tienen una idea muy clara de la inteligencia humana y el desarrollo cognitivo, y hasta ahora no han encontrado una comprensión muy clara del crecimiento y la evolución humanos. cualquier paso equivocado." xiao yanghua. explica.
openai tiene una clara ventaja de ser el primero en actuar. con respecto al desarrollo de modelos domésticos a gran escala, "las ventajas de openai son todas desventajas para nosotros. necesitamos calmarnos y ponernos al día lentamente. solo hay el primero en la pista general de inteligencia artificial, no segundo." sin embargo, a largo plazo, xiao yanghua dijo que existe un límite para la mejora de las capacidades individuales de los modelos grandes. porque los datos originales reales de los seres humanos son limitados y la velocidad de producción es lenta. "actualmente, openai utiliza datos humanos para sintetizar nuevos datos para mejorar las capacidades de razonamiento. sin embargo, los datos sintéticos están limitados por los datos originales. no puede sintetizar datos infinitos, ni puede obtener datos esencialmente novedosos. no puede inventar nuevos temas debido a esto. proponer nuevas teorías como einstein "en términos de hardware, el razonamiento requiere menos potencia de cálculo que el entrenamiento, pero debido a la extensión de la cadena de pensamiento, los requisitos para la eficiencia del razonamiento se vuelven más altos, lo que plantea mayores requisitos para la aceleración y optimización del razonamiento. proceso. .
sin embargo, a medida que los grandes modelos han mejorado en muchos aspectos, han planteado desafíos a la gobernanza. el desafío es que la comprensión humana de ellos no ha mejorado tan rápido como se ha desarrollado.
el filósofo kant dividió el proceso cognitivo humano en tres etapas: perceptiva, intelectual y racional. hoy en día, la sensibilidad, la inteligencia y la racionalidad de los modelos grandes están mejorando y es probable que superen a los humanos. muy pocas personas pueden ser fuertes en estas tres cogniciones.
"actualmente o1 ha alcanzado el nivel de estudiantes de doctorado. en el futuro, alcanzar el nivel de científicos será sólo un proceso para lograr cambios cuantitativos. los seres humanos caerán gradualmente en el punto ciego cognitivo del desarrollo de la inteligencia artificial. por ejemplo, ¿qué significa la capacidad de razonamiento del gran modelo actual? ¿puede realmente usarse en ia? la proporción de personas por encima del nivel de conocimiento será cada vez menor. casi nadie en el mundo podrá alcanzar el nivel de doctorado. en matemáticas, física, química o matemáticas, ¿cuántos de nosotros podemos comprender, reconocer y controlar la ia? ", dijo xiao yanghua, los seres humanos están actualmente en un nivel de doctorado. falta el marco cognitivo básico de la inteligencia artificial. esta es una gobernanza enorme. temas como el empleo, la economía, la ética y las relaciones sociales suscitarán un amplio debate. “los seres humanos son los desbloqueadores de la magia de la inteligencia artificial. más allá del nivel de la cognición humana”.
el periodista del periódico zhang jing.
(este artículo es de the paper. para obtener más información original, descargue la aplicación “the paper”)
informe/comentarios