noticias

OpenAI anuncia cambios en el formato de su conferencia de desarrolladores y no anunciará GPT-5

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Noticia del 6 de agosto del año pasado,AIInauguraciónIA abiertaLa primera conferencia de desarrolladores se celebró en San Francisco con gran fanfarria y se lanzó incluyendo la que finalmente fracasó.GPT Store (similar a la App Store de Apple) y muchos productos y herramientas nuevos.

Sin embargo, el evento de este año será relativamente discreto. El lunes, OpenAI anunció que transformará su conferencia de desarrolladores DevDay en una serie de conferencias participativas centradas en los desarrolladores. La compañía también confirmó que no lanzará el modelo insignia principal de próxima generación durante el DevDay, sino que se centrará en actualizaciones de su API y servicios de desarrollador.

Un portavoz de OpenAI reveló: "No planeamos anunciar nuestro próximo modelo en la conferencia de desarrolladores. Nos centraremos más en presentar los recursos existentes a los desarrolladores y mostrar las historias de la comunidad de desarrollo".

Los eventos OpenAI DevDay de este año se llevarán a cabo en San Francisco el 1 de octubre, Londres el 30 de octubre y Singapur el 1 de noviembre. Todos los eventos se llevarán a cabo en forma de talleres, sesiones de trabajo, demostraciones en vivo de los equipos de ingeniería y productos de OpenAI y sesiones de desarrolladores. La cuota de inscripción es de US$450 y la fecha límite de inscripción es el 15 de agosto.

En los últimos meses, OpenAI ha adoptado una estrategia de iteración más sólida en el campo de la inteligencia artificial generativa en lugar de buscar grandes avances. La compañía optó por perfeccionar y perfeccionar sus herramientas mientras capacitaba a los sucesores de sus modelos líderes actuales, el GPT-4 y el GPT-4 mini. La compañía ha mejorado sus métodos para mejorar el rendimiento general del modelo y minimizar la frecuencia con la que los modelos se desvían, pero según algunos puntos de referencia, OpenAI parece haber perdido su liderazgo tecnológico en la carrera por generar inteligencia artificial.

Una razón puede ser que cada vez es más difícil encontrar datos de entrenamiento de alta calidad.

Como la mayoría de los modelos de IA generativa, los modelos de OpenAI se entrenan con grandes cantidades de datos de la web, y muchos creadores optan por bloquear sus datos porque temen que sean plagiados o que no obtengan el reconocimiento o la recompensa que merecen. . Según datos de Originality.AI, una herramienta de detección de plagio y contenido de inteligencia artificial, más del 35% de los 1.000 sitios web más importantes del mundo ahora bloquean los rastreadores web de OpenAI. La investigación de la Iniciativa de procedencia de datos del MIT también encontró que alrededor del 25% de los datos de "alta calidad" han sido excluidos de los principales conjuntos de datos utilizados para entrenar modelos de IA.

La firma de investigación Epoch AI predice que si continúa la tendencia actual de bloquear el acceso a datos, los desarrolladores se quedarán sin datos que puedan usarse para entrenar y generar modelos de inteligencia artificial entre 2026 y 2032. Esto, combinado con el temor a demandas por derechos de autor, obligó a OpenAI a celebrar costosos acuerdos de licencia con editores y varios intermediarios de datos.

Se dice que OpenAI ha desarrollado una tecnología de inferencia que puede mejorar la capacidad de respuesta de sus modelos ante ciertos problemas, particularmente matemáticos. Mira Murati, directora de tecnología de la compañía, prometió que los futuros modelos OpenAI tendrán inteligencia de "nivel doctorado". Si bien esta perspectiva es prometedora, también enfrenta presiones importantes. Se informa que OpenAI gasta miles de millones de dólares en entrenar sus modelos y contratar investigadores bien remunerados.

El tiempo dirá si OpenAI puede lograr sus ambiciosos objetivos mientras se enfrenta a numerosas controversias. De todos modos, ralentizar el ciclo del producto puede ayudar a contrarrestar las afirmaciones de que OpenAI ha descuidado los esfuerzos de seguridad de la IA en su búsqueda de tecnologías de IA generativa más potentes. (pequeño)