mi información de contacto
correo[email protected]
2024-10-04
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
nuevo informe de sabiduría
¡me uniré a google deepmind para trabajar en la generación de videos y simuladores mundiales! no puedo esperar a trabajar con un equipo tan talentoso.
estoy aquíabierto ailos dos años que llevó crear sora han sido una época increíble. gracias a todas las personas apasionadas y amables con las que trabajo. ¡emocionado por la siguiente etapa!
presione la calabaza y comience la primicia. parece que el anuncio oficial de renuncia el día del lanzamiento puede convertirse en una tradición de openai.
los jefes de google celebraron en el área de comentarios, incluido jeff dean, científico jefe de deepmind y google research, y logan kilpatrick, líder de producto de google ai studio.
denny zhou, fundador y líder del equipo de inferencia de deepmind——
aunque alexis conneau, el jefe del proyecto "her" que renunció antes del lanzamiento completo de gpt-4o, no se unió a google, también comenzó a hacer bromas en línea: bienvenido a convertirse en un ex empleado de openai.
parece que se espera que el modelo de generación de vídeo veo de google supere a sora.
actualmente, bill peebles, el otro codirector de sora, todavía trabaja en openai.
aunque se lanzó en febrero de este año, sora sigue siendo un "modelo del futuro" y sólo está abierto a un pequeño grupo de probadores y artistas del equipo rojo.
openai no ha dado una fecha límite clara sobre cuándo estará en línea, a diferencia del proyecto "her", que tiene una bandera "este otoño".
, y se encontró con que el cto y la persona a cargo se iban uno tras otro, el futuro de sora era una vez más incierto.
experiencia personal
tim brooks codirige el proyecto sora en openai, donde su investigación se centra en el desarrollo de modelos generativos a gran escala que puedan simular el mundo real.
este chico recibió su doctorado en el centro de investigación de ia de berkeley y su supervisora doctoral fue alyosha efros. durante su doctorado, propuso una tecnología llamada instructpix2pix.
antes de unirse a openai, participó en el desarrollo de tecnología de inteligencia artificial para cámaras móviles pixel en google, y tambiénnvidiatrabajó en modelos de generación de videos.
al mismo tiempo, también es el investigador principal de dall·e 3.
otra parte de su currículum es realmente emocionante: sus trabajos fotográficos han ganado premios de "national geographic", "nature's best photography" y "national wildlife federation".
sus fotos de animales:
también ha actuado en el beacon theatre de broadway en nueva york y ha ganado premios en concursos internacionales a capella.
los internautas expresaron su envidia por el hecho de que tuviera tanta libertad.
además, tim brooks también dijo en un tono bastante "versalles" en su currículum: "soy un apasionado de la ia y, afortunadamente, esta pasión combina perfectamente con mis aficiones: la fotografía, el cine y la música".
después de unirme a deepmind, dije que seguiría involucrado en trabajos relacionados con la generación de videos y los simuladores mundiales, y continuaría integrando mi pasión por la ia con mis pasatiempos por la fotografía y las películas.
de la generación de vídeo al mundo simulado
en abril de este año, apenas dos meses después del lanzamiento del modelo sora, los codirectores tim brooks y bill peebles participaron en un discurso de apertura organizado por agi house y expresaron sus puntos de vista sobre la tecnología de generación de video: "simulará todo. implementación de agi ".
las complejas capacidades de generación de escenas demostradas por los modelos de vídeo vicencianos como sora, que gradualmente revelan una comprensión detallada de la interacción humana y el contacto físico, son un paso importante hacia la agi.
para generar videos con contenido realista e imágenes realistas, se necesita un modelo interno para comprender cómo todos los objetos y los humanos se mueven e interactúan en el entorno. por lo tanto, creen que sora contribuirá al desarrollo de la inteligencia artificial general.
en términos de metodología, tanto tim brooks como bill peebles enfatizaron particularmente la escalabilidad del modelo. creen que la razón por la cual el modelo de lenguaje tiene tanto éxito es su capacidad de expandirse y citaron sus puntos de vista en "the bitter lesson":
a largo plazo, los métodos que mejoran el rendimiento a medida que escalan acabarán prevaleciendo a medida que aumente la potencia informática.
al crear un marco basado en transformer y comparar diferentes modelos de sora, demostraron el impacto de una mayor computación en el entrenamiento de modelos en las mejoras de rendimiento.
desde el modelo básico hasta un modelo con un aumento de 32 veces en los cálculos, se puede ver una mejora gradual en la comprensión de escenas y objetos.
siempre nos hemos esforzado por mantener nuestro enfoque simple, aunque a veces la realidad es más desafiante de lo que parece.
nuestro objetivo principal es hacer algo lo más simple posible y luego escalarlo masivamente.