noticias

ultraman abandona el comité de seguridad de openai: puede decidir si lanzar modelos grandes

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips informó que el 17 de septiembre, según informes extranjeros, el director ejecutivo de openai, sam altman, abandonará el comité interno establecido por openai en mayo, que es responsable de supervisar las decisiones clave de seguridad relacionadas con los proyectos y operaciones de la empresa.

openai dijo hoy en una publicación de blog que el comité de seguridad y protección se convertirá en un grupo de supervisión de la junta independiente presidido por el profesor de la universidad carnegie mellon, zico kolter, y cuyos miembros incluirán al director ejecutivo de quora, adam d'angelo, el general retirado del ejército estadounidense paul nakasone y el ex vicepresidente ejecutivo de sony. presidenta nicole seligman.

todos ellos son miembros actuales de la junta directiva de openai.

openai señaló en la publicación que el comité llevó a cabo una revisión de seguridad del último modelo de ia o1 de openai, aunque altman todavía está involucrado.la compañía dijo que el grupo seguirá recibiendo informes periódicos del equipo de seguridad de openai y se reserva el derecho de retrasar la publicación hasta que se resuelvan los problemas de seguridad.

openai escribió en la publicación: como parte de su trabajo, la junta de seguridad continuará recibiendo informes de evaluación técnica periódica sobre los modelos actuales y futuros, así como informes de monitoreo continuos posteriores al lanzamiento. estamos construyendo un marco de seguridad integral basado en nuestros procesos y prácticas de lanzamiento de modelos para definir claramente los criterios de éxito para los lanzamientos de modelos.

la salida de altman del comité de seguridad se produce después de que cinco senadores estadounidenses plantearan preguntas sobre las políticas de openai en una carta a altman este verano.

casi la mitad de los empleados de openai que alguna vez se centraron en los riesgos a largo plazo de la inteligencia artificial se han ido, y ex investigadores de openai han acusado a altman de oponerse a una regulación real de la ia en favor de políticas que promueven los objetivos corporativos de openai.

como dicen, openai ha aumentado significativamente su gasto en lobby federal, con un presupuesto de 800.000 dólares para los primeros seis meses de 2024, en comparación con 260.000 dólares para todo el año pasado.

a principios de esta primavera, altman también se unió al consejo de seguridad de inteligencia artificial del departamento de seguridad nacional de ee. uu., que asesora sobre el desarrollo y despliegue de inteligencia artificial en infraestructura crítica de ee. uu.

incluso si se elimina a altman, hay pocas señales de que el comité de seguridad tome decisiones difíciles que afecten seriamente la hoja de ruta comercial de openai.

en particular, openai dijo en mayo que buscaría abordar las críticas válidas a su trabajo a través de un comité; las críticas válidas, por supuesto, dependen de la percepción del espectador.

en mayo, los ex miembros de la junta directiva de openai, helen toner y tasha mccauley, dijeron en un artículo de opinión en the economist que creían que openai no era digno de confianza y no podía asumir la responsabilidad.

escriben: según nuestra experiencia, creemos que la autonomía no puede resistir de manera confiable la presión de los incentivos a las ganancias.

y los incentivos a las ganancias de openai siguen creciendo.

se rumorea que la compañía está recaudando más de 6.500 millones de dólares en financiación, lo que valoraría openai en más de 150.000 millones de dólares. para llegar al acuerdo, openai probablemente abandonará su estructura corporativa híbrida sin fines de lucro, que está diseñada para limitar los retornos de los inversionistas, en parte para garantizar que openai siga siendo consistente con su misión fundacional: desarrollar inteligencia artificial general que beneficie a toda la humanidad.