noticias

Un ex investigador de OpenAI advierte al “antiguo empleador”: la IA no regulada causará un daño catastrófico

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News el 24 de agosto. Según un informe de Business Insider Beijing esta mañana, después de que OpenAI expresara públicamente su oposición al proyecto de ley SB 1047 (Ley de seguridad de AI) de California, dos ex investigadores de OpenAI se adelantaron para hablar en contra de su "viejo". club" y emitir una advertencia.

La Ley de Seguridad de la IA de California exigirá que las empresas de IA tomen medidas para evitar que sus modelos causen "daños graves", como el desarrollo de armas biológicas que puedan causar grandes bajas o causar más de 500 millones de dólares estadounidenses (IT Home Note: actualmente alrededor de 3.566 millones yuanes) pérdidas económicas.

Los ex empleados escribieron al gobernador de California, Gavin Newsom, y a otros legisladores que la oposición de OpenAI al proyecto de ley fue decepcionante pero no sorprendente.

Dos investigadores, William Saunders y Daniel Cocotailo, escribieron en la carta: "(Anteriormente) elegimos unirnos a OpenAI porque queríamos asegurarnos de que la empresa estuviera desarrollando 'sistemas de IA increíblemente poderosos'.Pero decidimos irnos porque perdió nuestra confianza en el desarrollo de sistemas de inteligencia artificial de manera segura, honesta y responsable.

La carta también mencionaba que Altman, director ejecutivo de OpenAI, había apoyado públicamente la regulación de la IA muchas veces, pero cuando se prepararon para introducir medidas regulatorias reales, expresaron su oposición. "El desarrollo de modelos de IA de vanguardia sin las precauciones de seguridad adecuadas plantea un riesgo previsible de daño catastrófico para el público".