noticias

openai y anthropic apoyan al gobierno de ee. uu. en la evaluación preventiva de los riesgos de los nuevos modelos

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

como líderes en el campo de la ia, openai y anthropic son muy conscientes de sus responsabilidades en la promoción del progreso tecnológico. para garantizar que el nuevo modelo de ia no conlleve riesgos sociales, las dos empresas decidieron enviarlo al instituto de investigación de seguridad de ia del gobierno de ee. uu. para su evaluación antes de lanzar el nuevo modelo. esta colaboración tiene como objetivo garantizar que los avances tecnológicos sirvan a los intereses a largo plazo de la sociedad y al mismo tiempo eviten posibles impactos negativos.

el ai safety institute se estableció en 2023 como producto de una orden ejecutiva de la administración biden-harris para promover la innovación responsable en ia. el instituto llevará a cabo una evaluación de seguridad integral de los nuevos modelos de ia de openai y anthropic, incluidas las capacidades del modelo, los posibles riesgos y las estrategias para mitigar estos riesgos. a través de este proceso, se garantiza que el desarrollo de la tecnología de ia pueda satisfacer las expectativas y necesidades de la sociedad.

los ejecutivos de openai y anthropic expresaron su firme apoyo a esta colaboración y enfatizaron la importancia de la seguridad en el desarrollo de la ia. creen que al trabajar con los gobiernos, pueden comprender mejor el impacto de los avances tecnológicos en la sociedad e investigar conjuntamente formas de mitigar los posibles riesgos para la seguridad.