notizia

openai e anthropic supportano il governo degli stati uniti nella valutazione preventiva dei rischi dei nuovi modelli

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

in quanto leader nel campo dell’intelligenza artificiale, openai e anthropic sono ben consapevoli delle proprie responsabilità nel promuovere il progresso tecnologico. per garantire che il nuovo modello di intelligenza artificiale non comporti rischi sociali, le due società hanno deciso di sottoporlo all’ai security research institute del governo americano per una valutazione prima di lanciare il nuovo modello. questa collaborazione mira a garantire che i progressi tecnologici servano gli interessi a lungo termine della società evitando potenziali impatti negativi.

l’ai safety institute è stato istituito nel 2023 come prodotto di un ordine esecutivo dell’amministrazione biden-harris per promuovere l’innovazione responsabile dell’ia. l’istituto condurrà una valutazione completa della sicurezza dei nuovi modelli di intelligenza artificiale di openai e anthropic, comprese le capacità del modello, i possibili rischi e le strategie per mitigare tali rischi. attraverso questo processo, si garantisce che lo sviluppo della tecnologia ai possa soddisfare le aspettative e le esigenze della società.

i dirigenti di openai e anthropic hanno espresso un fermo sostegno a questa collaborazione e hanno sottolineato l’importanza della sicurezza nello sviluppo dell’intelligenza artificiale. credono che, lavorando con i governi, si possa comprendere meglio l’impatto dei progressi tecnologici sulla società e ricercare congiuntamente modi per mitigare i potenziali rischi per la sicurezza.