новости

openai и anthropic соглашаются позволить правительству сша оценить безопасность перед запуском новой модели

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

30 августа it house сообщила, что компании, занимающиеся искусственным интеллектом openai и anthropic, согласились предоставить правительству сша доступ к основным новым моделям искусственного интеллекта до того, как эти компании выпустят эти модели, чтобы помочь улучшить свою безопасность.


источник изображения

институт безопасности искусственного интеллекта сша объявил в четверг, что этообе компании подписали с институтом меморандум о взаимопонимании, обязуясь предоставить доступ до и после публичного выпуска модели.. правительство сша заявило, что этот шаг поможет им совместно оценить риски безопасности и смягчить потенциальные проблемы. агентство заявило, что будет работать со своим британским коллегой, чтобы предоставить обратную связь по вопросам повышения безопасности.

директор по стратегии openai джейсон квон выразил поддержку сотрудничеству:

«мы решительно поддерживаем миссию американского института безопасности ии и надеемся на совместную работу по разработке передового опыта и стандартов безопасности моделей ии. мы считаем, что институт играет ключевую роль в обеспечении лидерства сша в ответственном развитии ии. мы надеемся, что благодаря сотрудничеству с институтом мы сможем предоставить основу, на которой мир сможет учиться».

anthropic также заявила, что очень важно создать возможность эффективного тестирования моделей ии. джек кларк, соучредитель и руководитель отдела политики компании, сказал:

«обеспечение безопасности и надежности ии имеет решающее значение для того, чтобы эта технология оказала положительное влияние. благодаря такому тестированию и сотрудничеству можно лучше выявлять и снижать риски, связанные с ии, а также способствовать ответственному развитию ии. мы стремимся к тому, чтобы мы горжусь тем, что являюсь частью этой важной работы, и надеюсь установить новые стандарты безопасности и надежности ии».

совместный доступ к моделям искусственного интеллекта является важным шагом, поскольку федеральные законодатели и законодатели штатов рассматривают, как ограничить технологии, не подавляя инновации. it house отметила, что в среду законодатели калифорнии приняли закон об инновациях в области безопасности моделей искусственного интеллекта frontier (sb 1047), который требует от компаний, занимающихся искусственным интеллектом в калифорнии, принимать конкретные меры безопасности перед обучением продвинутых базовых моделей. это вызвало сопротивление со стороны компаний, занимающихся искусственным интеллектом, включая openai и anthropic, которые предупредили, что это может нанести ущерб более мелким разработчикам с открытым исходным кодом, хотя с тех пор законопроект был пересмотрен и все еще ожидает одобрения губернатора калифорнии гэвина ньюсома.

тем временем белый дом пытается добиться от крупных компаний добровольных обязательств по мерам безопасности ии. несколько ведущих компаний, занимающихся искусственным интеллектом, взяли на себя необязательные обязательства инвестировать в исследования в области кибербезопасности и дискриминации, а также работать над созданием водяных знаков на контенте, созданном ии.

элизабет келли, директор национального института безопасности искусственного интеллекта, заявила в своем заявлении, что эти новые соглашения — это только «начало, но они являются важной вехой в наших усилиях, направленных на то, чтобы помочь ответственно управлять будущим искусственного интеллекта».