новости

Бывший исследователь OpenAI предупреждает «старого работодателя»: нерегулируемый ИИ нанесет катастрофический вред

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News от 24 августа. Согласно сообщению Business Insider по пекинскому времени сегодня утром, после того, как OpenAI публично выразила свое несогласие с калифорнийским законопроектом SB 1047 (Закон о безопасности ИИ), два бывших исследователя OpenAI выступили против его «старого закона». клуб» и вынести предупреждение.

Калифорнийский закон о безопасности ИИ потребует от компаний, занимающихся ИИ, принимать меры, чтобы их модели не причиняли «серьезный вред», например, разработку биологического оружия, которое может привести к большим жертвам или причинить более 500 миллионов долларов США (Примечание IT Home: в настоящее время около 3,566 миллиардов долларов США). юаней) экономические потери.

Бывшие сотрудники написали губернатору Калифорнии Гэвину Ньюсому и другим законодателям, что противодействие OpenAI законопроекту разочаровало, но не удивило.

Два исследователя, Уильям Сондерс и Дэниел Кокотайло, написали в письме: «Мы (ранее) решили присоединиться к OpenAI, потому что хотели гарантировать, что компания разрабатывает «невероятно мощные системы искусственного интеллекта». Безопасность.Но мы решили уйти, потому что мы потеряли доверие к безопасной, честной и ответственной разработке систем искусственного интеллекта.

В письме также упоминается, что генеральный директор OpenAI Альтман много раз публично поддерживал регулирование ИИ, но когда были готовы к введению реальных мер регулирования, они выразили протест. «Разработка передовых моделей искусственного интеллекта без адекватных мер безопасности представляет собой предсказуемый риск нанесения катастрофического вреда обществу».