новости

openai признает, что модель вывода o1 увеличит риск создания биологического оружия

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

модель вывода ии o1

ifeng.com technology news 14 сентября по пекинскому времени компания openai признала, что ее последняя модель вывода ии o1 «значительно» увеличивает риск злоупотребления ии для создания биологического оружия.

системная карта openai — это инструмент, объясняющий, как работает ии. в документе говорится, что новая модель представляет «умеренный» риск для проблем, связанных с химическим, биологическим, радиологическим и ядерным оружием (хбря).это самый высокий риск, когда-либо исходивший от openai.openai утверждает, что это означает, что модель «значительно улучшает» возможности экспертов по созданию биологического оружия.

эксперты говорят, что если программное обеспечение искусственного интеллекта с более продвинутыми функциями попадет в руки опасных субъектов, это повлечет за собой более высокий риск злоупотреблений. например, модель o1 имеет возможности пошагового рассуждения.

мира мурати, технический директор openai, рассказала financial times, что компания особенно «осторожна» при запуске модели o1 для широкой публики из-за ее расширенных функций. она добавила, что модель тестировали так называемые "красные команды" - специалисты в различных научных областях. мулати сказал, что модель o1 показала гораздо лучшие результаты, чем предыдущие модели, по общим показателям безопасности. (автор/сяо юй)

чтобы получать больше новостей из первых рук, загрузите клиент phoenix news и подпишитесь на phoenix technology. если вы хотите просмотреть подробные отчеты, выполните поиск по запросу «ifeng.com technology» в wechat.