νέα

το openai παραδέχεται ότι το μοντέλο συμπερασμάτων o1 θα αυξήσει τον κίνδυνο δημιουργίας βιολογικών όπλων

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

μοντέλο συμπερασμάτων ai o1

ifeng.com technology news στις 14 σεπτεμβρίου, ώρα πεκίνου, το openai παραδέχτηκε ότι το πιο πρόσφατο μοντέλο συμπερασμάτων ai o1 αυξάνει «σημαντικά» τον κίνδυνο κατάχρησης της τεχνητής νοημοσύνης για τη δημιουργία βιολογικών όπλων.

η κάρτα συστήματος του openai είναι ένα εργαλείο που εξηγεί πώς λειτουργεί το ai. το εργαλείο είπε ότι το νέο μοντέλο ενέχει «μέτριο» κίνδυνο για ζητήματα που σχετίζονται με χημικά, βιολογικά, ραδιολογικά και πυρηνικά όπλα (cbrn).αυτός είναι ο υψηλότερος κίνδυνος που έχει δοθεί ποτέ από το openai.η openai λέει ότι αυτό σημαίνει ότι το μοντέλο "βελτιώνει σημαντικά" την ικανότητα των ειδικών να δημιουργούν βιοόπλα.

οι ειδικοί λένε ότι εάν το λογισμικό τεχνητής νοημοσύνης με πιο προηγμένες λειτουργίες πέσει στα χέρια επικίνδυνων παραγόντων, θα φέρει μεγαλύτερο κίνδυνο κατάχρησης. για παράδειγμα, το μοντέλο o1 έχει δυνατότητες συλλογιστικής βήμα προς βήμα.

η mira murati, επικεφαλής τεχνολογίας του openai, δήλωσε στους financial times ότι η εταιρεία ήταν ιδιαίτερα «επιφυλακτική» στην κυκλοφορία του μοντέλου o1 στο κοινό λόγω των προηγμένων δυνατοτήτων του. πρόσθεσε ότι το μοντέλο έχει δοκιμαστεί από τις λεγόμενες «κόκκινες ομάδες» - ειδικούς σε διάφορους επιστημονικούς τομείς. ο mulati είπε ότι το μοντέλο o1 είχε πολύ καλύτερες επιδόσεις από τα προηγούμενα μοντέλα στους γενικούς δείκτες ασφάλειας. (συγγραφέας/xiao yu)

για περισσότερα νέα από πρώτο χέρι, πραγματοποιήστε λήψη του προγράμματος-πελάτη phoenix news και εγγραφείτε στην τεχνολογία phoenix. εάν θέλετε να δείτε σε βάθος αναφορές, αναζητήστε την "ifeng.com technology" στο wechat.