νέα

Πρώην ερευνητής του OpenAI προειδοποιεί τον «παλιό εργοδότη»: Η μη ελεγχόμενη τεχνητή νοημοσύνη θα προκαλέσει καταστροφική βλάβη

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News στις 24 Αυγούστου. Σύμφωνα με μια αναφορά του Business Insider ώρα Πεκίνου σήμερα το πρωί, αφότου το OpenAI εξέφρασε δημόσια την αντίθεσή του στο νομοσχέδιο SB 1047 της Καλιφόρνια (Νόμος για την Ασφάλεια AI), δύο πρώην ερευνητές του OpenAI ήρθαν να μιλήσουν ανοιχτά κλαμπ» και να εκδώσει προειδοποίηση.

Ο νόμος για την ασφάλεια της τεχνητής νοημοσύνης της Καλιφόρνια θα απαιτήσει από τις εταιρείες τεχνητής νοημοσύνης να λάβουν μέτρα για να αποτρέψουν τα μοντέλα τους από το να προκαλούν «σοβαρή βλάβη», όπως η ανάπτυξη βιολογικών όπλων που μπορεί να προκαλέσουν μεγάλες απώλειες ή να προκαλέσουν περισσότερα από 500 εκατομμύρια δολάρια ΗΠΑ (Σημείωση IT Home: επί του παρόντος περίπου 3,566 δισεκατομμύρια γιουάν) οικονομικές απώλειες.

Οι πρώην υπάλληλοι έγραψαν στον κυβερνήτη της Καλιφόρνια Γκάβιν Νιούσομ και σε άλλους νομοθέτες ότι η αντίθεση του OpenAI στο νομοσχέδιο ήταν απογοητευτική αλλά όχι έκπληξη.

Δύο ερευνητές, ο William Saunders και ο Daniel Cocotailo, έγραψαν στην επιστολή: «Εμείς (προηγουμένως) επιλέξαμε να συμμετάσχουμε στο OpenAI επειδή θέλαμε να διασφαλίσουμε ότι η εταιρεία αναπτύσσει «απίστευτα ισχυρά συστήματα AI.» Ασφάλεια.Αλλά επιλέξαμε να φύγουμε επειδή έχασε την εμπιστοσύνη μας στην ανάπτυξη συστημάτων AI με ασφάλεια, ειλικρίνεια και υπευθυνότητα.

Η επιστολή ανέφερε επίσης ότι ο Διευθύνων Σύμβουλος του OpenAI, Άλτμαν, είχε υποστηρίξει δημοσίως τη ρύθμιση της τεχνητής νοημοσύνης πολλές φορές, αλλά όταν ετοιμάστηκαν να εισαχθούν πραγματικά ρυθμιστικά μέτρα, εξέφρασαν την αντίθεσή τους. «Η ανάπτυξη μοντέλων τεχνητής νοημοσύνης αιχμής χωρίς επαρκείς προφυλάξεις ασφαλείας ενέχει προβλέψιμο κίνδυνο καταστροφικής βλάβης για το κοινό».