πρέπει να είμαστε σε εγρήγορση για τον κίνδυνο «κατάρρευσης μοντέλου» ai
2024-10-01
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
πηγή εικόνας: "theweek" στις ηνωμένες πολιτείες
【η σημερινή άποψη】
◎ο ρεπόρτερ μας zhang jiaxin
από την εξυπηρέτηση πελατών έως τη δημιουργία περιεχομένου, η τεχνητή νοημοσύνη (ai) έχει επηρεάσει την πρόοδο σε πολλούς τομείς. αλλά ένα αυξανόμενο πρόβλημα γνωστό ως «κατάρρευση μοντέλου» θα μπορούσε να αναιρέσει όλα τα επιτεύγματα της τεχνητής νοημοσύνης.
η «κατάρρευση μοντέλου» είναι ένα πρόβλημα που επισημάνθηκε σε μια ερευνητική εργασία που δημοσιεύτηκε στο βρετανικό περιοδικό nature τον ιούλιο του τρέχοντος έτους. αναφέρεται στη χρήση συνόλων δεδομένων που δημιουργούνται από την τεχνητή νοημοσύνη για την εκπαίδευση των μελλοντικών γενεών μοντέλων μηχανικής εκμάθησης, δυνητικά «μολύνοντας» σοβαρά την παραγωγή τους.
πολλά ξένα μέσα ανέφεραν ότι αυτό δεν είναι μόνο ένα τεχνικό ζήτημα για το οποίο οι επιστήμονες δεδομένων πρέπει να ανησυχούν, εάν αφεθεί ανεξέλεγκτη, η «κατάρρευση μοντέλου» μπορεί να έχει βαθύ αντίκτυπο στις επιχειρήσεις, την τεχνολογία και ολόκληρο το ψηφιακό οικοσύστημα. ο καθηγητής xiong deyi, επικεφαλής του εργαστηρίου επεξεργασίας φυσικής γλώσσας του πανεπιστημίου tianjin, εξήγησε την «κατάρρευση μοντέλου» από επαγγελματική σκοπιά σε μια συνέντευξη με έναν δημοσιογράφο της science and technology daily.
τι συμβαίνει με την «κατάρρευση μοντέλου»;
τα περισσότερα μοντέλα τεχνητής νοημοσύνης, όπως το gpt-4, εκπαιδεύονται σε μεγάλες ποσότητες δεδομένων, τα περισσότερα από τα οποία προέρχονται από το διαδίκτυο. αρχικά, αυτά τα δεδομένα παράγονται από ανθρώπους και αντικατοπτρίζουν την ποικιλομορφία και την πολυπλοκότητα της ανθρώπινης γλώσσας, συμπεριφοράς και πολιτισμού. το ai μαθαίνει από αυτά τα δεδομένα και τα χρησιμοποιεί για να δημιουργήσει νέο περιεχόμενο.
ωστόσο, καθώς η τεχνητή νοημοσύνη αναζητά στον ιστό νέα δεδομένα για να εκπαιδεύσει την επόμενη γενιά μοντέλων, η τεχνητή νοημοσύνη είναι πιθανό να απορροφήσει μέρος του περιεχομένου που παράγει, δημιουργώντας έναν βρόχο ανατροφοδότησης στον οποίο η έξοδος ενός ai γίνεται η είσοδος ενός άλλου. όταν η γενετική τεχνητή νοημοσύνη εκπαιδεύεται με το δικό της περιεχόμενο, η παραγωγή της μπορεί επίσης να αποκλίνει από την πραγματικότητα. είναι σαν να δημιουργείτε πολλά αντίγραφα ενός εγγράφου, με κάθε έκδοση να χάνει μερικές από τις αρχικές λεπτομέρειες και να καταλήγει σε ένα θολό, λιγότερο ακριβές αποτέλεσμα.
οι new york times ανέφεραν ότι όταν η τεχνητή νοημοσύνη διαχωρίζεται από το περιεχόμενο της ανθρώπινης εισροής, η ποιότητα και η ποικιλομορφία της παραγωγής της θα μειωθεί.
ο xiong deyi εξήγησε: "η κατανομή των πραγματικών δεδομένων ανθρώπινης γλώσσας συνήθως συμμορφώνεται με τον νόμο του zipf, δηλαδή η συχνότητα των λέξεων είναι αντιστρόφως ανάλογη με τη σειρά των λέξεων. ο νόμος του zipf αποκαλύπτει ότι υπάρχει ένα φαινόμενο μακράς ουράς στα δεδομένα της ανθρώπινης γλώσσας, δηλαδή , υπάρχει ένας μεγάλος αριθμός περιεχομένου χαμηλής συχνότητας και διαφορετικού περιεχομένου."
ο xiong deyi εξήγησε περαιτέρω ότι λόγω σφαλμάτων όπως η κατά προσέγγιση δειγματοληψία, το φαινόμενο της μακράς ουράς της πραγματικής κατανομής εξαφανίζεται σταδιακά στα δεδομένα που παράγονται από το μοντέλο πραγματική κατανομή, και η ποικιλομορφία μειώνεται, με αποτέλεσμα την «κατάρρευση του μοντέλου».
είναι κακό το ai να «κανιβαλίζει» τον εαυτό του;
σχετικά με την «κατάρρευση μοντέλου», το αμερικανικό περιοδικό «theweek» δημοσίευσε πρόσφατα ένα άρθρο σχολιάζοντας ότι αυτό σημαίνει ότι η τεχνητή νοημοσύνη «κανιβαλίζει» τον εαυτό της.
ο xiong deyi πιστεύει ότι με την εμφάνιση αυτού του φαινομένου, όσο υψηλότερο είναι το ποσοστό των δεδομένων που δημιουργούνται από το μοντέλο στην επόμενη επαναληπτική εκπαίδευση του μοντέλου, τόσο περισσότερες πληροφορίες θα χάσει το επόμενο μοντέλο για πραγματικά δεδομένα, καθιστώντας την εκπαίδευση του μοντέλου πιο δύσκολη.
με την πρώτη ματιά, η "κατάρρευση μοντέλου" φαίνεται να είναι ένα εξειδικευμένο πρόβλημα για το οποίο μόνο οι ερευνητές τεχνητής νοημοσύνης πρέπει να ανησυχούν στο εργαστήριο επί του παρόντος, αλλά ο αντίκτυπός της θα είναι εκτεταμένος και μακροχρόνιος.
ένα άρθρο στο αμερικανικό "atlantic monthly" επεσήμανε ότι για να αναπτύξουν πιο προηγμένα προϊόντα τεχνητής νοημοσύνης, οι τεχνολογικοί γίγαντες μπορεί να χρειαστεί να παρέχουν συνθετικά δεδομένα σε προγράμματα, δηλαδή προσομοιωμένα δεδομένα που δημιουργούνται από συστήματα τεχνητής νοημοσύνης. ωστόσο, επειδή η έξοδος ορισμένων γενεσιουργών ai είναι γεμάτη μεροληψία, παραπληροφόρηση και παράλογο περιεχόμενο, αυτά θα μεταφερθούν στην επόμενη έκδοση του μοντέλου ai.
το αμερικανικό περιοδικό forbes ανέφερε ότι η «κατάρρευση μοντέλου» μπορεί επίσης να επιδεινώσει τα προβλήματα μεροληψίας και ανισότητας στην τεχνητή νοημοσύνη.
ωστόσο, αυτό δεν σημαίνει ότι όλα τα συνθετικά δεδομένα είναι κακά. οι new york times ανέφεραν ότι σε ορισμένες περιπτώσεις, τα συνθετικά δεδομένα μπορούν να βοηθήσουν την τεχνητή νοημοσύνη να μάθει. για παράδειγμα, όταν η έξοδος ενός μεγάλου μοντέλου ai χρησιμοποιείται για την εκπαίδευση ενός μικρότερου μοντέλου ή όταν μπορεί να επαληθευτεί η σωστή απάντηση, όπως η λύση ενός μαθηματικού προβλήματος ή η καλύτερη στρατηγική για παιχνίδια όπως το σκάκι, το go κ.λπ.
η τεχνητή νοημοσύνη κυριαρχεί στο διαδίκτυο;
το πρόβλημα της εκπαίδευσης νέων μοντέλων ai μπορεί να αναδείξει μια μεγαλύτερη πρόκληση. το περιοδικό «scientific american» δήλωσε ότι το περιεχόμενο τεχνητής νοημοσύνης καταλαμβάνει το διαδίκτυο και το κείμενο που δημιουργείται από μεγάλα γλωσσικά μοντέλα κατακλύζει εκατοντάδες ιστότοπους. σε σύγκριση με το περιεχόμενο που δημιουργείται από ανθρώπους, το περιεχόμενο ai μπορεί να δημιουργηθεί πιο γρήγορα και σε μεγαλύτερες ποσότητες.
ο διευθύνων σύμβουλος του openai, sam altman, δήλωσε τον φεβρουάριο του τρέχοντος έτους ότι η εταιρεία παράγει περίπου 100 δισεκατομμύρια λέξεις κάθε μέρα, που ισοδυναμούν με το κείμενο 1 εκατομμυρίου μυθιστορημάτων, ένα μεγάλο μέρος των οποίων ρέει στο διαδίκτυο.
η αφθονία περιεχομένου τεχνητής νοημοσύνης στο διαδίκτυο, συμπεριλαμβανομένων των bot-tweets, γελοίων εικόνων και πλαστών σχολίων, έχει τροφοδοτήσει μια πιο αρνητική αντίληψη. το περιοδικό "forbes" δήλωσε ότι η "dead internet theory" πιστεύει ότι το μεγαλύτερο μέρος της κίνησης, των αναρτήσεων και των χρηστών στο διαδίκτυο έχουν αντικατασταθεί από ρομπότ και περιεχόμενο που δημιουργείται από ai, και οι άνθρωποι δεν μπορούν πλέον να καθορίσουν την κατεύθυνση του διαδικτύου. η ιδέα κυκλοφόρησε αρχικά μόνο σε διαδικτυακά φόρουμ, αλλά πρόσφατα απέκτησε μεγαλύτερη έλξη.
ευτυχώς, οι ειδικοί λένε ότι η «νεκρή θεωρία του διαδικτύου» δεν έχει γίνει ακόμη πραγματικότητα. το περιοδικό «forbes» επεσήμανε ότι η συντριπτική πλειονότητα των ευρέως διαδεδομένων δημοσιεύσεων, συμπεριλαμβανομένων ορισμένων βαθιών απόψεων, αιχμηρής γλώσσας, έντονων παρατηρήσεων και ορισμών νέων πραγμάτων σε νέα περιβάλλοντα, δεν δημιουργούνται από την τεχνητή νοημοσύνη.
ωστόσο, ο xiong deyi τόνισε ακόμη: «με την ευρεία εφαρμογή μεγάλων μοντέλων, το ποσοστό των συνθετικών δεδομένων ai στα δεδομένα του διαδικτύου μπορεί να γίνεται όλο και υψηλότερο μοντέλα εκπαίδευσης θα υπάρξει ένας ορισμένος βαθμός «κατάρρευσης του μοντέλου» και θα έχει επίσης αρνητικό αντίκτυπο στην κοινωνία, όπως οι δημιουργούμενες λανθασμένες πληροφορίες που παραπλανούν ορισμένους ανθρώπους επίσης ένα κοινωνικό ζήτημα που πρέπει να αντιμετωπιστεί με ασφάλεια. αποτελεσματική απόκριση από διπλή οπτική γωνία με την τεχνολογία ai.
(πηγή: science and technology daily)