νέα

η φωτογραφία με τεχνητή νοημοσύνη προκαλεί διαμάχη: ο μίκυ μάους καπνίζει, ο τραμπ φιλά, ο μπομπ σφουγγαράκης φοράει ναζιστική στολή

2024-09-04

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

zhidixi (δημόσιος λογαριασμός: zhidxcom)

συντάχθηκε |

συντάκτης |. mo ying

σύμφωνα με μια αναφορά της wall street journal στις 2 σεπτεμβρίου, μερικές αστειευόμενες και πολιτικά παραπλανητικές εικόνες τεχνητής νοημοσύνης κυκλοφόρησαν πρόσφατα στην πλατφόρμα κοινωνικής δικτύωσης "mickey κρατά ένα όπλο" κ.λπ., το περιεχόμενο της εικόνας κάνει τους χρήστες να αισθάνονται σύγχυση και άβολα.

αυτές οι εικόνες τεχνητής νοημοσύνης δημιουργούνται από μεγάλα μοντέλα τεχνητής νοημοσύνης όπως το grok-2 και το gemini. το grok-2 αναπτύχθηκε από τον xai, τον αμερικανικό τεχνητή νοημοσύνη μεγάλου μοντέλου μονόκερος που ιδρύθηκε από τον musk, και ο gemini προήλθε από τον αμερικανικό τεχνολογικό γίγαντα google.

πρόσφατα, η google έχει βελτιώσει τον μηχανισμό ελέγχου για περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη, προκειμένου να αποφύγει την παραγωγή τεχνητής νοημοσύνης που είναι προκατειλημμένη, διφορούμενη, λανθασμένη, ρατσιστική και αντίθετη με ιστορικά γεγονότα.

σε απάντηση σε παρόμοια προβλήματα, το openai, ένα μεγάλο αμερικανικό μοντέλο τεχνητής νοημοσύνης μονόκερος, έχει απαγορεύσει τη χρήση τεχνητής νοημοσύνης για τη δημιουργία σαφώς κατευθυντικών χαρακτήρων για την ενίσχυση της ανασκόπησης περιεχομένου της δημιουργίας εικόνων ai.

1. το νέας γενιάς μεγάλο μοντέλο της xai grok-2, επιτρέπει σιωπηρά να κοροϊδεύουν πολιτικά πρόσωπα

ανοίξτε την πλατφόρμα κοινωνικής δικτύωσης kamala harris kisses.

αυτές οι αινιγματικές, άβολες εικόνες δημιουργήθηκαν χρησιμοποιώντας το xai και τα νέα μοντέλα ή λογισμικό τεχνητής νοημοσύνης της google.

▲στην εικόνα που δημιουργήθηκε με χρήση τεχνολογίας ai, ο τραμπ «αγκαλιάζει» τον χάρις «πριγκίπισσα», με ένα καθαρό πορτρέτο (πηγή: «wall street journal»)

στις 14 αυγούστου, η xai παρουσίασε το μοντέλο μεγάλης γλώσσας επόμενης γενιάς grok-2. μέσα σε λίγες μέρες από την κυκλοφορία του μοντέλου, η πλατφόρμα x πλημμύρισε από εικόνες που λέγεται ότι δημιουργήθηκαν χρησιμοποιώντας το grok-2. σε αυτές τις σκηνές, οι «αντίπαλοι» τραμπ και χάρις είναι οικείοι, ενώ ο μίκυ στον κόσμο των παραμυθιών κρατάει όπλο και καπνίζει. αυτές οι εικόνες που παράγονται με τη χρήση γενετικής τεχνολογίας ai όχι μόνο βλάπτουν την εικόνα των πολιτικών προσώπων, αλλά προκαλούν και χαρακτήρες που προστατεύονται από πνευματικά δικαιώματα να κάνουν κάποιες προσβλητικές ενέργειες. «αν το έβλεπε η disney, μάλλον δεν θα γελούσαν».

το μοντέλο μεγάλης γλώσσας grok-2 τροφοδοτείται από το black forest labs, μια γερμανική startup δημιουργίας εικόνων και βίντεο με τεχνητή νοημοσύνη, και προς το παρόν είναι διαθέσιμο μόνο σε συνδρομητές επί πληρωμή της πλατφόρμας x.

σύμφωνα με την πολιτική του αργότερα την ημέρα που κυκλοφόρησε το grok-2, αν και ορισμένες παράνομες εικόνες τεχνητής νοημοσύνης δεν μπορούσαν πλέον να ανακτηθούν στην πλατφόρμα x, οι χρήστες μπορούσαν να χρησιμοποιήσουν το grok-2 για να δημιουργήσουν νέα έργα γεμάτα «κακό γούστο».

ωστόσο, ο musk, ο πραγματικός ελεγκτής της πλατφόρμας x, δεν φαίνεται να ενοχλεί αυτού του είδους την πολιτική παραπλάνηση. τον ιούλιο, έκανε retweet ένα ψεύτικο deepfake βίντεο της χάρις που αποκαλούσε τον εαυτό της «η απόλυτη πρόσληψη διαφορετικότητας».

οι ειδικοί στον έλεγχο περιεχομένου είπαν ότι παρόμοια εργαλεία παραγωγής τεχνητής νοημοσύνης ενδέχεται να δημιουργήσουν ψευδείς πληροφορίες κατά τη διάρκεια του εκλογικού κύκλου των ηπα και ακόμη και να εξαπλωθούν στην κοινωνία.

στις 19 αυγούστου, μια ημέρα πριν από την έναρξη του εθνικού συνεδρίου των δημοκρατικών του 2024, ο τραμπ δημοσίευσε μια εικόνα που υποπτευόταν ότι δημιουργήθηκε από ai. εκείνη την εποχή, επειδή ο σημερινός πρόεδρος των ηπα μπάιντεν είχε παραιτηθεί από την επανεκλογή, μετά από εσωκομματική ψηφοφορία, ο χάρις, ο πρωταγωνιστής αυτής της εικόνας της τεχνητής νοημοσύνης, είχε κλειδώσει εκ των προτέρων την προεδρική υποψηφιότητα των δημοκρατικών.

η εικόνα απεικονίζει τη σκηνή "ο χάρις να δίνει μια ομιλία στο σικάγο", με μια κόκκινη σημαία με ένα δρεπάνι και σφυρί στο βάθος, που φαίνεται να υπονοεί ότι ο χάρις είναι κομμουνιστής, πυροδοτώντας έτσι πολιτικές διαμάχες.

2. το μεγάλο μοντέλο gemini της google έχει ανατραπεί επανειλημμένα και δεν κάνει διάκριση μεταξύ μαύρου και λευκού όταν πρόκειται για ευαίσθητα στοιχεία.

το chatbot gemini της google, που τροφοδοτείται από το ομώνυμο μεγάλο γλωσσικό μοντέλο gemini.

πριν από την κυκλοφορία της νέας έκδοσης του gemini chatbot τον φεβρουάριο του τρέχοντος έτους, η google διόρθωση σφαλμάτων στο μοντέλο gemini έτσι ώστε να μπορεί να ανταποκρίνεται σε πιο διαφορετικούς χαρακτήρες με πιο διφορούμενα χαρακτηριστικά όταν συναντά οδηγίες που αφορούν τη δημιουργία χαρακτήρων.

για παράδειγμα, όταν δημιουργείται εικόνες γιατρών, η τεχνητή νοημοσύνη συνήθως τείνει να δίνει εικόνες λευκών ανδρών. η google ελπίζει να μειώσει την «προκατάληψη» των μοντέλων δημιουργίας εικόνων ai μέσω της «διαφοροποίησης».

όμως μέσα σε ένα μήνα το μοντέλο gemini έκανε ένα μεγάλο λάθος. όταν αυτό το μοντέλο παρήγαγε «φυλετικά διαφορετικές» εικόνες, δεν ταίριαζε με τη θρησκεία, τη φυλή, το φύλο κ.λπ., με αποτέλεσμα πολλές εικόνες ανθρώπων που δεν συμμορφώνονταν με τα ιστορικά γεγονότα. αφού έλαβε κριτική από μεγάλο αριθμό χρηστών του διαδικτύου, η google αποφάσισε να αναστείλει τη λειτουργία δημιουργίας εικόνας του μοντέλου gemini, βάζοντας «ξαφνικό φρένο» στους πιθανούς κινδύνους της δημιουργίας εικόνων ai.

η sissie hsiao, αντιπρόεδρος της google και επικεφαλής του chatbot gemini, δήλωσε σε μια πρόσφατη συνέντευξη ότι η διασφάλιση ότι το μοντέλο τεχνητής νοημοσύνης υπακούει στις οδηγίες του χρήστη είναι μια αρχή που τηρεί η google. "αυτός είναι ο δίδυμος του χρήστη και εξυπηρετούμε τον χρήστη."

ωστόσο, ορισμένες από τις εικόνες που δημιουργούνται χρησιμοποιώντας το chatbot gemini εξακολουθούν να έρχονται σε αντίθεση με ιστορικά γεγονότα. πολλοί χρήστες της πλατφόρμας x τράβηξαν στιγμιότυπα οθόνης αμφισβητώντας τις δυνατότητες εποπτείας περιεχομένου του μοντέλου της google.

σχετικά με το μοντέλο gemini που παράγει προσβλητικό και ρατσιστικά προκατειλημμένο περιεχόμενο, ο διευθύνων σύμβουλος της google, sundar pichai, απάντησε ότι "αυτό είναι απαράδεκτο" και η εταιρεία θα "αντιμετωπίσει πλήρως αυτό το ζήτημα".

ωστόσο, η google πρόσφατα εξόργισε ξανά τους χρήστες λόγω του χαλαρού περιεχομένου των εικόνων που δημιουργούνται με την τεχνολογία ai.

στα μέσα αυγούστου, κυκλοφόρησαν τα smartphone τελευταίας γενιάς της google, η σειρά pixel 9. η σειρά pixel 9 εισάγει ένα εργαλείο επεξεργασίας φωτογραφιών με τεχνητή νοημοσύνη που ονομάζεται "reimagine", έτσι ώστε οι χρήστες να μπορούν να καλούν ai για να τροποποιήσουν το περιεχόμενο στις φωτογραφίες εισάγοντας μηνύματα κειμένου.

ωστόσο, ορισμένοι χρήστες ανακάλυψαν ότι το reimagine επιτρέπει στους χρήστες να προσθέτουν κάποια παράνομα στοιχεία, όπως να «φορούν» ναζιστικά σύμβολα για τον μπομπ σφουγγαράκης. αυτό το ελάττωμα ασφάλειας περιεχομένου προκάλεσε αηδία στους χρήστες.

ένας εκπρόσωπος της google είπε ότι η εταιρεία «ενισχύει και βελτιώνει συνεχώς τις υπάρχουσες προστασίες ασφαλείας για μοντέλα τεχνητής νοημοσύνης».

η google αποκάλυψε στα τέλη αυγούστου του τρέχοντος έτους ότι το chatbot της τεχνητής νοημοσύνης gemini θα εκκινήσει εκ νέου τη λειτουργία δημιουργίας εικόνων χαρακτήρων αυτή η λειτουργία θα είναι αρχικά διαθέσιμη μόνο σε άγγλους χρήστες με συνδρομές επί πληρωμή. ταυτόχρονα, η google έχει σημειώσει «σημαντική πρόοδο» στη δημιουργία και την αναθεώρηση εικόνων ai, αλλά είναι «αδύνατο κάθε εικόνα που δημιουργείται από το gemini να είναι ακριβής».

3. τα ηθικά και νομικά όρια των εικόνων που δημιουργούνται από την τεχνητή νοημοσύνη πρέπει να καθοριστούν ως σημεία αναφοράς του κλάδου

επί του παρόντος, το λογισμικό δημιουργίας εικόνων ai συνεχίζει να δοκιμάζει την ουσία των πολιτικών της πλατφόρμας κοινωνικών μέσων. αυτό το φαινόμενο έχει πυροδοτήσει συζητήσεις και προβληματισμούς, όπως εάν οι εταιρείες τεχνολογίας θα πρέπει να ελέγχουν και πώς να ελέγχουν την παραγωγή περιεχομένου από το λογισμικό δημιουργίας εικόνων τεχνητής νοημοσύνης αιχμής;

προτού ανοίξει η γενετική τεχνολογία ai στους χρήστες του διαδικτύου για δωρεάν δημιουργία, το λογισμικό δημιουργίας εικόνων ai είναι εξοπλισμένο με αποτελεσματικά μέτρα προστασίας ασφάλειας για να διασφαλίσει ότι τα έργα που δημιουργούνται από την τεχνητή νοημοσύνη δεν παραβιάζουν κανονισμούς ή παραβιάζουν ηθικές αρχές. αυτή είναι η πίεση που αντιμετωπίζουν οι εταιρείες τεχνολογίας για τον συντονισμό του περιεχομένου ai.

εκτός από τα ηθικά διλήμματα, οι προγραμματιστές πίσω από μοντέλα και λογισμικό τεχνητής νοημοσύνης αντιμετωπίζουν επίσης πολλές πιθανές νομικές υποχρεώσεις. αυτό συμβαίνει επειδή τα δεδομένα εκπαίδευσης που χρησιμοποιούν κατά την εκπαίδευση μοντέλων και λογισμικού τεχνητής νοημοσύνης συνεπάγονται παραβίαση δικαιωμάτων πνευματικής ιδιοκτησίας και άλλων δικαιωμάτων.

λόγω εικαζόμενης παραβίασης, οι καλλιτέχνες ξεκίνησαν μια ομαδική αγωγή κατά των startups εικόνας τεχνητής νοημοσύνης stability ai και midjourney το 2023. η ομαδική αγωγή στοχεύει επίσης μια σειρά εταιρειών με μοντέλα δημιουργίας εικόνας ai, όπως η deviantart και η runway.

επιπλέον, εκτός από την ομαδική αγωγή από τους καλλιτέχνες, η stability ai αντιμετωπίζει και μήνυση από την αμερικανική εταιρεία οπτικών μέσων getty images. ο τελευταίος κατηγόρησε το stability ai για παραβίαση των δικαιωμάτων του να εκπαιδεύει μοντέλα. σε απάντηση, ένας εκπρόσωπος της getty images είπε ότι η εταιρεία έχει τώρα λανσάρει το δικό της μοντέλο δημιουργίας εικόνων ai.

το openai κυκλοφόρησε το μοντέλο παραγωγής εικόνας ai dall-e το 2022. αφού έλαβε μια ομαδική μήνυση από καλλιτέχνες πέρυσι, το openai πρόσθεσε μια νέα επιλογή στη διεπαφή μοντέλων dall-e, επιτρέποντας στους δημιουργούς να ελέγξουν την επιλογή της προσωπικής μεταφόρτωσης εικόνων που δεν θα χρησιμοποιηθούν για την εκπαίδευση του μοντέλου επόμενης γενιάς dall-e.

η news corp, η μητρική εταιρεία της the wall street journal, υπέγραψε συμφωνία αδειοδότησης περιεχομένου με την openai. χάρη σε αυτό, το openai μπορεί ελεύθερα να έχει πρόσβαση και να συλλέγει τους υπάρχοντες πόρους μέσων της news corp εντός ορισμένων ορίων.

«θα το καταλάβουμε τελικά, ο δικηγόρος για την προστασία της πνευματικής ιδιοκτησίας, geoffrey lottenberg, είπε ότι αυτού του είδους οι νομικές διαφορές που αφορούν πνευματικά δικαιώματα πνευματικής ιδιοκτησίας μπορεί να αποτελέσουν προηγούμενο για τα νομικά όρια της τεχνητής νοημοσύνης. στη συνέχεια, άλλες εταιρείες τεχνητής νοημοσύνης θα έχουν ένα πρότυπο αναφοράς για το ποιες εικόνες, βίντεο και άλλα δεδομένα μπορούν να χρησιμοποιούν κατά την εκπαίδευση των μοντέλων και των chatbot τους.

συμπέρασμα: η google και το openai διορθώνουν ενεργά τα σφάλματα, ενώ το xai κάνει το αντίθετο.

η ικανότητα του λογισμικού δημιουργίας εικόνων ai να δημιουργεί εικόνες συγκεκριμένων, γνωστών προσώπων είναι ένα από τα κύρια σημεία σύγκρουσης σε αυτόν τον γύρο διαμάχης για την αναθεώρηση περιεχομένου ai.

πολλές εταιρείες τεχνολογίας, συμπεριλαμβανομένης της google και της openai, έχουν απαγορεύσει τη χρήση λογισμικού δημιουργίας εικόνων ai για τη δημιουργία έργων τεχνητής νοημοσύνης που περιέχουν συγκεκριμένους χαρακτήρες και των οποίων οι χαρακτήρες είναι εύκολα αναγνωρίσιμοι.

λόγω της επιμονής του ιδρυτή της xai μασκ στην ελευθερία του λόγου, το μεγάλο μοντέλο της xai grok-2 επέλεξε να διατηρήσει τη λειτουργία δημιουργίας εικόνας συγκεκριμένων ανθρώπων και ρόλων. ωστόσο, η κίνηση είχε ως αποτέλεσμα το xai να επικριθεί από τους φύλακες της βιομηχανίας τεχνολογίας.

η καθηγήτρια sarah t. roberts του πανεπιστημίου της καλιφόρνια, στο λος άντζελες, είναι αφοσιωμένη στην έρευνα μετριασμού περιεχομένου. πιστεύει ότι οι χρήστες θα χρησιμοποιήσουν τεχνολογία αιχμής ai για να παραποιήσουν βίντεο, ήχους, φωτογραφίες κ.λπ. για να διαδώσουν ψευδείς πληροφορίες.

ο ρόμπερτς πρόσθεσε ότι όλα τα προβλήματα που υπάρχουν στα παραδοσιακά μέσα κοινωνικής δικτύωσης πρέπει ακόμα να αντιμετωπιστούν από τη γενετική τεχνητή νοημοσύνη και είναι πιο δύσκολο να εντοπιστούν. ειδικότερα, το οπτικό περιεχόμενο όπως οι εικόνες που δημιουργούνται με χρήση τεχνολογίας ai είναι μερικές φορές πιο πειστικό.

η πινάρ γιλντιρίμ, καθηγήτρια στο πανεπιστήμιο της πενσυλβάνια, είπε ότι οι πλατφόρμες προσπαθούν να θέσουν ορισμένους κανόνες, όπως η απαγόρευση λέξεων-κλειδιών, για να αποτρέψουν την κατάχρηση της τεχνολογίας ai. αλλά ταυτόχρονα, οι χρήστες μπορούν επίσης να βρουν τρύπες ασφαλείας και να παρακάμψουν αυτούς τους κανόνες για να αποκτήσουν το περιεχόμενο που θέλουν. «οι χρήστες θα γίνουν πιο έξυπνοι και τελικά θα μπορούν να εκμεταλλευτούν τα κενά για να δημιουργήσουν παράνομο περιεχόμενο», είπε ο γιλντιρίμ.

πηγή: "wall street journal"