Νέα

Η Nature δημοσίευσε ένα άρθρο: Ο ορισμός της «ακαδημαϊκής λογοκλοπής» είναι ασαφής από την τεχνητή νοημοσύνη.

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



(Πηγή: Piotr Kowalczyk, εικονογράφος, γραφίστας)

【Σημείωση του συντάκτη】Τον Απρίλιο του τρέχοντος έτους, η Science ανέτρεψε τον προηγούμενο σιδερένιο κανόνα: ορίζει ότι η γενετική τεχνητή νοημοσύνη (AI) και τα μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να χρησιμοποιηθούν νόμιμα για τη δημιουργία εικονογραφήσεων και τη σύνταξη περιεχομένου χαρτιού μετά την αναφορά του κεφαλαίου "Μέθοδοι" της εργασίας. .

τώρα, Η τεχνητή νοημοσύνη μπορεί να βοηθήσει τους ερευνητές να απελευθερώσουν περισσότερο χρόνο για να σκεφτούν, αλλά το ερώτημα είναι αν αυτό θεωρείται λογοκλοπή; Και υπό ποιες συνθήκες θα πρέπει να επιτρέπεται η χρήση αυτής της τεχνολογίας;

Πρόσφατα, η δημοσιογράφος της επιστήμης Diana Kwon δημοσίευσε ένα άρθρο στο περιοδικό Nature συζητώντας την εφαρμογή των εργαλείων γενετικής τεχνητής νοημοσύνης στην ακαδημαϊκή γραφή και τις προκλήσεις και τις επιπτώσεις που φέρνει.

Επισήμανε ότι τα εργαλεία παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT δείχνουν μεγάλη δυνητική αξία στην εξοικονόμηση χρόνου, τη βελτίωση της σαφήνειας και τη μείωση των γλωσσικών εμποδίων, αλλά μπορεί επίσης να περιλαμβάνουν θέματα λογοκλοπής και παραβίασης πνευματικών δικαιωμάτων.

Σημείωσε επίσης ότι η χρήση της τεχνητής νοημοσύνης έχει εκραγεί στην ακαδημαϊκή γραφή, ειδικά στον βιοϊατρικό τομέα. Ωστόσο,Ο εντοπισμός κειμένου που δημιουργείται από τεχνητή νοημοσύνη είναι δύσκολος επειδή μπορεί να αποδοθεί σχεδόν μη ανιχνεύσιμο με ελαφρά επεξεργασία . Την ίδια στιγμή,Τα όρια μεταξύ νόμιμης και παράνομης χρήσης εργαλείων τεχνητής νοημοσύνης ενδέχεται να θολώσουν περαιτέρω, καθώς όλο και περισσότερες εφαρμογές και εργαλεία ενσωματώνουν δυνατότητες τεχνητής νοημοσύνης.

Τελικά, πιστεύει ότι χρειάζονται σαφέστερες κατευθυντήριες γραμμές για τη χρήση της τεχνητής νοημοσύνης στην ακαδημαϊκή γραφή για να βοηθήσουν τους ερευνητές και τα περιοδικά να προσδιορίσουν πότε είναι σκόπιμο να χρησιμοποιηθούν εργαλεία τεχνητής νοημοσύνης και πώς να αποκαλύψουν τη χρήση τους.

Ο Academic Toutiao έκανε μια απλή συλλογή χωρίς να αλλάξει την κύρια ιδέα του αρχικού κειμένου. Το περιεχόμενο έχει ως εξής:

Οι ακαδημαϊκοί έχουν συγκλονιστεί από περιστατικά λογοκλοπής φέτος, από την παραίτηση του προέδρου του Πανεπιστημίου του Χάρβαρντ εν μέσω κατηγοριών τον Ιανουάριο έως τις αποκαλύψεις τον Φεβρουάριο για λογοκλοπή κειμένου που εμφανίστηκε σε εκθέσεις αξιολόγησης από ομοτίμους.

Όμως η ακαδημαϊκή γραφή αντιμετωπίζει μεγαλύτερο πρόβλημα . Η ταχεία δημοτικότητα των εργαλείων παραγωγής τεχνητής νοημοσύνης (AI) έχει εγείρει ερωτήματα σχετικά με το εάν αυτό θεωρείται λογοκλοπή και υπό ποιες συνθήκες θα πρέπει να επιτρέπεται. «Η τεχνητή νοημοσύνη χρησιμοποιείται σε ένα ευρύ φάσμα, από εξ ολοκλήρου γραμμένο από τον άνθρωπο έως εξ ολοκλήρου γραμμένο με τεχνητή νοημοσύνη, και υπάρχει μια τεράστια περιοχή σύγχυσης στο μεταξύ», δήλωσε ο Τζόναθαν Μπέιλι, σύμβουλος πνευματικών δικαιωμάτων και λογοκλοπής στη Νέα Ορλεάνη της Λουιζιάνα.

Τα εργαλεία δημιουργίας τεχνητής νοημοσύνης που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLM), όπως το ChatGPT, μπορούν να εξοικονομήσουν χρόνο, να κάνουν το κείμενο πιο σαφές και κατανοητό και να μειώσουν τα γλωσσικά εμπόδια. Πολλοί ερευνητές πιστεύουν τώρα ότι είναι αποδεκτά σε ορισμένες περιπτώσεις και ότι η χρήση τους θα πρέπει να αποκαλύπτεται πλήρως.

Αλλά αυτά τα εργαλεία περιπλέκουν μια ήδη έντονη συζήτηση σχετικά με την ακατάλληλη χρήση της εργασίας άλλων ανθρώπων . Το LLM εκπαιδεύεται να δημιουργεί κείμενο μαθαίνοντας από ένα μεγάλο σύνολο δημοσιευμένων κειμένων. Επομένως, αυτό θα μπορούσε να οδηγήσει σε συμπεριφορά που μοιάζει με λογοκλοπή, εάν ένας ερευνητής λάβει τα εύσημα για το έργο ενός μηχανήματος ή εάν ένα κείμενο που δημιουργείται από μηχανή μοιάζει πολύ με το έργο κάποιου χωρίς να αποδίδεται η πηγή. Αυτά τα εργαλεία μπορούν επίσης να χρησιμοποιηθούν για τη συγκάλυψη σκόπιμα λογοκλοποποιημένου κειμένου και η χρήση τους είναι δύσκολο να εντοπιστεί. «Θα είναι πολύ, πολύ δύσκολο να ορίσουμε τι εννοούμε με τον όρο ακαδημαϊκή ανεντιμότητα ή λογοκλοπή και πού βρίσκονται τα όρια», λέει ο οικολόγος Pete Cotton από το Πανεπιστήμιο του Plymouth στο Ηνωμένο Βασίλειο.

Σε μια έρευνα του 2023 σε 1.600 ερευνητές,Το 68% των ερωτηθέντων είπε ότι η τεχνητή νοημοσύνη θα κάνει τη λογοκλοπή ευκολότερη και πιο δύσκολη την ανίχνευση . Η Debora Weber-Wulff, εμπειρογνώμονας αναγνώρισης λογοκλοπής στο Πανεπιστήμιο Εφαρμοσμένων Επιστημών του Βερολίνου, είπε: «Όλοι ανησυχούν για άλλους ανθρώπους που χρησιμοποιούν αυτά τα συστήματα και επίσης ανησυχούν ότι δεν τα χρησιμοποιούν όταν θα έπρεπε να τα χρησιμοποιούν. είναι λίγος πανικός γι' αυτό».

Όταν η λογοκλοπή συναντά την τεχνητή νοημοσύνη

Όπως ορίζεται από το Γραφείο Ακεραιότητας Έρευνας των ΗΠΑ,Λογοκλοπή είναι «η χρήση των ιδεών, της διαδικασίας, των αποτελεσμάτων ή της γραφής ενός άλλου ατόμου χωρίς την κατάλληλη αναφορά ή αναγνώριση». . Μια μελέτη του 2015 υπολόγισε ότι το 1,7% των επιστημόνων παραδέχτηκε λογοκλοπή και το 30% γνώριζε ότι οι συνάδελφοί τους είχαν εμπλακεί σε αυτή τη συμπεριφορά.

Το LLM μπορεί να επιδεινώσει αυτήν την κατάσταση.Η σκόπιμη λογοκλοπή ενός ανθρώπινου κειμένου μπορεί εύκολα να συγκαλυφθεί εάν κάποιος αφήσει πρώτα ένα LLM να ξαναγράψει το κείμενο . Ο Muhammad Abdul-Mageed, επιστήμονας υπολογιστών και γλωσσολόγος στο Πανεπιστήμιο της Βρετανικής Κολομβίας στον Καναδά, λέει ότι τα εργαλεία μπορούν να κατευθυνθούν για να ξαναγράψουν με περίπλοκους τρόπους, όπως στο στυλ ενός ακαδημαϊκού περιοδικού.

Ένα βασικό ερώτημα είναι εάν η χρήση μη αναγνωρισμένου περιεχομένου γραμμένου εξ ολοκλήρου από μηχανή και όχι από άνθρωπο θεωρείται λογοκλοπή. Όχι απαραίτητα, λένε πολλοί ερευνητές. Για παράδειγμα, το Ευρωπαϊκό Δίκτυο Ακαδημαϊκής Ακεραιότητας ορίζει τη μη εξουσιοδοτημένη ή αδήλωτη χρήση εργαλείων τεχνητής νοημοσύνης για γραφή ως «μη εξουσιοδοτημένη παραγωγή περιεχομένου» και όχι ως λογοκλοπή. "Για μένα, η λογοκλοπή θα πρέπει να είναι κάτι που μπορεί να αποδοθεί σε ένα άλλο αναγνωρίσιμο άτομο", είπε ο Weber-Wulff, προσθέτοντας ότι ενώ υπάρχουν περιπτώσεις δημιουργίας κειμένου τεχνητής νοημοσύνης που είναι σχεδόν πανομοιότυπο με το υπάρχον περιεχόμενο που έχει γραφτεί από τον άνθρωπο, αλλά αυτό είναι συνήθως δεν αρκεί για να θεωρηθεί λογοκλοπή.

Ωστόσο, μερικοί άνθρωποι πιστεύουν ότι τα εργαλεία παραγωγής τεχνητής νοημοσύνης παραβιάζουν τα πνευματικά δικαιώματα.Η λογοκλοπή και η παραβίαση πνευματικών δικαιωμάτων είναι και οι δύο ακατάλληλες χρήσεις έργων άλλων ανθρώπων Η λογοκλοπή αποτελεί παραβίαση της ακαδημαϊκής δεοντολογίας, ενώ η μη εξουσιοδοτημένη χρήση έργων που προστατεύονται από πνευματικά δικαιώματα μπορεί να παραβιάζει το νόμο. . «Αυτά τα συστήματα τεχνητής νοημοσύνης είναι χτισμένα στη δουλειά εκατομμυρίων ή ακόμα και εκατοντάδων εκατομμυρίων ανθρώπων», δήλωσε η Rada Mihalcea, επιστήμονας υπολογιστών στο Πανεπιστήμιο του Michigan στο Ann Arbor.

Ορισμένες εταιρείες μέσων ενημέρωσης και συγγραφείς διαμαρτυρήθηκαν για αυτό που θεωρούν ως παραβίαση πνευματικών δικαιωμάτων από την τεχνητή νοημοσύνη. Τον Δεκέμβριο του 2023, οι New York Times κατέθεσαν αγωγή πνευματικών δικαιωμάτων κατά της Microsoft και του OpenAI. Η μήνυση ισχυρίζεται ότι οι δύο εταιρείες αντέγραψαν και χρησιμοποίησαν εκατομμύρια άρθρα των New York Times για να εκπαιδεύσουν το LLM και ότι το περιεχόμενο που δημιουργείται από το LLM «ανταγωνίζεται» τώρα το περιεχόμενο της δημοσίευσης. Η μήνυση περιλαμβάνει περιπτώσεις στις οποίες προτροπές οδήγησαν το GPT-4 να αντιγράψει πολλά αποσπάσματα ενός άρθρου εφημερίδας σχεδόν αυτολεξεί.

Τον Φεβρουάριο του τρέχοντος έτους, το OpenAI κατέθεσε μια πρόταση στο ομοσπονδιακό δικαστήριο ζητώντας την απόρριψη τμημάτων της αγωγής, λέγοντας ότι "το ChatGPT δεν υποκαθιστά σε καμία περίπτωση μια συνδρομή στους New York Times." θα πρέπει να επιτρέπεται η υπεύθυνη ανάπτυξη» και «ούτε μπορούν να αντικαταστήσουν το σημαντικό περιεχόμενο που παίζουν οι δημοσιογράφοι».

Εάν ένα δικαστήριο αποφανθεί ότι η εκπαίδευση μιας τεχνητής νοημοσύνης σε κείμενο χωρίς άδεια συνιστά παραβίαση πνευματικών δικαιωμάτων, είπε ο Bailey, "θα είναι τεράστιο σοκ για τις εταιρείες τεχνητής νοημοσύνης, χωρίς εκτεταμένα σετ εκπαίδευσης, εργαλεία όπως το ChatGPT δεν μπορούν να υπάρχουν".

Το AI εκρήγνυται

Είτε αυτό ονομάζεται λογοκλοπή είτε όχι, η χρήση της τεχνητής νοημοσύνης στην ακαδημαϊκή γραφή έχει εκραγεί από την κυκλοφορία του ChatGPT τον Νοέμβριο του 2022.

Σε μια προέκδοση που ενημερώθηκε τον Ιούλιο, οι ερευνητές υπολόγισαν ότιΤουλάχιστον το 10% των βιοϊατρικών περιλήψεων θα γραφτεί με χρήση LLM το πρώτο εξάμηνο του 2024, που ισοδυναμεί με περίπου 150.000 εργασίες ετησίως . Η μελέτη, με επικεφαλής τον Dmitry Kobak, έναν επιστήμονα δεδομένων στο Πανεπιστήμιο του Tübingen στη Γερμανία, ανέλυσε 14 εκατομμύρια περιλήψεις που δημοσιεύτηκαν στην ακαδημαϊκή βάση δεδομένων PubMed μεταξύ 2010 και Ιουνίου 2024. Δείχνουν ότι η εμφάνιση του LLM σχετίζεται με αυξημένη χρήση στυλιστικών λέξεων όπως «delves», «showcasing» και «υπογράμμιση» και στη συνέχεια χρησιμοποιούν αυτά τα ασυνήθιστα λεξικά μοτίβα για να εκτιμήσουν το ποσοστό των περιλήψεων που υποβάλλονται σε επεξεργασία με χρήση AI. «Η εμφάνιση των βοηθών γραφής που βασίζονται στο LLM είχε άνευ προηγουμένου αντίκτυπο στην επιστημονική βιβλιογραφία», γράφουν.



Σχήμα |. Η εμφάνιση του LLM σχετίζεται με την αυξημένη χρήση του λεξιλογίου στυλ.

Ο Kobak προβλέπει,Η χρήση των LLM "σίγουρα θα συνεχίσει να αυξάνεται" και "πιθανότατα θα γίνει πιο δύσκολο να εντοπιστεί"

Η άγνωστη χρήση λογισμικού στην ακαδημαϊκή γραφή δεν είναι νέα. Από το 2015, ο Guillaume Cabanac, ένας επιστήμονας υπολογιστών στο Πανεπιστήμιο της Τουλούζης στη Γαλλία, και οι συνάδελφοί του εκθέτουν «αυθαίρετα» έγγραφα γραμμένα από ένα λογισμικό που ονομάζεται SCIgen, καθώς και έγγραφα που περιέχουν «στριμμένες φράσεις» που δημιουργούνται από λογισμικό που μεταφράζει αυτόματα ή ξαναγράφει το κείμενο. «Ακόμη και πριν εμφανιστεί η γενετική τεχνητή νοημοσύνη, οι άνθρωποι είχαν αυτά τα εργαλεία», είπε ο Cabanac.

Ωστόσο, υπάρχει επίσης κάποια αξία στη χρήση AI στην ακαδημαϊκή γραφή . Οι ερευνητές λένε ότι αυτό μπορεί να κάνει τα κείμενα και τις έννοιες πιο ξεκάθαρα, να μειώσει τα γλωσσικά εμπόδια και να απελευθερώσει χρόνο για πειραματισμούς και προβληματισμό. Ο Hend Al-Khalifa, ερευνητής τεχνολογίας πληροφοριών στο Πανεπιστήμιο King Saud στο Ριάντ, είπε ότι προτού διατεθούν εργαλεία παραγωγής τεχνητής νοημοσύνης, πολλοί συνάδελφοι που μιλούσαν αγγλικά ως δεύτερη γλώσσα θα είχαν δυσκολία να γράψουν εργασίες. «Τώρα, επικεντρώνονται στην έρευνα και χρησιμοποιούν αυτά τα εργαλεία για να απομακρύνουν την ταλαιπωρία από τη συγγραφή», είπε.

Ωστόσο, εξακολουθεί να υπάρχει σύγχυση σχετικά με το πότε η χρήση AI συνιστά λογοκλοπή ή παραβιάζει την ηθική. Ο Soheil Feizi, επιστήμονας υπολογιστών στο Πανεπιστήμιο του Maryland, College Park, είπε ότι η χρήση του LLM για την επανεγγραφή του περιεχομένου μιας υπάρχουσας εργασίας είναι ξεκάθαρα λογοκλοπή. Αλλά εάν το LLM χρησιμοποιείται με διαφάνεια για να βοηθήσει στην έκφραση ιδεών —είτε για τη δημιουργία κειμένου με βάση λεπτομερείς προτροπές είτε για την επεξεργασία ενός προχείρου—δεν θα πρέπει να τιμωρείται. «Θα πρέπει να επιτρέψουμε στους ανθρώπους να εκφράζονται αβίαστα και ξεκάθαρα χρησιμοποιώντας το LLM», είπε η Φεΐζι.

Πολλά περιοδικά έχουν πλέον πολιτικές που επιτρέπουν τη χρήση του LLM σε κάποιο βαθμό. Μετά την αρχική απαγόρευση κειμένου που δημιουργήθηκε από το ChatGPT, η Science ενημέρωσε την πολιτική της τον Νοέμβριο του 2023 λέγοντας ότι η χρήση της τεχνολογίας AI κατά τη σύνταξη χειρογράφων θα πρέπει να αποκαλύπτεται πλήρως - συμπεριλαμβανομένων των συστημάτων και των προτροπών που χρησιμοποιούνται. Είναι ευθύνη του συγγραφέα να διασφαλίσει την ακρίβεια και να "διασφαλίσει ότι δεν υπάρχει λογοκλοπή". Η φύση λέει επίσης ότι οι συγγραφείς των ερευνητικών χειρογράφων θα πρέπει να τεκμηριώνουν οποιαδήποτε χρήση του LLM στην ενότητα των μεθόδων. Μια ανάλυση 100 μεγάλων ακαδημαϊκών εκδοτών και 100 περιοδικών υψηλής κατάταξης διαπίστωσε ότι από τον Οκτώβριο του 2023, το 24% των εκδοτών και το 87% των περιοδικών έχουν οδηγίες για τη χρήση της γενετικής τεχνητής νοημοσύνης. Σχεδόν όλα αυτά που παρέχουν καθοδήγηση λένε ότι τα εργαλεία τεχνητής νοημοσύνης δεν μπορούν να αναφέρονται ως δημιουργοί, αλλά οι πολιτικές ποικίλλουν ανάλογα με τους τύπους επιτρεπόμενων χρήσεων τεχνητής νοημοσύνης και το απαιτούμενο επίπεδο αποκάλυψης. Η Weber-Wulff είπε ότι χρειάζονται επειγόντως σαφέστερες οδηγίες για τη χρήση της τεχνητής νοημοσύνης στην ακαδημαϊκή γραφή.

Επί του παρόντος, ο Abdul-Mageed λέει ότι η ευρεία χρήση του LLM κατά τη σύνταξη επιστημονικών εργασιών παρεμποδίζεται από τους περιορισμούς του. Οι χρήστες καλούνται να δημιουργήσουν λεπτομερείς προτροπές που περιγράφουν το κοινό, το στυλ γλώσσας και το υποπεδίο έρευνας. «Είναι πραγματικά πολύ δύσκολο να βρεις ένα γλωσσικό μοντέλο για να σου δώσει αυτό ακριβώς που θέλεις», είπε.

Αλλά ο Abdul-Mageed είπε,Οι προγραμματιστές δημιουργούν εφαρμογές που θα διευκολύνουν τους ερευνητές να δημιουργήσουν επαγγελματικό επιστημονικό περιεχόμενο . Στο μέλλον, είπε, οι χρήστες μπορεί να μπορούν να δημιουργήσουν ένα ολόκληρο χαρτί από την αρχή απλά επιλέγοντας επιλογές από ένα αναπτυσσόμενο μενού και πατώντας ένα κουμπί, χωρίς να χρειάζεται να γράψουν λεπτομερείς προτροπές.

Τα όρια ενδέχεται να θολώσουν περαιτέρω

Μαζί με την ταχεία υιοθέτηση του LLM για τη σύνταξη κειμένων, έχει προκύψει επίσης ένας μεγάλος αριθμός εργαλείων που έχουν σχεδιαστεί για την ανίχνευση του LLM. . Αν και πολλά εργαλεία ισχυρίζονται υψηλά ποσοστά ακρίβειας —πάνω από 90% σε ορισμένες περιπτώσεις— η έρευνα δείχνει ότι τα περισσότερα εργαλεία δεν ανταποκρίνονται στους ισχυρισμούς τους. Σε μια μελέτη που δημοσιεύθηκε τον Δεκέμβριο, η Weber-Wulff και οι συνεργάτες της αξιολόγησαν 14 εργαλεία ανίχνευσης τεχνητής νοημοσύνης που χρησιμοποιούνται ευρέως στον ακαδημαϊκό χώρο. Μόνο πέντε από αυτούς μπόρεσαν να αναγνωρίσουν με ακρίβεια το 70% ή περισσότερο του κειμένου ως γραμμένο από τεχνητή νοημοσύνη ή ανθρώπους και κανένας δεν σημείωσε βαθμολογία πάνω από 80%.

Όταν διαπιστωθεί ότι κάποιος έχει επεξεργαστεί ελαφρώς το κείμενο που δημιουργήθηκε από AI,Κατά την αντικατάσταση συνωνύμων και την αναδιάταξη προτάσεων, η ακρίβεια του ανιχνευτή έπεσε κάτω από 50% κατά μέσο όρο . Ένα τέτοιο κείμενο είναι «σχεδόν μη ανιχνεύσιμο από τα τρέχοντα εργαλεία», έγραψαν οι συγγραφείς. Άλλες έρευνες έχουν δείξει ότι το να ζητηθεί από ένα AI να ξαναγράψει κείμενο πολλές φορές μπορεί να μειώσει σημαντικά την ακρίβεια ενός ανιχνευτή.

Επιπλέον, υπάρχουν άλλα προβλήματα με τους ανιχνευτές AI. Μια μελέτη έδειξε ότι εάν τα άρθρα στην αγγλική γλώσσα γράφτηκαν από μη φυσικούς ομιλητές της αγγλικής γλώσσας, ήταν πιο πιθανό να ταξινομήσουν εσφαλμένα τη γραφή ως δημιουργημένη από τεχνητή νοημοσύνη. Ο Feizi είπε ότι ο ανιχνευτής δεν μπορεί να διακρίνει αξιόπιστα μεταξύ κειμένου γραμμένου εξ ολοκλήρου από AI και περιπτώσεων όπου ο συγγραφέας χρησιμοποιεί μια υπηρεσία βασισμένη σε AI για να γυαλίσει το κείμενο, κάτι που το βελτιώνει βοηθώντας τη γραμματική και τη σαφήνεια των προτάσεων. "Η διάκριση μεταξύ αυτών των περιπτώσεων θα ήταν πολύ δύσκολη και αναξιόπιστη - ενδεχομένως να οδηγήσει σε εξαιρετικά υψηλά ποσοστά ψευδών συναγερμώνΠρόσθεσε ότι η ψευδής κατηγορία για χρήση τεχνητής νοημοσύνης θα μπορούσε να προκαλέσει «σημαντική ζημιά» στη φήμη αυτών των ακαδημαϊκών ή φοιτητών.

Τα όρια μεταξύ νόμιμης και παράνομης χρήσης της τεχνητής νοημοσύνης ενδέχεται να θολώσουν περαιτέρω . Τον Μάρτιο του 2023, η Microsoft άρχισε να ενσωματώνει τα εργαλεία παραγωγής τεχνητής νοημοσύνης στις εφαρμογές της, συμπεριλαμβανομένων των Word, PowerPoint και Outlook. Ορισμένες εκδόσεις του βοηθού AI Copilot μπορούν να σχεδιάσουν ή να επεξεργαστούν περιεχόμενο. Τον Ιούνιο, η Google άρχισε επίσης να ενσωματώνει το παραγωγικό της μοντέλο AI Gemini σε εργαλεία όπως τα Έγγραφα και το Gmail.

«Η τεχνητή νοημοσύνη ενσωματώνεται τόσο βαθιά σε ό,τι χρησιμοποιούμε που νομίζω ότι θα γίνεται όλο και πιο δύσκολο για τους ανθρώπους να γνωρίζουν εάν κάτι που κάνετε έχει επηρεαστεί από την τεχνητή νοημοσύνη», δήλωσε η Debby, ειδικός στην τριτοβάθμια εκπαίδευση στο Πανεπιστήμιο του St Mark's and St. Ο John's στο Ηνωμένο Βασίλειο είπε. «Νομίζω ότι μπορεί να μην είμαστε σε θέση να συμβαδίσουμε με τον ρυθμό του».

Μεταγλωττιστής: Ma Xuewei

Πρωτότυπος συγγραφέας: Diana Kwon, ανεξάρτητη επιστημονική δημοσιογράφος

Αρχικός σύνδεσμος: https://www.nature.com/articles/d41586-024-02371-z