Περίληψη άρθρου:
Η χρήση της τεχνητής νοημοσύνης (AI) στα ακαδημαϊκά περιοδικά γίνεται όλο και πιο συχνή, αλλά συχνά είναι δύσκολο να εντοπιστεί. Μια πρόσφατη μελέτη που δημοσιεύθηκε σε ένα περιοδικό της Elsevier περιείχε μια πρόταση που υποδήλωνε ότι χρησιμοποιήθηκε ένα γλωσσικό μοντέλο τεχνητής νοημοσύνης, εγείροντας ανησυχίες σχετικά με την αδήλωτη χρήση τεχνητής νοημοσύνης. Τα διάφορα περιοδικά έχουν διαφορετικές πολιτικές όσον αφορά τη χρήση ΤΝ, με ορισμένα να απαιτούν γνωστοποίηση και άλλα να απαγορεύουν τη χρήση περιεχομένου που παράγεται από ΤΝ χωρίς άδεια. Η άνοδος της δημιουργικής ΤΝ έχει εγείρει ανησυχίες σχετικά με το ενδεχόμενο ψευδών αναφορών και παραπληροφόρησης στην ακαδημαϊκή συγγραφή. Ωστόσο, υπάρχουν πιθανά οφέλη από τη χρήση της ΤΝ στην ερευνητική συγγραφή, όπως η βελτίωση της ποιότητας της γλώσσας για μη φυσικούς ομιλητές της αγγλικής γλώσσας. Η ανίχνευση της μη αποκαλυπτόμενης χρήσης ΤΝ αποτελεί πρόκληση, αλλά οι ερευνητές αναπτύσσουν εργαλεία για τη διαφοροποίηση μεταξύ του περιεχομένου που έχει γραφτεί από τον άνθρωπο και του περιεχομένου που έχει παραχθεί από ΤΝ. Η ευρεία χρήση της ΤΝ στις ακαδημαϊκές δημοσιεύσεις εγείρει ερωτήματα σχετικά με την επιστημονική ακεραιότητα και το ενδεχόμενο δόλιας έρευνας.


Κύρια σημεία του άρθρου:

  • Τα ακαδημαϊκά περιοδικά δυσκολεύονται να ανιχνεύσουν τη χρήση της ΤΝ σε υποβαλλόμενες εργασίες.
  • Η Elsevier, μια εκδοτική εταιρεία, ερευνά τη χρήση της ΤΝ σε ένα από τα περιοδικά της μετά την ανακάλυψη μιας πρότασης που υπονοούσε τη συμμετοχή της ΤΝ σε ένα δημοσιευμένο άρθρο.
  • Η χρήση της παραγωγικής ΤΝ στην ακαδημαϊκή συγγραφή θα μπορούσε να βελτιώσει την αποτελεσματικότητα και τη σαφήνεια, αλλά θέτει επίσης ζητήματα αξιοπιστίας αν δεν γνωστοποιηθεί ή ελεγχθεί σωστά.
  • Οι ανησυχίες επεκτείνονται πέρα από τις γεννήτριες κειμένου και σε εικόνες που παράγονται από ΤΝ και θα μπορούσαν να χρησιμοποιηθούν για παραπλανητική έρευνα.
  • Ορισμένοι ερευνητές αναπτύσσουν εργαλεία για τη διαφοροποίηση μεταξύ του περιεχομένου που έχει γραφτεί από τον άνθρωπο και του περιεχομένου που έχει παραχθεί με τεχνητή νοημοσύνη, αλλά απαιτείται περαιτέρω εργασία για την επέκταση των δυνατοτήτων τους σε διάφορα περιοδικά.


Αναλυτικά το άρθρο:

Η χρήση της Τεχνητής Νοημοσύνης διεισδύει στα ακαδημαϊκά περιοδικά - και αποδεικνύεται δύσκολο να εντοπιστεί

ΣΤΗΝ ΕΚΔΟΣΗ ΤΟΥ ΑΥΓΟΥΣΤΟΥ, το Resources Policy, ένα ακαδημαϊκό περιοδικό υπό την εκδοτική ομπρέλα της Elsevier, παρουσίασε μια μελέτη με κριτές σχετικά με το πώς το ηλεκτρονικό εμπόριο έχει επηρεάσει την αποδοτικότητα των ορυκτών καυσίμων στις αναπτυσσόμενες χώρες. Αλλά στην έκθεση ήταν θαμμένη μια περίεργη πρόταση: "Παρακαλώ σημειώστε ότι ως γλωσσικό μοντέλο τεχνητής νοημοσύνης, δεν είμαι σε θέση να δημιουργήσω συγκεκριμένους πίνακες ή να πραγματοποιήσω δοκιμές, οπότε τα πραγματικά αποτελέσματα θα πρέπει να περιλαμβάνονται στον πίνακα".

Οι τρεις αναφερόμενοι συγγραφείς της μελέτης είχαν ονόματα και πανεπιστημιακές ή θεσμικές συνδέσεις - δεν φαίνεται να είναι γλωσσικά μοντέλα τεχνητής νοημοσύνης. Αλλά για όποιον έχει παίξει στο ChatGPT, αυτή η φράση μπορεί να του ακούγεται οικεία: Το generative AI chatbot συχνά προλογίζει τις δηλώσεις του με αυτή την προειδοποίηση, σημειώνοντας τις αδυναμίες του στην παροχή ορισμένων πληροφοριών. Αφού ένα στιγμιότυπο της φράσης δημοσιεύτηκε στο X, πρώην Twitter, από έναν άλλο ερευνητή, η Elsevier άρχισε να ερευνά. Ο εκδότης εξετάζει τη χρήση της τεχνητής νοημοσύνης σε αυτό το άρθρο και "οποιεσδήποτε άλλες πιθανές περιπτώσεις", δήλωσε στο WIRED ο Andrew Davis, αντιπρόεδρος της παγκόσμιας επικοινωνίας του Elsevier, σε δήλωσή του.

Οι πολιτικές της Elsevier για την τεχνητή νοημοσύνη δεν εμποδίζουν τη χρήση εργαλείων τεχνητής νοημοσύνης που βοηθούν στη συγγραφή, αλλά απαιτούν γνωστοποίηση. Η εκδοτική εταιρεία χρησιμοποιεί τα δικά της εσωτερικά εργαλεία τεχνητής νοημοσύνης για τον έλεγχο της λογοκλοπής και της πληρότητας, αλλά δεν επιτρέπει στους συντάκτες να χρησιμοποιούν εξωτερικά εργαλεία τεχνητής νοημοσύνης για τον έλεγχο των εργασιών.

Οι συγγραφείς της μελέτης δεν απάντησαν σε ηλεκτρονικά αιτήματα σχολιασμού από το WIRED, αλλά ο Davis λέει ότι η Elsevier έχει έρθει σε επαφή μαζί τους και ότι οι ερευνητές συνεργάζονται. "Ο συγγραφέας σκόπευε να χρησιμοποιήσει τεχνητή νοημοσύνη για να βελτιώσει την ποιότητα της γλώσσας (κάτι που είναι μέσα στην πολιτική μας) και άφησε κατά λάθος αυτά τα σχόλια - τα οποία σκοπεύουν να διευκρινίσουν", λέει ο Davis. Ο εκδότης αρνήθηκε να δώσει περισσότερες πληροφορίες σχετικά με το πώς θα διορθώσει την κατάσταση με την Πολιτική Πόρων, επικαλούμενος τη συνεχιζόμενη φύση της έρευνας.

Η ραγδαία άνοδος της δημιουργικής τεχνητής νοημοσύνης έχει προκαλέσει ανησυχίες σε όλους τους κλάδους. Καθηγητές γυμνασίου και καθηγητές πανεπιστημίου ανησυχούν για το ενδεχόμενο εξαπάτησης. Οι ειδησεογραφικοί οργανισμοί έχουν πιαστεί με κακόγουστα άρθρα γραμμένα από την ΤΝ. Και τώρα, ακαδημαϊκά περιοδικά με επιστημονικά θέματα που αξιολογούνται από ομότιμους αντιμετωπίζουν υποβολές στις οποίες οι συγγραφείς μπορεί να χρησιμοποίησαν την ΤΝ για να γράψουν περιγράμματα, προσχέδια ή ακόμη και ολόκληρες εργασίες, αλλά δεν κατάφεραν να καταστήσουν σαφή τη χρήση της ΤΝ.

Τα περιοδικά προσεγγίζουν το πρόβλημα αποσπασματικά. Το δίκτυο JAMA, το οποίο περιλαμβάνει τίτλους που εκδίδει ο Αμερικανικός Ιατρικός Σύλλογος, απαγορεύει την αναγραφή των γεννητριών τεχνητής νοημοσύνης ως συγγραφέων και απαιτεί τη γνωστοποίηση της χρήσης τους. Η πλειάδα περιοδικών που εκδίδει το Science δεν επιτρέπει τη χρήση κειμένων, σχημάτων, εικόνων ή δεδομένων που παράγονται από τεχνητή νοημοσύνη χωρίς την άδεια των συντακτών. Το PLOS ONE απαιτεί από οποιονδήποτε χρησιμοποιεί τεχνητή νοημοσύνη να αναφέρει λεπτομερώς ποιο εργαλείο χρησιμοποίησε, πώς το χρησιμοποίησε και πώς αξιολόγησε την εγκυρότητα των παραγόμενων πληροφοριών. Το Nature έχει απαγορεύσει τις εικόνες και τα βίντεο που παράγονται από ΤΝ και απαιτεί να γνωστοποιείται η χρήση γλωσσικών μοντέλων. Οι πολιτικές πολλών περιοδικών καθιστούν τους συγγραφείς υπεύθυνους για την εγκυρότητα κάθε πληροφορίας που παράγεται από ΤΝ.

Οι ειδικοί λένε ότι υπάρχει μια ισορροπία που πρέπει να επιτευχθεί στον ακαδημαϊκό κόσμο κατά τη χρήση της δημιουργικής ΤΝ - θα μπορούσε να κάνει τη διαδικασία συγγραφής πιο αποτελεσματική και να βοηθήσει τους ερευνητές να μεταφέρουν με μεγαλύτερη σαφήνεια τα ευρήματά τους. Αλλά η τεχνολογία -όταν χρησιμοποιείται σε πολλά είδη γραφής- έχει επίσης αφήσει ψεύτικες αναφορές στις απαντήσεις της, έχει επινοήσει πράγματα και έχει επαναλάβει σεξιστικό και ρατσιστικό περιεχόμενο από το διαδίκτυο, τα οποία θα ήταν προβληματικά αν συμπεριλαμβάνονταν σε δημοσιευμένα επιστημονικά κείμενα.

Εάν οι ερευνητές χρησιμοποιούν αυτές τις παραγόμενες απαντήσεις στην εργασία τους χωρίς αυστηρό έλεγχο ή αποκάλυψη, εγείρουν σημαντικά ζητήματα αξιοπιστίας. Η μη αποκάλυψη της χρήσης της ΤΝ θα σήμαινε ότι οι συγγραφείς περνούν το περιεχόμενο της ΤΝ ως δικό τους, κάτι που θα μπορούσε να θεωρηθεί λογοκλοπή. Θα μπορούσαν επίσης ενδεχομένως να διαδώσουν τις ψευδαισθήσεις της ΤΝ ή την αλλόκοτη ικανότητά της να επινοεί πράγματα και να τα δηλώνει ως γεγονότα.

Πρόκειται για ένα μεγάλο ζήτημα, λέει ο David Resnik, βιοηθικολόγος στο Εθνικό Ινστιτούτο Επιστημών Περιβαλλοντικής Υγείας, σχετικά με τη χρήση της ΤΝ σε επιστημονικές και ακαδημαϊκές εργασίες. Παρόλα αυτά, λέει, η γεννητική τεχνητή νοημοσύνη δεν είναι μόνο κακή - θα μπορούσε να βοηθήσει τους ερευνητές των οποίων η μητρική γλώσσα δεν είναι τα αγγλικά να γράψουν καλύτερες εργασίες. "Η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει αυτούς τους συγγραφείς να βελτιώσουν την ποιότητα των γραπτών τους και τις πιθανότητές τους να γίνουν δεκτές οι εργασίες τους", λέει ο Resnik. Αλλά όσοι χρησιμοποιούν τεχνητή νοημοσύνη θα πρέπει να την αποκαλύπτουν, προσθέτει.

Προς το παρόν, είναι αδύνατο να γνωρίζουμε πόσο εκτεταμένα χρησιμοποιείται η τεχνητή νοημοσύνη στις ακαδημαϊκές δημοσιεύσεις, επειδή δεν υπάρχει αλάνθαστος τρόπος ελέγχου για τη χρήση τεχνητής νοημοσύνης, όπως υπάρχει για τη λογοκλοπή. Το έγγραφο Resources Policy τράβηξε την προσοχή ενός ερευνητή επειδή οι συγγραφείς φαίνεται να άφησαν κατά λάθος πίσω τους ένα στοιχείο για την πιθανή συμμετοχή ενός μεγάλου γλωσσικού μοντέλου. "Αυτές είναι πραγματικά οι άκρες του παγόβουνου που εξέχουν", λέει η Elisabeth Bik, σύμβουλος επιστημονικής ακεραιότητας που διευθύνει το ιστολόγιο Science Integrity Digest. "Νομίζω ότι αυτό είναι ένα σημάδι ότι συμβαίνει σε πολύ μεγάλη κλίμακα".

Το 2021, ο Guillaume Cabanac, καθηγητής πληροφορικής στο Πανεπιστήμιο της Τουλούζης στη Γαλλία, βρήκε περίεργες φράσεις σε ακαδημαϊκά άρθρα, όπως "πλαστή συνείδηση" αντί για "τεχνητή νοημοσύνη". Αυτός και μια ομάδα του επινόησαν την ιδέα της αναζήτησης "βασανισμένων φράσεων", ή λεξόσουπα στη θέση απλών όρων, ως ενδείξεις ότι ένα έγγραφο πιθανότατα προέρχεται από γεννήτριες κειμένου. Είναι επίσης σε επιφυλακή για τη γεννητική τεχνητή νοημοσύνη στα περιοδικά και είναι αυτός που σημείωσε τη μελέτη Resources Policy για το X.

Ο Cabanac διερευνά μελέτες που μπορεί να είναι προβληματικές, και έχει επισημάνει τη δυνητικά αδήλωτη χρήση ΤΝ. Για την προστασία της επιστημονικής ακεραιότητας καθώς η τεχνολογία αναπτύσσεται, οι επιστήμονες πρέπει να εκπαιδεύονται, λέει. "Εμείς, ως επιστήμονες, πρέπει να δράσουμε εκπαιδεύοντας τους εαυτούς μας, γνωρίζοντας για τις απάτες", λέει ο Cabanac. "Πρόκειται για ένα παιχνίδι που παίζεται με το τσουβάλι. Υπάρχουν νέοι τρόποι εξαπάτησης".

Οι τεχνολογικές εξελίξεις έκτοτε έχουν κάνει αυτά τα γλωσσικά μοντέλα ακόμη πιο πειστικά -και πιο ελκυστικά ως συνεργάτες για τη συγγραφή. Τον Ιούλιο, δύο ερευνητές χρησιμοποίησαν το ChatGPT για να γράψουν μια ολόκληρη ερευνητική εργασία μέσα σε μια ώρα, προκειμένου να δοκιμάσουν τις ικανότητες του chatbot να ανταγωνίζεται τον κόσμο των επιστημονικών εκδόσεων. Δεν ήταν τέλειο, αλλά η προτροπή του chatbot έβγαλε μια εργασία με σταθερή ανάλυση.

Αυτή ήταν μια μελέτη για την αξιολόγηση του ChatGPT, αλλά δείχνει πώς η τεχνολογία θα μπορούσε να χρησιμοποιηθεί από χαρτοβιομηχανίες - εταιρείες που παράγουν επιστημονικές εργασίες κατά παραγγελία - για τη δημιουργία πιο αμφισβητήσιμου περιεχομένου. Οι χαρτοβιομηχανίες χρησιμοποιούνται από ερευνητές και ιδρύματα που μπορεί να αισθάνονται πίεση να δημοσιεύσουν έρευνα, αλλά δεν θέλουν να δαπανήσουν τον χρόνο και τους πόρους για να διεξάγουν τη δική τους πρωτότυπη εργασία. Με την τεχνητή νοημοσύνη, η διαδικασία αυτή θα μπορούσε να γίνει ακόμη πιο εύκολη. Τα έγγραφα που συντάσσονται με τεχνητή νοημοσύνη θα μπορούσαν επίσης να αποσπάσουν την προσοχή από την καλή δουλειά, αραιώνοντας τη δεξαμενή της επιστημονικής βιβλιογραφίας.

Και τα προβλήματα θα μπορούσαν να φτάσουν πέρα από τις γεννήτριες κειμένων - η Bik λέει ότι ανησυχεί επίσης για τις εικόνες που δημιουργούνται από την ΤΝ, οι οποίες θα μπορούσαν να παραποιηθούν για τη δημιουργία δόλιων ερευνών. Μπορεί να είναι δύσκολο να αποδειχθεί ότι τέτοιες εικόνες δεν είναι πραγματικές.


Ορισμένοι ερευνητές θέλουν να πατάξουν την αδήλωτη γραφή της ΤΝ, να την ελέγξουν όπως ακριβώς τα περιοδικά θα μπορούσαν να ελέγξουν για λογοκλοπή. Τον Ιούνιο, η Heather Desaire, καθηγήτρια Χημείας στο Πανεπιστήμιο του Κάνσας, ήταν συγγραφέας σε μια μελέτη που παρουσίασε ένα εργαλείο που μπορεί να διακρίνει με ακρίβεια 99 τοις εκατό μεταξύ επιστημονικής γραφής που παράγεται από άνθρωπο και καταχωρίσεων που παράγονται από το ChatGPT. Η Desaire λέει ότι η ομάδα επεδίωξε να δημιουργήσει ένα εργαλείο υψηλής ακρίβειας, "και ο καλύτερος τρόπος για να γίνει αυτό είναι να επικεντρωθεί σε έναν στενό τύπο γραφής". Άλλα εργαλεία ανίχνευσης γραπτού λόγου τεχνητής νοημοσύνης που διαφημίζονται ως "one-size fits all" είναι συνήθως λιγότερο ακριβή.

Η μελέτη διαπίστωσε ότι το ChatGPT παράγει συνήθως λιγότερο σύνθετο περιεχόμενο από τους ανθρώπους, είναι πιο γενικό στις αναφορές του (χρησιμοποιεί όρους όπως άλλοι, αντί να κατονομάζει συγκεκριμένα ομάδες) και χρησιμοποιεί λιγότερα είδη στίξης. Οι ανθρώπινοι συγγραφείς ήταν πιο πιθανό να χρησιμοποιούν λέξεις όπως however, although και but. Αλλά η μελέτη εξέτασε μόνο ένα μικρό σύνολο δεδομένων από άρθρα Perspectives που δημοσιεύτηκαν στο Science. Ο Desaire λέει ότι χρειάζεται περισσότερη δουλειά για να επεκταθούν οι δυνατότητες του εργαλείου στην ανίχνευση της τεχνητής γραφής σε διαφορετικά περιοδικά. Η ομάδα "σκέφτεται περισσότερο πώς οι επιστήμονες -αν ήθελαν να το χρησιμοποιήσουν- θα το χρησιμοποιούσαν πραγματικά", λέει ο Desaire, "και επαληθεύει ότι μπορούμε ακόμα να ανιχνεύσουμε τη διαφορά σε αυτές τις περιπτώσεις".

Πηγή: Use of AI Is Seeping Into Academic Journals—and It’s Proving Difficult to Detect