Περίληψη Άρθρου:
Το Διεθνές Συνέδριο για τη Μηχανική Μάθηση (ICML) δημοσίευσε πρόσφατα μια δήλωση που απαγορεύει τη χρήση γλωσσικών μοντέλων μεγάλης κλίμακας (LLM) όπως το ChatGPT στις υποβολές εργασιών, προκαλώντας μια συζήτηση στα μέσα κοινωνικής δικτύωσης. Τα επιχειρήματα υπέρ και κατά της χρήσης του ChatGPT περιλάμβαναν τον αντίκτυπο σε μη φυσικούς ομιλητές της αγγλικής γλώσσας, το ενδεχόμενο λογοκλοπής και την ιδέα ότι το ChatGPT είναι ένα εργαλείο που αποτελείται από περιεχόμενο που έχει συνταχθεί από συγγραφείς. Το ICML διευκρίνισε την πολιτική του, σημειώνοντας ότι βασίζεται σε μεγάλο βαθμό στην αρχή της συντηρητικότητας όσον αφορά την προστασία από πιθανά ζητήματα χρήσης LLM. Η Μάργκαρετ Μίτσελ, επικεφαλής επιστήμονας ηθικής στην Hugging Face, πρότεινε τη χρήση εργαλείων LLM με αναφορά των συγγραφέων για την αντιμετώπιση των ανησυχιών του ICML και υποστήριξε ότι η κοινότητα ML δεν χρειάζεται να συγκρατείται από τον παραδοσιακό τρόπο με τον οποίο βλέπουμε τους συγγραφείς. Η συζήτηση γύρω από τη χρήση των LLM στις υποβολές εγγράφων ML είναι πιθανό να συνεχιστεί καθώς και άλλοι οργανισμοί και ιδρύματα που δεν ανήκουν στην ML αρχίζουν να παλεύουν με τα ίδια ζητήματα.


Αναλυτικά το Άρθρο:
Ένα συνέδριο μηχανικής μάθησης που συζητά τη χρήση της μηχανικής μάθησης; Αν και αυτό μπορεί να φαίνεται τόσο meta, στην πρόσκλησή του για υποβολή εργασιών τη Δευτέρα, το International Conference on Machine Learning σημείωσε, πράγματι, ότι "οι εργασίες που περιλαμβάνουν κείμενο που παράγεται από ένα γλωσσικό μοντέλο μεγάλης κλίμακας (LLM), όπως το ChatGPT, απαγορεύονται, εκτός εάν το παραγόμενο κείμενο παρουσιάζεται ως μέρος της πειραματικής ανάλυσης της εργασίας".

Δεν άργησε να ξεσπάσει μια ζωηρή συζήτηση στα μέσα κοινωνικής δικτύωσης, η οποία μπορεί να είναι ένα τέλειο παράδειγμα για το τι θα πρέπει να αντιμετωπίσουν οι επιχειρήσεις, οι οργανισμοί και τα ιδρύματα όλων των μορφών και μεγεθών, σε όλους τους κάθετους τομείς: Πώς θα αντιμετωπίσουν οι άνθρωποι την άνοδο των μεγάλων γλωσσικών μοντέλων που μπορούν να βοηθήσουν στην επικοινωνία - ή στο δανεισμό, ή στην επέκταση, ή στην λογοκλοπή, ανάλογα με την άποψή σας - ιδεών;

Επιχειρήματα υπέρ και κατά της χρήσης του ChatGPT
Καθώς η συζήτηση στο Twitter γινόταν όλο και πιο έντονη τις τελευταίες δύο ημέρες, προέκυψε μια ποικιλία επιχειρημάτων υπέρ και κατά της χρήσης των LLM στις υποβολές εγγράφων ML.

"Οπότε τα γλωσσικά μοντέλα μεσαίας και μικρής κλίμακας είναι εντάξει, σωστά;" έγραψε στο Twitter ο Yann LeCun, επικεφαλής επιστήμονας Τεχνητής Νοημοσύνης στη Meta, προσθέτοντας: "Απλά ρωτάω γιατί, ξέρετε... οι ορθογραφικοί έλεγχοι και τα προγνωστικά πληκτρολόγια είναι γλωσσικά μοντέλα".

Και ο Sebastian Bubeck, ο οποίος ηγείται της ομάδας ML Foundations στην Microsoft Research, χαρακτήρισε τον κανόνα "κοντόφθαλμο", γράφοντας στο Twitter ότι "το ChatGPT και οι παραλλαγές είναι μέρος του μέλλοντος. Η απαγόρευση δεν είναι σίγουρα η απάντηση".

Ο Ethan Perez, ερευνητής στην Anthropic AI, έγραψε στο Twitter ότι "Αυτός ο κανόνας επηρεάζει δυσανάλογα τους συνεργάτες μου που δεν έχουν ως μητρική γλώσσα τα αγγλικά".

Η Silvia Sellan, υποψήφια διδάκτωρ γραφικών υπολογιστών και επεξεργασίας γεωμετρίας του Πανεπιστημίου του Τορόντο, συμφώνησε, γράφοντας στο tweet: "Προσπαθώ να δώσω στους προέδρους του συνεδρίου το πλεονέκτημα της αμφιβολίας, αλλά πραγματικά δεν καταλαβαίνω αυτή την καθολική απαγόρευση. Όπως καταλαβαίνω, το LLMs, όπως το Photoshop ή το GitHub copilot, είναι ένα εργαλείο που μπορεί να έχει τόσο νόμιμες (π.χ. το χρησιμοποιώ ως μη μητρική ομιλήτρια της αγγλικής γλώσσας) όσο και κακόβουλες χρήσεις...".

Το συνέδριο ICML ανταποκρίνεται στον κανόνα δεοντολογίας LLM
Τέλος, χθες το ICML διευκρίνισε την πολιτική δεοντολογίας του LLM:

"Εμείς (οι πρόεδροι του προγράμματος) έχουμε συμπεριλάβει την ακόλουθη δήλωση στην πρόσκληση για την υποβολή εγγράφων για το ICML που εκπροσωπείται από το 2023:

"Οι εργασίες που περιλαμβάνουν κείμενο που παράγεται από ένα γλωσσικό μοντέλο μεγάλης κλίμακας (LLM), όπως το ChatGPT, απαγορεύονται, εκτός εάν το παραγόμενο κείμενο παρουσιάζεται ως μέρος της πειραματικής ανάλυσης της εργασίας.

" Η δήλωση αυτή έχει εγείρει αρκετές ερωτήσεις από πιθανούς συγγραφείς και οδήγησε ορισμένους να επικοινωνήσουν προληπτικά μαζί μας. Εκτιμούμε τα σχόλια και τις παρατηρήσεις σας και θα θέλαμε να διευκρινίσουμε περαιτέρω την πρόθεση πίσω από αυτή τη δήλωση και τον τρόπο με τον οποίο σκοπεύουμε να εφαρμόσουμε αυτή την πολιτική για το ICML 2023".
[TL;DR]

Η απάντηση διευκρίνισε ότι:
"Η πολιτική για το Μεγάλο Γλωσσικό Μοντέλο (LLM) για το ICML 2023 απαγορεύει κείμενο που παράγεται εξ ολοκλήρου από LLM (δηλαδή "παράγεται"). Αυτό δεν απαγορεύει στους συγγραφείς να χρησιμοποιούν LLMs για την επεξεργασία ή τη στίλβωση κειμένου γραμμένου από τον συγγραφέα.

Η πολιτική LLM βασίζεται σε μεγάλο βαθμό στην αρχή της συντηρητικότητας όσον αφορά την προστασία από πιθανά ζητήματα χρήσης LLM, συμπεριλαμβανομένης της λογοκλοπής.

Η πολιτική LLM ισχύει για το ICML 2023. Αναμένουμε ότι αυτή η πολιτική μπορεί να εξελιχθεί σε μελλοντικά συνέδρια καθώς κατανοούμε καλύτερα τα LLM και τις επιπτώσεις τους στις επιστημονικές δημοσιεύσεις". 

Η ταχεία πρόοδος των LLMs όπως το ChatGPT, αναφέρεται στην ανακοίνωση, "συχνά συνοδεύεται από απρόβλεπτες συνέπειες καθώς και αναπάντητα ερωτήματα", συμπεριλαμβανομένου του κατά πόσον το παραγόμενο κείμενο θεωρείται νέο ή παράγωγο, καθώς και ζητήματα σχετικά με την ιδιοκτησία.

"Είναι βέβαιο ότι αυτά τα ερωτήματα, και πολλά άλλα, θα απαντηθούν με την πάροδο του χρόνου, καθώς αυτά τα γεννητικά μοντέλα μεγάλης κλίμακας υιοθετούνται ευρύτερα", αναφέρεται στη δήλωση. "Ωστόσο, δεν έχουμε ακόμη σαφείς απαντήσεις σε κανένα από αυτά τα ερωτήματα".

Τι γίνεται με τη χρήση της απόδοσης ChatGPT;
Η Μάργκαρετ Μίτσελ, επικεφαλής επιστήμονας ηθικής στο Hugging Face, συμφώνησε ότι υπάρχει πρωταρχική ανησυχία γύρω από τη λογοκλοπή, αλλά πρότεινε να παραμεριστεί αυτό το επιχείρημα, καθώς "το τι μετράει ως λογοκλοπή" αξίζει "τη δική του ειδική συζήτηση".

Ωστόσο, απέρριψε τα επιχειρήματα ότι το ChatGPT δεν είναι συγγραφέας, αλλά εργαλείο.

"Με πολλή γκρίνια, πιστεύω ότι πρόκειται για ψευδή διχοτόμηση (δεν είναι αμοιβαία αποκλειόμενα: μπορεί να είναι και τα δύο) και μου φαίνεται ότι σκόπιμα προσποιείται σύγχυση για να παραποιήσει το γεγονός ότι πρόκειται για ένα εργαλείο που αποτελείται από συγγραφικό περιεχόμενο από συγγραφείς", δήλωσε στο VentureBeat μέσω ηλεκτρονικού ταχυδρομείου.

Προχωρώντας από τα επιχειρήματα, πιστεύει ότι η χρήση εργαλείων LLM με απόδοση θα μπορούσε να αντιμετωπίσει τις ανησυχίες του ICML.

"Όσον αφορά την άποψή σας σχετικά με τα συστήματα αυτά που βοηθούν στη συγγραφή από μη φυσικούς ομιλητές, υπάρχουν πολύ καλοί λόγοι για να κάνουμε το αντίθετο από αυτό που κάνει το ICML: Να υποστηρίζουμε τη χρήση αυτών των εργαλείων για να υποστηρίξουμε την ισότητα και την ισονομία μεταξύ ερευνητών με διαφορετικές ικανότητες και στυλ γραφής", εξήγησε.

"Δεδομένου ότι έχουμε ήδη καθιερώσει κάποιες νόρμες γύρω από την αναγνώριση των συνεισφορών συγκεκριμένων ανθρώπων, δεν είναι πολύ δύσκολο να επεκτείνουμε αυτές τις νόρμες σε συστήματα που προέρχονται από πολλούς ανθρώπους", συνέχισε η ίδια. "Ένα εργαλείο όπως το ChatGPT θα μπορούσε να αναφέρεται ως κάτι σαν συγγραφέας ή αναγνωρισμένος ομότιμος".

Η θεμελιώδης διαφορά με την απόδοση του ChatGPT (και παρόμοιων μοντέλων) είναι ότι σε αυτό το σημείο δεν μπορούν να αναγνωριστούν μοναδικοί άνθρωποι - μόνο το σύστημα μπορεί να αποδοθεί. "Επομένως, είναι λογικό να αναπτύξουμε στρατηγικές για την απόδοση που να το λαμβάνουν υπόψη αυτό", δήλωσε η ίδια.

"Το ChatGPT και τα παρόμοια μοντέλα δεν χρειάζεται να είναι καταχωρημένος συγγραφέας με την παραδοσιακή έννοια. Η απόδοση της συγγραφής τους θα μπορούσε να είναι (π.χ.) μια υποσημείωση στην κεντρική σελίδα (παρόμοια με τις σημειώσεις για τις συνεργασίες), ή ένα ειδικό, νέο είδος byline, ή <etc>".

Αντιμετωπίζοντας ένα μέλλον που τροφοδοτείται από το LLM
Εν τέλει, δήλωσε ο Mitchell, η κοινότητα ML δεν χρειάζεται να συγκρατείται από τον παραδοσιακό τρόπο με τον οποίο βλέπουμε τους συγγραφείς.

"Ο κόσμος είναι το στρείδι μας στο πώς αναγνωρίζουμε και αποδίδουμε αυτά τα νέα εργαλεία", είπε.

Θα ισχύει αυτό καθώς και άλλοι οργανισμοί και ιδρύματα που δεν ανήκουν στην ML θα αρχίσουν να παλεύουν με τα ίδια ζητήματα;

Χμμ. Νομίζω ότι ήρθε η ώρα για ποπ κορν (munch munch).

Πηγή:https://venturebeat.com/ai/thats-so-meta-ml-conference-debates-use-of-chatgpt-in-papers/