Περίληψη άρθρου:

Μια νέα έκθεση από το Πανεπιστήμιο του Στάνφορντ υπογραμμίζει την έλλειψη διαφάνειας σε συστήματα τεχνητής νοημοσύνης όπως το ChatGPT. Οι ερευνητές διαπίστωσαν ότι εταιρείες όπως η OpenAI, η Google και η Amazon δεν είναι αρκετά διαφανείς σχετικά με τα δεδομένα εκπαίδευσης και τον τρόπο λειτουργίας των αλγορίθμων τους. Αυτή η μυστικότητα εγείρει ανησυχίες σχετικά με τη λογοδοσία, την αξιοπιστία και την ασφάλεια στον τομέα της τεχνητής νοημοσύνης. Η μελέτη αξιολόγησε 10 διαφορετικά συστήματα τεχνητής νοημοσύνης με βάση κριτήρια όπως η διαφάνεια σχετικά με τη συλλογή δεδομένων, το υλικό και το λογισμικό που χρησιμοποιείται και η κατανάλωση ενέργειας. Κανένα από τα μοντέλα δεν πέτυχε διαφάνεια άνω του 54% σε όλα τα κριτήρια. Το Titan Text της Amazon κατατάχθηκε ως το λιγότερο διαφανές, ενώ το Llama 2 της Meta θεωρήθηκε το πιο ανοιχτό, παρά την έλλειψη αποκάλυψης σχετικά με τα δεδομένα εκπαίδευσής του. Η έκθεση υποδηλώνει ότι τα μοντέλα θα μπορούσαν να είναι πιο ανοιχτά χωρίς να χάσουν την ανταγωνιστικότητά τους. Ορισμένοι εμπειρογνώμονες υποστηρίζουν ότι η αυξημένη διαφάνεια είναι ζωτικής σημασίας για την επιστημονική πρόοδο στον τομέα της τεχνητής νοημοσύνης και για την αντιμετώπιση των ανησυχιών σχετικά με την ευρεία ανάπτυξη και τους πιθανούς κινδύνους αυτών των συστημάτων.

Κύρια σημεία του άρθρου:

  • Το Πανεπιστήμιο του Στάνφορντ δημοσίευσε μια έκθεση στην οποία επικρίνει την έλλειψη διαφάνειας από εταιρείες όπως η OpenAI, η Google και η Amazon όσον αφορά τα συστήματα τεχνητής νοημοσύνης τους.
  • Η έκθεση επικεντρώθηκε συγκεκριμένα σε 10 διαφορετικά συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων του ChatGPT και άλλων chatbots.
  • Οι ερευνητές αξιολόγησαν τη διαφάνεια αυτών των μοντέλων με βάση 13 κριτήρια, συμπεριλαμβανομένης της διαφάνειας σχετικά με τα δεδομένα εκπαίδευσης, το υλικό, τα πλαίσια λογισμικού και την κατανάλωση ενέργειας.
  • Κανένα μοντέλο δεν πέτυχε διαφάνεια άνω του 54% σε όλα τα κριτήρια.
  • Το Titan Text της Amazon θεωρήθηκε το λιγότερο διαφανές, ενώ το Llama 2 της Meta θεωρήθηκε το πιο ανοιχτό, αλλά εξακολουθεί να υστερεί σε διαφάνεια.
  • Ορισμένοι ειδικοί υποστηρίζουν ότι η έλλειψη διαφάνειας εμποδίζει την επιστημονική πρόοδο και μειώνει την αξιοπιστία και την ασφάλεια στον τομέα της τεχνητής νοημοσύνης.

 

Αναλυτικά το άρθρο:

Οι εταιρείες που βρίσκονται πίσω από το ChatGPT και άλλα δημοφιλή και ισχυρά συστήματα τεχνητής νοημοσύνης δεν είναι αρκετά διαφανείς σχετικά με τα δεδομένα εκπαίδευσης και τον τρόπο λειτουργίας τους, σύμφωνα με μια νέα έκθεση του Πανεπιστημίου του Στάνφορντ.

ΟΤΑΝ η OPENAI ΔΗΜΟΣΙΕΥΣΕ λεπτομέρειες για το εκπληκτικά ικανό γλωσσικό μοντέλο AI GPT-4, το οποίο τροφοδοτεί το ChatGPT, τον Μάρτιο, οι ερευνητές της γέμισαν 100 σελίδες. Άφησαν επίσης έξω μερικές σημαντικές λεπτομέρειες - όπως οτιδήποτε ουσιαστικό για το πώς κατασκευάστηκε στην πραγματικότητα ή πώς λειτουργεί.

Φυσικά, αυτό δεν ήταν τυχαία αβλεψία. Η OpenAI και άλλες μεγάλες εταιρείες επιθυμούν να κρατήσουν τις λειτουργίες των πιο πολύτιμων αλγορίθμων τους κρυμμένες στο μυστήριο, εν μέρει από το φόβο ότι η τεχνολογία μπορεί να χρησιμοποιηθεί καταχρηστικά, αλλά και από την ανησυχία ότι θα δώσουν στους ανταγωνιστές τους ένα πλεονέκτημα.

Μια μελέτη που κυκλοφόρησε από ερευνητές του Πανεπιστημίου του Στάνφορντ αυτή την εβδομάδα δείχνει πόσο βαθιά -και δυνητικά επικίνδυνη- είναι η μυστικότητα γύρω από το GPT-4 και άλλα πρωτοποριακά συστήματα τεχνητής νοημοσύνης. Ορισμένοι ερευνητές ΤΝ με τους οποίους έχω μιλήσει λένε ότι βρισκόμαστε εν μέσω μιας θεμελιώδους αλλαγής στον τρόπο με τον οποίο επιδιώκεται η ΤΝ. Φοβούνται ότι πρόκειται για μια αλλαγή που καθιστά τον τομέα λιγότερο πιθανό να παράγει επιστημονικές προόδους, παρέχει λιγότερη υπευθυνότητα και μειώνει την αξιοπιστία και την ασφάλεια.

Η ομάδα του Στάνφορντ εξέτασε 10 διαφορετικά συστήματα τεχνητής νοημοσύνης, κυρίως μεγάλα γλωσσικά μοντέλα όπως αυτά που βρίσκονται πίσω από το ChatGPT και άλλα chatbots. Σε αυτά περιλαμβάνονται ευρέως χρησιμοποιούμενα εμπορικά μοντέλα όπως το GPT-4 από την OpenAI, το παρόμοιο PaLM 2 από την Google και το Titan Text από την Amazon. Η έκθεση εξέτασε επίσης μοντέλα που προσφέρονται από νεοσύστατες επιχειρήσεις, συμπεριλαμβανομένων των Jurassic-2 από την AI21 Labs, Claude 2 από την Anthropic, Command από την Cohere και Inflection-1 από τον κατασκευαστή chatbot Inflection.

Και εξέτασαν τα μοντέλα τεχνητής νοημοσύνης "ανοιχτού κώδικα" που μπορούν να μεταφορτωθούν δωρεάν, αντί να έχουν πρόσβαση αποκλειστικά στο σύννεφο, συμπεριλαμβανομένου του μοντέλου δημιουργίας εικόνων Stable Diffusion 2 και του Llama 2, το οποίο κυκλοφόρησε από τη Meta τον Ιούλιο του τρέχοντος έτους. (Όπως έχει καλύψει στο παρελθόν το WIRED, αυτά τα μοντέλα δεν είναι συχνά τόσο ανοιχτά όσο φαίνεται).

Η ομάδα του Στάνφορντ βαθμολόγησε την ανοικτότητα αυτών των μοντέλων με 13 διαφορετικά κριτήρια, συμπεριλαμβανομένου του πόσο διαφανής ήταν ο προγραμματιστής σχετικά με τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου - για παράδειγμα, αποκαλύπτοντας πώς συλλέχθηκαν και σχολιάστηκαν και αν περιλαμβάνουν υλικό που προστατεύεται από πνευματικά δικαιώματα. Η μελέτη εξέτασε επίσης τις γνωστοποιήσεις σχετικά με το υλικό που χρησιμοποιήθηκε για την εκπαίδευση και την εκτέλεση ενός μοντέλου, τα χρησιμοποιούμενα πλαίσια λογισμικού και την κατανάλωση ενέργειας ενός έργου.

Σε όλες αυτές τις μετρήσεις, οι ερευνητές διαπίστωσαν ότι κανένα μοντέλο δεν πέτυχε πάνω από 54% στην κλίμακα διαφάνειας σε όλα αυτά τα κριτήρια. Συνολικά, το Titan Text της Amazon κρίθηκε το λιγότερο διαφανές, ενώ το Llama 2 της Meta στέφθηκε το πιο ανοιχτό. Αλλά ακόμη και ένα μοντέλο "ανοιχτού κώδικα" όπως το Llama 2 βρέθηκε να είναι αρκετά αδιαφανές, επειδή η Meta δεν αποκάλυψε τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευσή του, τον τρόπο με τον οποίο τα δεδομένα αυτά συλλέχθηκαν και επιμελήθηκαν ή ποιος έκανε την εργασία.

Ο Nathan Strauss, εκπρόσωπος της Amazon, δήλωσε ότι η εταιρεία εξετάζει προσεκτικά τον δείκτη. "Το Titan Text βρίσκεται ακόμα σε ιδιωτική προεπισκόπηση και θα ήταν πρόωρο να εκτιμήσουμε τη διαφάνεια ενός μοντέλου ίδρυσης πριν αυτό είναι έτοιμο για γενική διαθεσιμότητα", λέει. Η Meta αρνήθηκε να σχολιάσει την έκθεση του Στάνφορντ και το OpenAI δεν απάντησε σε αίτημα σχολιασμού.

Ο Rishi Bommasani, διδακτορικός φοιτητής στο Στάνφορντ που εργάστηκε για τη μελέτη, λέει ότι αντανακλά το γεγονός ότι η τεχνητή νοημοσύνη γίνεται πιο αδιαφανής, ακόμη και όταν αποκτά μεγαλύτερη επιρροή. Αυτό έρχεται σε μεγάλη αντίθεση με την τελευταία μεγάλη έκρηξη της τεχνητής νοημοσύνης, όταν το άνοιγμα βοήθησε να τροφοδοτηθούν μεγάλες πρόοδοι σε δυνατότητες όπως η αναγνώριση ομιλίας και εικόνας. "Στα τέλη της δεκαετίας του 2010, οι εταιρείες ήταν πιο διαφανείς σχετικά με την έρευνά τους και δημοσίευαν πολύ περισσότερα", λέει ο Bommasani. "Αυτός είναι ο λόγος που είχαμε την επιτυχία της βαθιάς μάθησης".

Η έκθεση του Στάνφορντ δείχνει επίσης ότι τα μοντέλα δεν χρειάζεται να είναι τόσο μυστικά για λόγους ανταγωνισμού. Ο Kevin Klyman, ερευνητής πολιτικής στο Στάνφορντ, λέει ότι το γεγονός ότι μια σειρά από κορυφαία μοντέλα σημειώνουν σχετικά υψηλή βαθμολογία σε διαφορετικά μέτρα διαφάνειας υποδηλώνει ότι όλα τους θα μπορούσαν να γίνουν πιο ανοικτά χωρίς να χάσουν από τους ανταγωνιστές τους.

Καθώς οι εμπειρογνώμονες της ΤΝ προσπαθούν να καταλάβουν πού θα καταλήξει η πρόσφατη άνθηση ορισμένων προσεγγίσεων της ΤΝ, ορισμένοι λένε ότι η μυστικότητα κινδυνεύει να καταστήσει τον τομέα λιγότερο επιστημονικό παρά κερδοσκοπικό.

"Αυτή είναι μια κομβική στιγμή στην ιστορία της τεχνητής νοημοσύνης", λέει ο Jesse Dodge, ερευνητής στο Ινστιτούτο Allen για την τεχνητή νοημοσύνη, ή AI2. "Οι παίκτες με τη μεγαλύτερη επιρροή που δημιουργούν σήμερα συστήματα γεννητικής τεχνητής νοημοσύνης είναι όλο και πιο κλειστοί, αποτυγχάνοντας να μοιραστούν βασικές λεπτομέρειες των δεδομένων και των διαδικασιών τους".

Το AI2 προσπαθεί να αναπτύξει ένα πολύ πιο διαφανές γλωσσικό μοντέλο τεχνητής νοημοσύνης, το οποίο ονομάζεται OLMo. Εκπαιδεύεται χρησιμοποιώντας μια συλλογή δεδομένων που προέρχονται από τον ιστό, ακαδημαϊκές δημοσιεύσεις, κώδικα, βιβλία και εγκυκλοπαίδειες. Αυτό το σύνολο δεδομένων, που ονομάζεται Dolma, έχει κυκλοφορήσει υπό την άδεια ImpACT της AI2. Όταν το OLMo είναι έτοιμο, η AI2 σχεδιάζει να κυκλοφορήσει το σύστημα τεχνητής νοημοσύνης που λειτουργεί, καθώς και τον κώδικα πίσω από αυτό, επιτρέποντας σε άλλους να βασιστούν στο έργο.

Ο Dodge λέει ότι η διεύρυνση της πρόσβασης στα δεδομένα που βρίσκονται πίσω από τα ισχυρά μοντέλα τεχνητής νοημοσύνης είναι ιδιαίτερα σημαντική. Χωρίς άμεση πρόσβαση, είναι γενικά αδύνατο να γνωρίζουμε γιατί ή πώς ένα μοντέλο μπορεί να κάνει αυτό που κάνει. "Η πρόοδος της επιστήμης απαιτεί αναπαραγωγιμότητα", λέει. "Χωρίς να παρέχεται ανοιχτή πρόσβαση σε αυτά τα κρίσιμα δομικά στοιχεία της δημιουργίας μοντέλων θα παραμείνουμε σε μια "κλειστή", στάσιμη και ιδιοκτησιακή κατάσταση".

Δεδομένου του πόσο ευρέως αναπτύσσονται τα μοντέλα τεχνητής νοημοσύνης -και πόσο επικίνδυνα προειδοποιούν ορισμένοι ειδικοί ότι μπορεί να είναι-, λίγη περισσότερη διαφάνεια θα μπορούσε να βοηθήσει πολύ.

Πηγή: AI Is Becoming More Powerful—but Also More Secretive