20 Απριλίου 2026

Η OpenAI παρουσιάζει νέα έρευνα για την ασφάλεια της τεχνητής νοημοσύνης. Οι κριτικοί λένε ότι είναι ένα καλό βήμα, αλλά όχι αρκετά αποτελεσματικό

Περίληψη Άρθρου:

Το OpenAI αντιμετωπίζει κριτική για την ταχεία ανάπτυξη του ΑΙ χωρίς επαρκή μέτρα ασφαλείας. Παρουσιάστηκέ έρευνα που στοχεύει στη βελτίωση της διαφάνειας στα μοντέλα AI, απαραίτητη για την ασφάλεια. Οι κριτικοί υποστηρίζουν ότι η εταιρεία δίνει προτεραιότητα στο μερίδιο αγοράς μέσω της υπεύθυνης διακυβέρνησης και εποπτείας της ΑΙ.

 

 

 

 

 

Κύρια  σημεία:

  • Η OpenΑi αντιμετώπισε την κριτική για την ταχέως αναπτυσσόμενη ισχυρότερη τεχνητή νοημοσύνη.
  • Η εταιρεία στοχεύει να αποδείξει τη δέσμευσή της στην Ασφάλεια AI, παρουσιάζοντας έρευνα που αποσκοπεί στην ενίσχυση του ελέγχου των μοντέλων AI.
  • Μια νέα τεχνική περιλαμβάνει δύο μοντέλα AI σε μια συζήτηση για την ενθάρρυνση της διαφάνειας στη συλλογιστική από πιο ικανά συστήματα AI.
  • Η αρχική δοκιμή περιελάμβανε ένα μοντέλο AI που επιλύει απλά μαθηματικά προβλήματα, ενώ εξηγεί τη λογική του σε ένα άλλο μοντέλο που ελέγχει την ακρίβεια.
  • Η διαφάνεια και η εξήγηση είναι κρίσιμες ανησυχίες, καθώς τα πιο ισχυρά γλωσσικά μοντέλα μπορεί να γίνουν αδιαφανή ή παραπλανητικά στη συλλογιστική τους.
  • Οι κριτικοί υποστηρίζουν ότι η εστίαση της OpenAI στις ταχείες εξελίξεις μπορεί να θέσει σε κίνδυνο την ασφάλεια και την εποπτεία που απαιτούνται για την υπεύθυνη ανάπτυξη του AI.

 

Αναλυτικά το άρθρο:

Το OpenAI έχει αντιμετωπίσει τους τελευταίους μήνες αντιδράσεις από εκείνους που υποδηλώνουν ότι ίσως βιάζεται πολύ γρήγορα και απερίσκεπτα να αναπτύξει πιο ισχυρή τεχνητή νοημοσύνη. Η εταιρεία φαίνεται ότι έχει σκοπό να δείξει ότι παίρνει σοβαρά υπόψη της την ασφάλεια της τεχνητής νοημοσύνης. Σήμερα παρουσίασε έρευνα που, όπως λέει, θα μπορούσε να βοηθήσει τους ερευνητές να ελέγχουν τα μοντέλα τεχνητής νοημοσύνης ακόμη και όταν αυτά γίνονται πιο ικανά και χρήσιμα.

Η νέα τεχνική είναι μία από τις πολλές ιδέες που σχετίζονται με την ασφάλεια της τεχνητής νοημοσύνης και τις οποίες η εταιρεία έχει διαφημίσει τις τελευταίες εβδομάδες. Περιλαμβάνει την εμπλοκή δύο μοντέλων τεχνητής νοημοσύνης σε μια συζήτηση που αναγκάζει το πιο ισχυρό να είναι πιο διαφανές ή «ευανάγνωστο» με τη λογική του, ώστε οι άνθρωποι να μπορούν να καταλάβουν τι ετοιμάζει.

«Αυτό είναι ο πυρήνας της αποστολής της δημιουργίας μιας [τεχνητής γενικής νοημοσύνης] που θα είναι ταυτόχρονα ασφαλής και ωφέλιμη», λέει στο WIRED ο Yining Chen, ερευνητής της OpenAI που ασχολείται με το έργο. Μέχρι στιγμής, το έργο έχει δοκιμαστεί σε ένα μοντέλο τεχνητής νοημοσύνης που έχει σχεδιαστεί για την επίλυση απλών μαθηματικών προβλημάτων. Οι ερευνητές του OpenAI ζήτησαν από το μοντέλο AI να εξηγήσει τη λογική του καθώς απαντούσε σε ερωτήσεις ή έλυνε προβλήματα. Ένα δεύτερο μοντέλο εκπαιδεύτηκε για να ανιχνεύει αν οι απαντήσεις είναι σωστές ή όχι, και οι ερευνητές διαπίστωσαν ότι το να εμπλέκονται τα δύο μοντέλα σε ένα πάρε - δώσε ενθάρρυνε το μοντέλο που έλυνε μαθηματικά να είναι πιο ευθύ και διαφανές με τη συλλογιστική του.

Το OpenAI δημοσιεύει δημόσια ένα έγγραφο που περιγράφει λεπτομερώς την προσέγγιση. «Είναι μέρος του μακροπρόθεσμου ερευνητικού σχεδίου για την ασφάλεια», λέει ο Jan Hendrik Kirchner, ένας άλλος ερευνητής του OpenAI που συμμετέχει στην εργασία. «Ελπίζουμε ότι άλλοι ερευνητές μπορούν να ακολουθήσουν και ίσως δοκιμάσουν και άλλους αλγόριθμους».

Η διαφάνεια και η επεξηγηματικότητα αποτελούν βασικές ανησυχίες για τους ερευνητές της τεχνητής νοημοσύνης που εργάζονται για τη δημιουργία πιο ισχυρών συστημάτων. Τα μεγάλα γλωσσικά μοντέλα θα προσφέρουν μερικές φορές λογικές εξηγήσεις για το πώς κατέληξαν σε ένα συμπέρασμα, αλλά μια βασική ανησυχία είναι ότι τα μελλοντικά μοντέλα μπορεί να γίνουν πιο αδιαφανή ή ακόμη και παραπλανητικά στις εξηγήσεις που παρέχουν - ενδεχομένως να επιδιώκουν έναν ανεπιθύμητο στόχο, ενώ λένε ψέματα γι' αυτόν.

Η έρευνα που αποκαλύφθηκε σήμερα αποτελεί μέρος μιας ευρύτερης προσπάθειας κατανόησης του τρόπου λειτουργίας των μεγάλων γλωσσικών μοντέλων που αποτελούν τον πυρήνα προγραμμάτων όπως το ChatGPT. Είναι μία από μια από τις τεχνικές που θα μπορούσαν να βοηθήσουν να γίνουν πιο ισχυρά μοντέλα τεχνητής νοημοσύνης πιο διαφανή και επομένως πιο ασφαλή. Το OpenAI και άλλες εταιρείες διερευνούν επίσης αποτελεσματικότερους μηχανιστικούς τρόπους για να εισχωρήσουν στο εσωτερικό της λειτουργίας των μεγάλων γλωσσικών μοντέλων.

Η OpenAI αποκάλυψε περισσότερες πληροφορίες για το έργο της σχετικά με την ασφάλεια της τεχνητής νοημοσύνης τις τελευταίες εβδομάδες, μετά από κριτική για την προσέγγισή της. Τον Μάιο, το WIRED έμαθε ότι μια ομάδα ερευνητών αφιερωμένη στη μελέτη του μακροπρόθεσμου κινδύνου της τεχνητής νοημοσύνης είχε διαλυθεί. Αυτό ήρθε λίγο μετά την αποχώρηση του συνιδρυτή και βασικού τεχνικού ηγέτη Ilya Sutskever, ο οποίος ήταν ένα από τα μέλη του διοικητικού συμβουλίου που απομάκρυνε για λίγο τον διευθύνοντα σύμβουλο Sam Altman τον περασμένο Νοέμβριο.

H OpenAI ιδρύθηκε με την υπόσχεση ότι θα έκανε την τεχνητή νοημοσύνη τόσο πιο διαφανή στον έλεγχο όσο και πιο ασφαλή. Μετά την αλματώδη επιτυχία του ChatGPT και τον εντονότερο ανταγωνισμό από καλά υποστηριζόμενους αντιπάλους, ορισμένοι κατηγόρησαν την εταιρεία ότι δίνει προτεραιότητα στις εντυπωσιακές εξελίξεις και στο μερίδιο αγοράς έναντι της ασφάλειας.

Ο Daniel Kokotajlo, ένας ερευνητής που έφυγε από την OpenAI και υπέγραψε μια ανοιχτή επιστολή που επέκρινε την προσέγγιση της εταιρείας για την ασφάλεια της τεχνητής νοημοσύνης, λέει ότι η νέα εργασία είναι σημαντική, αλλά σταδιακή, και ότι δεν αλλάζει το γεγονός ότι οι εταιρείες που κατασκευάζουν την τεχνολογία χρειάζονται περισσότερη εποπτεία. «Η κατάσταση στην οποία βρισκόμαστε παραμένει αμετάβλητη», λέει. «Αδιαφανείς, ανεξέλεγκτες εταιρείες που ανταγωνίζονται η μία την άλλη για να κατασκευάσουν τεχνητή υπερ-νοημοσύνη, χωρίς ουσιαστικά κανένα σχέδιο για τον τρόπο ελέγχου της».

Μια άλλη πηγή με γνώση των εσωτερικών λειτουργιών της OpenAI, η οποία ζήτησε να μην κατονομαστεί επειδή δεν είχε εξουσιοδότηση να μιλήσει δημόσια, λέει ότι απαιτείται επίσης εξωτερική εποπτεία των εταιρειών τεχνητής νοημοσύνης. «Το ερώτημα είναι αν είναι σοβαροί σχετικά με τα είδη των διαδικασιών και των μηχανισμών διακυβέρνησης που χρειάζονται για να δοθεί προτεραιότητα στο κοινωνικό όφελος έναντι του κέρδους», λέει η πηγή. «Όχι αν αφήνουν κάποιον από τους ερευνητές τους να κάνει ορισμένα πράγματα που αφορούν την ασφάλεια».

Πηγή: OpenAI Touts New AI Safety Research. Critics Say It’s a Good Step, but Not Enough