17 Νοεμβρίου 2025

Ανοιχτή επιστολή ζητά παύση στην ανάπτυξη υπερευφυούς ΤΝ – η απουσία των μεγάλων εργαστηρίων προκαλεί ερωτήματα

Περίληψη:

Μια νέα ανοιχτή επιστολή από το Future of Life Institute ζητά από κυβερνήσεις να απαγορεύσουν προσωρινά την ανάπτυξη υπερευφυούς τεχνητής νοημοσύνης (ASI), έως ότου αποδειχθεί ότι μπορεί να ελεγχθεί με ασφάλεια. Μεταξύ των υπογραφόντων βρίσκονται γνωστές προσωπικότητες όπως οι Yoshua Bengio, Geoffrey Hinton, Steve Wozniak και Richard Branson, ενώ απουσιάζουν ηγετικά στελέχη από εργαστήρια όπως OpenAI, Google, Anthropic, xAI και Meta. Παρά τη δημοσιότητα, η πρωτοβουλία ίσως έχει περιορισμένο πρακτικό αποτέλεσμα, καθώς δεν υπάρχει κοινή συμφωνία για το τι σημαίνει «παύση ανάπτυξης».

 

Κύρια σημεία:

• Η επιστολή καλεί τις κυβερνήσεις να παγώσουν την ανάπτυξη υπερευφυούς ΤΝ έως ότου αποδειχθεί πλήρως ελεγχόμενη και υπάρξει δημόσια έγκριση.
• Εκφράζονται φόβοι για ανθρώπινη οικονομική απαξίωσηαπώλεια ελευθεριών και αξιοπρέπειας, ακόμα και πιθανό αφανισμό της ανθρωπότητας.
• 64% των Αμερικανών υποστηρίζουν τη διακοπή της έρευνας ASI μέχρι να διασφαλιστεί η ασφάλεια.
• Οι υπογραφές περιλαμβάνουν διακεκριμένους επιστήμονες και επιχειρηματίες, αλλά κανένα ηγετικό πρόσωπο από τα κύρια AI labs.
• Η απουσία των “frontier labs θεωρείται ένδειξη ότι δεν υπάρχει πραγματική διάθεση για παύση του «αγώνα εξοπλισμών» στην ΤΝ.

 

 Αναλυτικά

Η νέα ανοιχτή επιστολή του Future of Life Institute επαναφέρει στο προσκήνιο τη συζήτηση για τα όρια της τεχνητής νοημοσύνης, ζητώντας παύση της ανάπτυξης υπερευφυών συστημάτων (Artificial Superintelligence) έως ότου επιβεβαιωθεί ότι μπορούν να ελεγχθούν και να εγκριθούν από το κοινό. Οι ανησυχίες που διατυπώνονται αφορούν την οικονομική απαξίωση του ανθρώπου, την απώλεια ελευθεριών και κοινωνικού ελέγχου, καθώς και τον κίνδυνο αφανισμού της ανθρωπότητας λόγω ανεξέλεγκτης τεχνητής νοημοσύνης.

Στην επιστολή υπογράφουν σημαντικές προσωπικότητες όπως οι Yoshua Bengio και Geoffrey Hinton (γνωστοί ως “νονοί της ΤΝ”), ο συνιδρυτής της Apple Steve Wozniak και ο Richard Branson της Virgin. Ωστόσο, κανένα κορυφαίο στέλεχος από τα μεγάλα εργαστήρια ΤΝ – όπως OpenAI, Google DeepMind, Anthropic, Meta ή xAI – δεν συμμετείχε. Η μόνη εξαίρεση είναι ένας εργαζόμενος της OpenAI, Leo Gao.

Το Future of Life Institute επικαλείται δημοσκόπηση που δείχνει πως 64% των Αμερικανών θέλουν να σταματήσει η ανάπτυξη ASI μέχρι να αποδειχθεί ασφαλής, ενώ μόλις 5% προτιμούν να συνεχιστεί χωρίς ρυθμίσεις. Ωστόσο, η επιστολή δεν καθορίζει πώς θα οριστεί ή θα ελεγχθεί αυτή η «παύση», γεγονός που μειώνει τις πιθανότητες υλοποίησης της πρότασης.

Το άρθρο επισημαίνει ότι η απουσία των ηγετικών AI εταιρειών δείχνει έλλειψη συναίνεσης στον τομέα — καθιστώντας δύσκολο να σταματήσει μια τεχνολογική «κούρσα» όταν κανένας από τους πρωταγωνιστές δεν συμφωνεί να επιβραδύνει.

 

Δείκτης Sentiment:

 Ανάμικτο / Κριτικό – Το άρθρο παρουσιάζει την πρωτοβουλία θετικά ως ηθική προειδοποίηση, αλλά υπογραμμίζει τη δυσκολία εφαρμογής της και τον σκεπτικισμό για την πραγματική της αποτελεσματικότητα.