Πρέπει να αντιμετωπίσουμε τους κινδύνους της Τεχνητής Νοημοσύνης που βρίσκονται μπροστά μας σήμερα

Περίληψη άρθρου:
Το ChatGPT είναι μια εφαρμογή τεχνητής νοημοσύνης που μπορεί να απαντά σε ερωτήσεις, να γράφει κώδικα και να συμμετέχει σε συζητήσεις που μοιάζουν με ανθρώπινες συνομιλίες. Ενώ ορισμένοι, όπως ο Sam Altman, διευθύνων σύμβουλος της OpenAI, πιστεύουν ότι θα είναι η σπουδαιότερη τεχνολογία που έχει αναπτύξει η ανθρωπότητα, το 42% των CEOs που συμμετείχαν σε έρευνα σε σύνοδο κορυφής του Πανεπιστημίου Yale ανησυχούν ότι θα μπορούσε να καταστρέψει την ανθρωπότητα μέσα στα επόμενα 5-10 χρόνια. Η τεχνητή νοημοσύνη ενέχει άμεσους κινδύνους, όπως η διευκόλυνση της πολιτικής παραπληροφόρησης, η ενίσχυση της προκατάληψης και η παραβίαση της ιδιωτικής ζωής. Για να αντιμετωπίσουν αυτούς τους κινδύνους, οι εταιρείες θα πρέπει να αποκαλύπτουν τις πηγές δεδομένων, να ελέγχουν για προκατάληψη και ακρίβεια και να φέρουν υδατογράφημα στο περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη. Το Κογκρέσο θα πρέπει να ψηφίσει νόμους για τη ρύθμιση της ΤΝ, την ενίσχυση της ερευνητικής ικανότητας και να δώσει στους καταναλωτές μεγαλύτερο έλεγχο των προσωπικών τους πληροφοριών. Πρέπει να καταστήσουμε την τεχνολογική βιομηχανία υπεύθυνη για την πρόληψη των προβλημάτων που θα δημιουργήσει η ΤΝ.
Κύρια σημεία του άρθρου:
- Η τεχνολογία της δημιουργικής τεχνητής νοημοσύνης ενέχει σοβαρούς άμεσους κινδύνους, όπως η διευκόλυνση της πολιτικής παραπληροφόρησης και των κυβερνοεπιθέσεων, η ενίσχυση της φυλετικής και έμφυλης προκατάληψης, η παραβίαση της ιδιωτικής ζωής και η εξάπλωση της διαδικτυακής απάτης.
- Οι εταιρείες τεχνολογίας θα πρέπει να λάβουν μέτρα για τη μείωση αυτών των κινδύνων, όπως η αποκάλυψη των πηγών δεδομένων, ο έλεγχος για μεροληψία και παραβιάσεις της ιδιωτικής ζωής και η υδατογράφηση του περιεχομένου που παράγεται με τεχνητή νοημοσύνη.
- Το Κογκρέσο και οι ρυθμιστικές αρχές θα πρέπει να διασφαλίσουν την εφαρμογή των υφιστάμενων νόμων σε περιπτώσεις που αφορούν την παραγωγική ΤΝ και να θεσπίσουν νομοθεσία για να δώσουν στους καταναλωτές μεγαλύτερο έλεγχο των προσωπικών τους πληροφοριών.
- Οι σχεδιαστές ΤΝ πρέπει να λύσουν το πρόβλημα της ερμηνευσιμότητας και να βελτιώσουν τα εργαλεία για τον εντοπισμό υλικού που έχει δημιουργηθεί από ΤΝ.
- Το Κογκρέσο θα πρέπει να ενισχύσει την ερευνητική ικανότητα του δημόσιου τομέα και της ακαδημαϊκής έρευνας για την ΤΝ σε υπολογιστές, ώστε να συμβαδίζει με τον ιδιωτικό τομέα.
Αναλυτικά το άρθρο:
Το ChatGPT - η εφαρμογή τεχνητής νοημοσύνης (AI) που μπορεί να απαντήσει σε ασαφείς ερωτήσεις, να γράψει κώδικα υπολογιστή, να συνθέσει χαϊκού, να διδάξει άλγεβρα και να εμπλακεί σε μια τρομακτικά ανθρώπινη συζήτηση - έχει ενεργοποιήσει τη μηχανή υπερβολής της Silicon Valley.
Ο Sam Altman, διευθύνων σύμβουλος της OpenAI, της νεοφυούς επιχείρησης που σχεδίασε το ChatGPT με χρηματοδότηση από τη Microsoft, δήλωσε σε τηλεοπτικό συνεντευκτή: "Αυτή θα είναι η μεγαλύτερη τεχνολογία που έχει αναπτύξει η ανθρωπότητα".
Δεν συμφωνούν όλοι. Το 42% των διευθύνοντων συμβούλων που ερωτήθηκαν σε εταιρική σύνοδο κορυφής του Πανεπιστημίου Yale τον Ιούνιο δήλωσαν ότι ανησυχούν ότι η τεχνητή νοημοσύνη θα μπορούσε ενδεχομένως να καταστρέψει την ανθρωπότητα μέσα στα επόμενα πέντε έως δέκα χρόνια.
Ποιός έχει δίκιο; Για να απαντήσει σε αυτό το ερώτημα, το Κογκρέσο διοργανώνει ακροάσεις, ο ηγέτης της πλειοψηφίας της Γερουσίας Chuck Schumer (D-N.Y.) υπόσχεται μια σειρά νομοθετικών ρυθμίσεων και ο πρόεδρος Biden συναντάται με εμπειρογνώμονες του κλάδου.
Ας ξεκαθαρίσουμε τα πράγματα. Πρώτον, το ChatGPT και τα ανταγωνιστικά συστήματα δημιουργικής τεχνητής νοημοσύνης δεν αποτελούν, από μόνα τους, απειλή για την ύπαρξη της ανθρωπότητας. Όμως η τεχνολογία δημιουργεί σοβαρούς άμεσους κινδύνους. Σε αυτούς περιλαμβάνονται η διευκόλυνση της πολιτικής παραπληροφόρησης και των κυβερνοεπιθέσεων, η ενίσχυση των φυλετικών και έμφυλων προκαταλήψεων, η παραβίαση της προσωπικής ιδιωτικής ζωής και η εξάπλωση της διαδικτυακής απάτης.
Η έμφαση σε αυτούς τους πιο διακριτούς κινδύνους έχει νόημα ακόμη και αν κάποιος τρέφει την αγωνία ότι, αν αφεθεί ανεξέλεγκτη, η εξέλιξη της τεχνητής νοημοσύνης μπορεί μια μέρα να δημιουργήσει υπαρξιακούς κινδύνους. Αν θέλουμε να αντιμετωπίσουμε αποτελεσματικά τις πιθανές απειλές για την ανθρωπότητα, ο καλύτερος τρόπος για να ξεκινήσουμε είναι να ρυθμίσουμε τους κινδύνους της ΤΝ που βρίσκονται ακριβώς μπροστά μας.
Λίγα λόγια για το ιστορικό: Οι προγραμματιστές της δημιουργικής ΤΝ τροφοδοτούν βουνά δεδομένων που συλλέγονται από το διαδίκτυο σε μαθηματικά συστήματα που ονομάζονται νευρωνικά δίκτυα, τα οποία εκπαιδεύονται να αναγνωρίζουν στατιστικά μοτίβα στις πληροφορίες. Ένας τύπος δικτύου που ονομάζεται μεγάλο γλωσσικό μοντέλο (LLM) εκπαιδεύεται για να αναλύει κάθε είδους διαδικτυακό κείμενο: Δημοσιεύσεις στο Reddit, ψηφιοποιημένα μυθιστορήματα, επιστημονικές μελέτες που έχουν αξιολογηθεί από ομοτίμους, tweets, λήμματα της Wikipedia που προέρχονται από το πλήθος και πολλά άλλα. Παρατηρώντας μοτίβα, ένα LLM αναπτύσσει σταδιακά την ικανότητα να διατυπώνει πεζά κείμενα, κώδικα υπολογιστή, ακόμη και συνομιλίες. Υπάρχουν επίσης συστήματα που παράγουν εικόνες και ήχο.
Η παραγωγική ΤΝ έχει πολλά υποσχόμενες εφαρμογές στην υγειονομική περίθαλψη, την εκπαίδευση και την επιστημονική έρευνα. Όμως μια νέα έκθεση που δημοσιεύθηκε από το Κέντρο Επιχειρήσεων και Ανθρωπίνων Δικαιωμάτων της Σχολής Επιχειρήσεων Stern του Πανεπιστημίου της Νέας Υόρκης απαριθμεί μια σειρά από κοινωνικούς κινδύνους:
- Η νέα τεχνολογία θα καταστήσει την παραπληροφόρηση ευκολότερη στην παραγωγή και πιο πειστική.
- Οι κυβερνοεπιθέσεις εναντίον τραπεζών, σταθμών παραγωγής ενέργειας και κυβερνητικών οργανισμών θα υποβοηθούνται από συστήματα τεχνητής νοημοσύνης που μπορούν να παράγουν κώδικα κακόβουλου λογισμικού σε απάντηση σε στοιχειώδεις προτροπές κειμένου.
- Η απάτη θα πολλαπλασιαστεί επίσης, καθώς οι εγκληματίες θα μάθουν να αξιοποιούν εργαλεία που επιτρέπουν σε τεχνικά ανεπαρκείς χρήστες να εξατομικεύουν τις απάτες για μεμονωμένα θύματα.
- Οι παραβιάσεις της ιδιωτικής ζωής θα συμβούν επειδή τα τεράστια σύνολα δεδομένων του Διαδικτύου που χρησιμοποιούνται για την εκπαίδευση των LLM περιέχουν προσωπικές πληροφορίες που οι κακοί παράγοντες μπορεί να είναι σε θέση να αποσπάσουν από τις εφαρμογές AI.
- Οι προκαταλήψεις και η ρητορική μίσους που υπάρχουν στο διαδίκτυο είναι πιθανό να εισχωρήσουν στις απαντήσεις που προσφέρουν οι LLM, οδηγώντας στη θυματοποίηση περιθωριοποιημένων ομάδων.
- Τα παραγωγικά συστήματα ΤΝ τείνουν να "παραισθάνονται" ή να επινοούν ψευδή γεγονότα, γεγονός που δημιουργεί κινδύνους εάν οι χρήστες ζητούν συμβουλές για θέματα όπως η ιατρική διάγνωση και θεραπεία.
Για την αντιμετώπιση αυτών των κινδύνων, οι εταιρείες τεχνολογίας μπορούν να λάβουν διάφορα μέτρα, όπως:
- Χωρίς να εκθέτουν τον βασικό τους κώδικα σε επιχειρηματικούς αντιπάλους ή κακούς παράγοντες, οι εταιρείες θα πρέπει να αποκαλύπτουν τις πηγές δεδομένων τους, τα συγκεκριμένα μέτρα που λαμβάνουν για τη μείωση της μεροληψίας και των παραβιάσεων της ιδιωτικής ζωής και τις δοκιμές που εκτελούν για την ελαχιστοποίηση των ψευδαισθήσεων και του επιβλαβούς περιεχομένου.
- Τα συστήματα δημιουργικής τεχνητής νοημοσύνης δεν θα πρέπει να κυκλοφορούν μέχρι να αποδειχθεί ότι είναι ασφαλή και αποτελεσματικά για την προβλεπόμενη χρήση τους. Η παρακολούθηση θα πρέπει να συνεχιστεί ακόμη και μετά την κυκλοφορία με τη δυνατότητα αφαίρεσης των μοντέλων από την αγορά, εάν προκύψουν σημαντικοί απρόβλεπτοι κίνδυνοι.
- Για να μειωθεί η σύγχυση και η απάτη, οι σχεδιαστές γεννητικών συστημάτων ΤΝ πρέπει να βρουν τρόπους για την υδατογράφηση ή τον προσδιορισμό με άλλο τρόπο του περιεχομένου που παράγεται από ΤΝ. Ταυτόχρονα, οι ίδιοι και άλλοι θα πρέπει να βελτιώσουν τα εργαλεία που μπορούν να χρησιμοποιηθούν για τον εντοπισμό υλικού που έχει δημιουργηθεί με τεχνητή νοημοσύνη.
- Παραδόξως, οι σχεδιαστές ΤΝ συχνά δεν κατανοούν γιατί οι δημιουργίες τους ενεργούν όπως ενεργούν. Πρέπει να εντείνουν τις τρέχουσες προσπάθειες για την επίλυση αυτού του προβλήματος ερμηνευσιμότητας ως μέρος της ευρύτερης προσπάθειας να καταστούν τα μοντέλα ασφαλή.
Από την πλευρά τους, το Κογκρέσο και οι ρυθμιστικές αρχές μπορούν να ξεκινήσουν εξασφαλίζοντας ότι οι υφιστάμενοι νόμοι περί ποινικής δίωξης, προστασίας των καταναλωτών και προστασίας της ιδιωτικής ζωής θα εφαρμόζονται σε περιπτώσεις που αφορούν τη γεννητική ΤΝ. Οι νομοθέτες θα πρέπει να προχωρήσουν παραπέρα, ενισχύοντας την εξουσία της Ομοσπονδιακής Επιτροπής Εμπορίου ή μιας νέας αυτόνομης υπηρεσίας για την εποπτεία των ψηφιακών βιομηχανιών, συμπεριλαμβανομένων των εταιρειών ΤΝ.
Το Κογκρέσο απέτυχε τα τελευταία χρόνια να περάσει νομοθεσία που να επιβάλλει μεγαλύτερη αποκάλυψη από τη βιομηχανία των μέσων κοινωνικής δικτύωσης. Πρέπει να επανέλθει στο έργο αυτό, διευρύνοντας παράλληλα το οπτικό του πεδίο ώστε να συμπεριλάβει την τεχνητή νοημοσύνη. Ταυτόχρονα, οι νομοθέτες πρέπει να προσπαθήσουν ξανά να περάσουν έναν νόμο για την προστασία της ιδιωτικής ζωής που θα δίνει στους καταναλωτές μεγαλύτερο έλεγχο των προσωπικών τους πληροφοριών. Τέλος, το Κογκρέσο θα πρέπει να ενισχύσει την ερευνητική ικανότητα του δημόσιου τομέα και της ακαδημαϊκής έρευνας για την ΤΝ σε υπολογιστές, ώστε οι ρυθμιστικές αρχές και οι πανεπιστημιακοί επιστήμονες να μπορούν να συμβαδίζουν με τους αντίστοιχους του ιδιωτικού τομέα.
Δεν έχουμε την πολυτέλεια να επαναλάβουμε τα λάθη που έγιναν με τα μέσα κοινωνικής δικτύωσης, τα οποία εξελίχθηκαν σε μια σχεδόν ανεξέλεγκτη βιομηχανία που βασίζεται στο χαρούμενο μάρκετινγκ σχετικά με την προώθηση της ελευθερίας του λόγου και των προσωπικών συνδέσεων. Χωρίς μεγάλη εποπτεία, το Facebook, το Twitter και το YouTube έγιναν καταφύγια για μισογυνιστικά και ρατσιστικά trolls, Ρώσους πράκτορες παραπληροφόρησης και εξεγερμένους της 6ης Ιανουαρίου.
Σήμερα, έχουμε την ευκαιρία να προλάβουμε τα προβλήματα που σχεδόν σίγουρα θα δημιουργήσει η γενεσιουργός τεχνητή νοημοσύνη. Η τεχνολογική βιομηχανία πρέπει να λογοδοτήσει, ανεξάρτητα από το πόσο προσοδοφόρες είναι οι καινοτομίες της.
Ο Paul M. Barrett είναι αναπληρωτής διευθυντής του Κέντρου Επιχειρήσεων και Ανθρωπίνων Δικαιωμάτων στο Stern School of Business του Πανεπιστημίου της Νέας Υόρκης. Ο Justin Hendrix είναι συνεργαζόμενος ερευνητής και επίκουρος καθηγητής στη Σχολή Μηχανικής Tandon του NYU και διευθύνων σύμβουλος και εκδότης της Tech Policy Press.
Πηγή: We must address the AI risks right in front of us today
