
23 Απριλίου 2026
Οι κίνδυνοι της τεχνητής νοημοσύνης είναι υπαρκτοί αλλά διαχειρίσιμοι

Περίληψη άρθρου:
Η τεχνητή νοημοσύνη ενέχει κινδύνους, όπως η αντικατάσταση θέσεων εργασίας και η παρέμβαση στις εκλογές, αλλά οι τεχνολογικές καινοτομίες του παρελθόντος μας διδάσκουν πώς να διαχειριζόμαστε τις προκλήσεις. Οι υπάρχοντες νόμοι μπορούν να προσαρμοστούν, να δημιουργηθούν νέοι. Οι άμεσες ανησυχίες περιλαμβάνουν τα deepfakes και τις κυβερνοεπιθέσεις, που απαιτούν προσοχή και λήψη αντιμέτρων. Η τεχνητή νοημοσύνη μπορεί να καταπολεμήσει τις απειλές και να υπονομεύσει τις εκλογές, αλλά η ικανότητα των ανθρώπων να διακρίνουν τα ψεύδη μπορεί να αναπτυχθεί. Η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει θέσεις εργασίας βραχυπρόθεσμα, αλλά να δημιουργήσει νέες ευκαιρίες στην υγεία και την εκπαίδευση. Οι κυβερνήσεις και οι επιχειρήσεις πρέπει να υποστηρίξουν τη μετάβαση των εργαζομένων μέσω της επανεκπαίδευσης. Ο αντίκτυπος της τεχνητής νοημοσύνης θα είναι σημαντικός όπως η εισαγωγή του υπολογιστή, με προσπάθειες για την αντιμετώπιση ζητημάτων όπως οι προκαταλήψεις και το πλαίσιο. Οι εκπαιδευτικοί μπορούν να χρησιμοποιήσουν την ΤΝ για να βοηθήσουν τους μαθητές. Οι κυβερνήσεις χρειάζονται τεχνογνωσία για τεκμηριωμένους κανονισμούς- οι εταιρείες πρέπει να θέσουν ως προτεραιότητα την ασφάλεια, την υπευθυνότητα, την ιδιωτικότητα και την ελαχιστοποίηση των προκαταλήψεων. Η ευαισθητοποίηση του κοινού είναι ζωτικής σημασίας για μια υγιή συζήτηση σχετικά με τα οφέλη και τους κινδύνους της ΤΝ.
Κύρια σημεία του άρθρου:
- Πιθανοί κίνδυνοι της ΤΝ: εκτόπιση θέσεων εργασίας, παρεμβάσεις στις εκλογές, κυβερνοεπιθέσεις
- Ανάπτυξη εργαλείων τεχνητής νοημοσύνης για την ανίχνευση και την αντιμετώπιση των deepfakes και των απειλών στον κυβερνοχώρο
- Έμφαση στην ενίσχυση της παραγωγικότητας και τη δημιουργία νέων ευκαιριών στην υγειονομική περίθαλψη και την εκπαίδευση
- Σημασία της παροχής υποστήριξης και επανεκπαίδευσης των εργαζομένων κατά τη μετάβαση σε έναν εργασιακό χώρο με ΤΝ
- Χρήση της ΤΝ στην εκπαίδευση για τη συγγραφή, την κριτική σκέψη, τον έλεγχο των γεγονότων και την κάλυψη των διαφορών στις επιδόσεις
- Καλεί τις κυβερνήσεις να αναπτύξουν τεχνογνωσία στη ρύθμιση της ΤΝ, τις εταιρείες να δώσουν προτεραιότητα στην υπεύθυνη ανάπτυξη και τα άτομα να παραμένουν ενημερωμένα μέσω της δημόσιας συζήτησης
Αναλυτικά το άρθρο:
Οι κίνδυνοι που δημιουργούνται από την τεχνητή νοημοσύνη μπορεί να φαίνονται συντριπτικοί. Τι θα συμβεί στους ανθρώπους που θα χάσουν τη δουλειά τους από μια έξυπνη μηχανή; Θα μπορούσε η τεχνητή νοημοσύνη να επηρεάσει τα αποτελέσματα των εκλογών; Τι θα συμβεί αν μια μελλοντική τεχνητή νοημοσύνη αποφασίσει ότι δεν χρειάζεται πια τους ανθρώπους και θέλει να μας ξεφορτωθεί;
Όλα αυτά είναι εύλογα ερωτήματα και οι ανησυχίες που προκαλούν πρέπει να ληφθούν σοβαρά υπόψη. Υπάρχει όμως ένας καλός λόγος να πιστεύουμε ότι μπορούμε να τις αντιμετωπίσουμε: Δεν είναι η πρώτη φορά που μια σημαντική καινοτομία εισάγει νέες απειλές που έπρεπε να ελεγχθούν. Το έχουμε ξανακάνει.
Είτε επρόκειτο για την εισαγωγή των αυτοκινήτων είτε για την άνοδο των προσωπικών υπολογιστών και του Διαδικτύου, οι άνθρωποι έχουν καταφέρει να περάσουν από άλλες μεταρρυθμιστικές στιγμές και, παρά τις πολλές αναταράξεις, να βγουν καλύτερα στο τέλος. Αμέσως μετά την κυκλοφορία των πρώτων αυτοκινήτων στους δρόμους, υπήρξε το πρώτο αυτοκινητιστικό δυστύχημα. Αλλά δεν απαγορεύσαμε τα αυτοκίνητα - υιοθετήσαμε όρια ταχύτητας, πρότυπα ασφαλείας, απαιτήσεις αδειοδότησης, νόμους για την οδήγηση υπό την επήρεια αλκοόλ και άλλους κανόνες οδικής κυκλοφορίας.
Βρισκόμαστε τώρα στο αρχικό στάδιο μιας άλλης βαθιάς αλλαγής, της Εποχής της Τεχνητής Νοημοσύνης. Είναι ανάλογη με εκείνες τις αβέβαιες εποχές πριν από τα όρια ταχύτητας και τις ζώνες ασφαλείας. Η τεχνητή νοημοσύνη αλλάζει τόσο γρήγορα που δεν είναι σαφές τι ακριβώς θα συμβεί στη συνέχεια. Είμαστε αντιμέτωποι με μεγάλα ερωτήματα που εγείρονται από τον τρόπο με τον οποίο λειτουργεί η τρέχουσα τεχνολογία, τους τρόπους με τους οποίους οι άνθρωποι θα τη χρησιμοποιήσουν με κακή πρόθεση και τους τρόπους με τους οποίους η Τεχνητή Νοημοσύνη θα μας αλλάξει ως κοινωνία και ως άτομα.
Σε μια τέτοια στιγμή, είναι φυσικό να νιώθεις αναστατωμένος. Όμως η ιστορία δείχνει ότι είναι δυνατή η επίλυση των προκλήσεων που δημιουργούν οι νέες τεχνολογίες.
Έχω γράψει στο παρελθόν για το πώς η τεχνητή νοημοσύνη πρόκειται να φέρει επανάσταση στη ζωή μας. Θα βοηθήσει στην επίλυση προβλημάτων -στην υγεία, την εκπαίδευση, την κλιματική αλλαγή και άλλα- που παλαιότερα φαίνονταν άλυτα. Το Ίδρυμα Gates την έχει θέσει ως προτεραιότητα, και ο Διευθύνων Σύμβουλος μας, Mark Suzman, μοιράστηκε πρόσφατα τον τρόπο με τον οποίο σκέφτεται για τον ρόλο της στη μείωση της ανισότητας.
Θα έχω περισσότερα να πω στο μέλλον για τα οφέλη της τεχνητής νοημοσύνης, αλλά σε αυτή την ανάρτηση θέλω να αναγνωρίσω τις ανησυχίες που ακούω και διαβάζω πιο συχνά, πολλές από τις οποίες συμμερίζομαι, και να εξηγήσω πώς σκέφτομαι γι' αυτές.
Ένα πράγμα που είναι σαφές από όλα όσα έχουν γραφτεί μέχρι στιγμής για τους κινδύνους της ΤΝ -και έχουν γραφτεί πολλά- είναι ότι κανείς δεν έχει όλες τις απαντήσεις. Ένα άλλο πράγμα που είναι σαφές για μένα είναι ότι το μέλλον της Τεχνητής Νοημοσύνης δεν είναι τόσο ζοφερό όσο νομίζουν κάποιοι ή τόσο ρόδινο όσο νομίζουν άλλοι. Οι κίνδυνοι είναι πραγματικοί, αλλά είμαι αισιόδοξος ότι μπορούν να αντιμετωπιστούν. Καθώς θα εξετάζω κάθε ανησυχία, θα επιστρέφω σε μερικά θέματα:
- Πολλά από τα προβλήματα που προκαλεί η τεχνητή νοημοσύνη έχουν ιστορικό προηγούμενο. Για παράδειγμα, θα έχει μεγάλο αντίκτυπο στην εκπαίδευση, αλλά το ίδιο συνέβη και με τις φορητές αριθμομηχανές πριν από μερικές δεκαετίες και, πιο πρόσφατα, με την άδεια χρήσης υπολογιστών στην τάξη. Μπορούμε να μάθουμε από ό,τι λειτούργησε στο παρελθόν.
- Πολλά από τα προβλήματα που προκαλεί η ΤΝ μπορούν επίσης να αντιμετωπιστούν με τη βοήθεια της ΤΝ.
- Θα χρειαστεί να προσαρμόσουμε τους παλιούς νόμους και να υιοθετήσουμε νέους - όπως ακριβώς οι υπάρχοντες νόμοι κατά της απάτης έπρεπε να προσαρμοστούν στον διαδικτυακό κόσμο.
Σε αυτή τη θέση, θα επικεντρωθώ στους κινδύνους που είναι ήδη παρόντες ή θα είναι σύντομα παρόντες. Δεν ασχολούμαι με το τι θα συμβεί όταν αναπτύξουμε μια τεχνητή νοημοσύνη που μπορεί να μάθει οποιοδήποτε θέμα ή εργασία, σε αντίθεση με τις σημερινές τεχνητές νοημοσύνες που έχουν κατασκευαστεί για συγκεκριμένο σκοπό. Είτε φτάσουμε σε αυτό το σημείο σε μια δεκαετία είτε σε έναν αιώνα, η κοινωνία θα πρέπει να αναμετρηθεί με βαθιά ερωτήματα. Τι θα συμβεί αν μια σούπερ ΤΝ θέσει τους δικούς της στόχους; Τι θα συμβεί αν αυτοί συγκρουστούν με τους στόχους της ανθρωπότητας; Θα πρέπει να δημιουργήσουμε μια σούπερ ΤΝ;
Αλλά η σκέψη για αυτούς τους μακροπρόθεσμους κινδύνους δεν πρέπει να αποβεί εις βάρος των πιο άμεσων. Θα αναφερθώ σε αυτούς τώρα.
Τα deepfakes και η παραπληροφόρηση που παράγονται από την τεχνητή νοημοσύνη θα μπορούσαν να υπονομεύσουν τις εκλογές και τη δημοκρατία.
Η ιδέα ότι η τεχνολογία μπορεί να χρησιμοποιηθεί για τη διάδοση ψεμάτων και ψευδών γεγονότων δεν είναι καινούργια. Οι άνθρωποι το κάνουν με βιβλία και φυλλάδια εδώ και αιώνες. Έγινε πολύ πιο εύκολο με την έλευση των επεξεργαστών κειμένου, των εκτυπωτών λέιζερ, του ηλεκτρονικού ταχυδρομείου και των κοινωνικών δικτύων.
Η τεχνητή νοημοσύνη παίρνει αυτό το πρόβλημα του ψεύτικου κειμένου και το επεκτείνει, επιτρέποντας σχεδόν σε οποιονδήποτε να δημιουργήσει ψεύτικο ήχο και βίντεο, γνωστά ως deepfakes. Αν λάβετε ένα φωνητικό μήνυμα που ακούγεται σαν το παιδί σας και λέει "Με έχουν απαγάγει, παρακαλώ στείλτε 1.000 δολάρια σε αυτόν τον τραπεζικό λογαριασμό μέσα στα επόμενα 10 λεπτά και μην καλέσετε την αστυνομία", θα έχει τρομακτικό συναισθηματικό αντίκτυπο πολύ μεγαλύτερο από τον αντίκτυπο ενός email που λέει το ίδιο πράγμα.
Σε μεγαλύτερη κλίμακα, τα ψεύτικα μηνύματα που δημιουργούνται από την τεχνητή νοημοσύνη θα μπορούσαν να χρησιμοποιηθούν για να επηρεάσουν τις εκλογές. Φυσικά, δεν χρειάζεται εξελιγμένη τεχνολογία για να σπείρει κανείς αμφιβολίες για τον νόμιμο νικητή των εκλογών, αλλά η τεχνητή νοημοσύνη θα το κάνει ευκολότερο.
Υπάρχουν ήδη ψεύτικα βίντεο που περιλαμβάνουν κατασκευασμένο υλικό από γνωστούς πολιτικούς. Φανταστείτε ότι το πρωί μιας μεγάλης εκλογικής αναμέτρησης, ένα βίντεο που δείχνει έναν από τους υποψηφίους να ληστεύει μια τράπεζα γίνεται viral. Είναι ψεύτικο, αλλά τα ειδησεογραφικά πρακτορεία και η προεκλογική εκστρατεία χρειάζονται αρκετές ώρες για να το αποδείξουν. Πόσοι άνθρωποι θα το δουν και θα αλλάξουν την ψήφο τους την τελευταία στιγμή; Αυτό θα μπορούσε να ανατρέψει την ζυγαριά, ειδικά σε μια κοντινή εκλογική αναμέτρηση.
Όταν ο συνιδρυτής του OpenAI, Sam Altman, κατέθεσε πρόσφατα σε επιτροπή της Γερουσίας των ΗΠΑ, γερουσιαστές και από τα δύο κόμματα εστίασαν στον αντίκτυπο της τεχνητής νοημοσύνης στις εκλογές και τη δημοκρατία. Ελπίζω αυτό το θέμα να συνεχίσει να βρίσκεται στην επικαιρότητα όλων.
Σίγουρα δεν έχουμε λύσει το πρόβλημα της παραπληροφόρησης και των deepfakes. Αλλά δύο πράγματα με κάνουν να είμαι συγκρατημένα αισιόδοξος. Το ένα είναι ότι οι άνθρωποι είναι ικανοί να μάθουν να μην παίρνουν τα πάντα τοις μετρητοίς. Για χρόνια, οι χρήστες ηλεκτρονικού ταχυδρομείου έπεφταν σε απάτες όπου κάποιος που εμφανιζόταν ως πρίγκιπας από τη Νιγηρία υποσχόταν μια μεγάλη πληρωμή σε αντάλλαγμα για να μοιραστείτε τον αριθμό της πιστωτικής σας κάρτας. Αλλά τελικά, οι περισσότεροι άνθρωποι έμαθαν να κοιτάζουν δύο φορές αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου. Καθώς οι απάτες έγιναν πιο εξελιγμένες, το ίδιο έκαναν και πολλοί από εκείνους που ήταν οι στόχοι τους. Θα πρέπει να δημιουργήσουμε την ίδια δύναμη για τις βαθιές απάτες.
Το άλλο πράγμα που με κάνει να αισιοδοξώ είναι ότι η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον εντοπισμό και στη δημιουργία των απομιμήσεων. Η Intel, για παράδειγμα, έχει αναπτύξει έναν ανιχνευτή deepfake, και η κυβερνητική υπηρεσία DARPA εργάζεται πάνω σε μια τεχνολογία για τον εντοπισμό του κατά πόσο ένα βίντεο ή ένας ήχος έχει παραποιηθεί.
Αυτό θα είναι μια κυκλική διαδικασία: Κάποιος βρίσκει έναν τρόπο να ανιχνεύει την πλαστογράφηση, κάποιος άλλος ανακαλύπτει πώς να την αντιμετωπίσει, κάποιος άλλος αναπτύσσει αντίμετρα, και ούτω καθεξής. Δεν θα είναι μια τέλεια επιτυχία, αλλά δεν θα είμαστε και αβοήθητοι.
Η τεχνητή νοημοσύνη διευκολύνει τις επιθέσεις εναντίον ανθρώπων και κυβερνήσεων.
Σήμερα, όταν οι χάκερς θέλουν να βρουν εκμεταλλεύσιμα ελαττώματα στο λογισμικό, το κάνουν με ωμή βία - γράφοντας κώδικα που χτυπάει τις πιθανές αδυναμίες μέχρι να ανακαλύψουν έναν τρόπο εισόδου. Αυτό προϋποθέτει την αναζήτηση πολλών αδιέξοδων διαδρομών, πράγμα που σημαίνει ότι χρειάζεται χρόνος και υπομονή.
Οι ειδικοί ασφαλείας που θέλουν να αντιμετωπίσουν τους χάκερς πρέπει να κάνουν το ίδιο πράγμα. Κάθε επιδιόρθωση λογισμικού που τοποθετείτε στο τηλέφωνο ή το φορητό σας υπολογιστή αντιπροσωπεύει πολλές ώρες αναζήτησης, τόσο από ανθρώπους με καλές όσο και από ανθρώπους με κακές προθέσεις.
Τα μοντέλα τεχνητής νοημοσύνης θα επιταχύνουν αυτή τη διαδικασία, βοηθώντας τους χάκερς να γράψουν πιο αποτελεσματικό κώδικα. Θα μπορούν επίσης να χρησιμοποιούν δημόσιες πληροφορίες για τα άτομα, όπως το πού εργάζονται και ποιοι είναι οι φίλοι τους, για να αναπτύσσουν επιθέσεις phishing που είναι πιο προηγμένες από αυτές που βλέπουμε σήμερα.
Τα καλά νέα είναι ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί τόσο για καλούς όσο και για κακούς σκοπούς. Οι ομάδες ασφαλείας του κυβερνητικού και του ιδιωτικού τομέα πρέπει να διαθέτουν τα πιο σύγχρονα εργαλεία για την εύρεση και τον εντοπισμό κενών ασφαλείας πριν οι εγκληματίες μπορέσουν να τα εκμεταλλευτούν. Ελπίζω ότι η βιομηχανία ασφάλειας λογισμικού θα επεκτείνει το έργο που ήδη κάνει σε αυτό το μέτωπο - θα έπρεπε να αποτελεί κορυφαίο μέλημά της.
Αυτός είναι και ο λόγος για τον οποίο δεν πρέπει να προσπαθήσουμε να εμποδίσουμε προσωρινά τους ανθρώπους να εφαρμόσουν τις νέες εξελίξεις στην ΤΝ, όπως έχουν προτείνει ορισμένοι. Οι εγκληματίες του κυβερνοχώρου δεν θα σταματήσουν να κατασκευάζουν νέα εργαλεία. Ούτε οι άνθρωποι που θέλουν να χρησιμοποιήσουν την ΤΝ για να σχεδιάσουν πυρηνικά όπλα και επιθέσεις βιοτρομοκρατίας. Η προσπάθεια να τους σταματήσουμε πρέπει να συνεχιστεί με τον ίδιο ρυθμό.
Υπάρχει ένας παρόμοιος κίνδυνος σε παγκόσμιο επίπεδο: μια κούρσα εξοπλισμών για την ΤΝ που μπορεί να χρησιμοποιηθεί για τον σχεδιασμό και την εξαπόλυση κυβερνοεπιθέσεων εναντίον άλλων χωρών. Κάθε κυβέρνηση θέλει να έχει την πιο ισχυρή τεχνολογία, ώστε να μπορεί να αποτρέψει τις επιθέσεις των αντιπάλων της. Αυτό το κίνητρο για να μην αφήσει κανέναν να προηγηθεί θα μπορούσε να πυροδοτήσει έναν αγώνα δρόμου για τη δημιουργία όλο και πιο επικίνδυνων κυβερνοόπλων. Όλοι θα ήταν σε χειρότερη θέση.
Αυτή είναι μια τρομακτική σκέψη, αλλά έχουμε την ιστορία να μας καθοδηγεί. Αν και το παγκόσμιο καθεστώς μη διάδοσης των πυρηνικών όπλων έχει τα ελαττώματά του, έχει αποτρέψει τον ολοκληρωτικό πυρηνικό πόλεμο που η γενιά μου φοβόταν τόσο πολύ όταν μεγαλώναμε. Οι κυβερνήσεις θα πρέπει να εξετάσουν το ενδεχόμενο δημιουργίας ενός παγκόσμιου οργανισμού για την ΤΝ, παρόμοιου με τον Διεθνή Οργανισμό Ατομικής Ενέργειας.
Η τεχνητή νοημοσύνη θα στερήσει τις θέσεις εργασίας των ανθρώπων.
Τα επόμενα χρόνια, ο κύριος αντίκτυπος της τεχνητής νοημοσύνης στην εργασία θα είναι να βοηθήσει τους ανθρώπους να κάνουν τη δουλειά τους πιο αποτελεσματικά. Αυτό θα ισχύει ανεξάρτητα από το αν εργάζονται σε ένα εργοστάσιο ή σε ένα γραφείο που χειρίζεται τηλεφωνήματα πωλήσεων και πληρωτέους λογαριασμούς. Τελικά, η τεχνητή νοημοσύνη θα είναι αρκετά καλή στην έκφραση ιδεών ώστε να μπορεί να γράφει τα email σας και να διαχειρίζεται τα εισερχόμενά σας για εσάς. Θα μπορείτε να γράφετε ένα αίτημα σε απλά αγγλικά, ή σε οποιαδήποτε άλλη γλώσσα, και να δημιουργείτε μια πλούσια παρουσίαση για το έργο σας.
Όπως υποστήριξα στην ανάρτησή μου του Φεβρουαρίου, είναι καλό για την κοινωνία όταν η παραγωγικότητα αυξάνεται. Δίνει στους ανθρώπους περισσότερο χρόνο για να κάνουν άλλα πράγματα, στη δουλειά και στο σπίτι. Και η ζήτηση για ανθρώπους που βοηθούν τους άλλους -διδάσκοντας, φροντίζοντας ασθενείς και υποστηρίζοντας τους ηλικιωμένους, για παράδειγμα- δεν θα εκλείψει ποτέ. Αλλά είναι αλήθεια ότι ορισμένοι εργαζόμενοι θα χρειαστούν υποστήριξη και επανεκπαίδευση καθώς θα κάνουμε αυτή τη μετάβαση σε έναν εργασιακό χώρο με τεχνητή νοημοσύνη. Αυτός είναι ένας ρόλος για τις κυβερνήσεις και τις επιχειρήσεις, και θα πρέπει να τον διαχειριστούν σωστά, ώστε οι εργαζόμενοι να μην μείνουν πίσω -για να αποφευχθεί το είδος της αναστάτωσης στη ζωή των ανθρώπων που συνέβη κατά τη διάρκεια της παρακμής των θέσεων εργασίας στη μεταποίηση στις Ηνωμένες Πολιτείες.
Επίσης, μην ξεχνάτε ότι δεν είναι η πρώτη φορά που μια νέα τεχνολογία προκαλεί μεγάλη μεταβολή στην αγορά εργασίας. Δεν νομίζω ότι ο αντίκτυπος της Τεχνητής Νοημοσύνης θα είναι τόσο δραματικός όσο η Βιομηχανική Επανάσταση, αλλά σίγουρα θα είναι τόσο μεγάλος όσο η εισαγωγή του υπολογιστή. Οι εφαρμογές επεξεργασίας κειμένου δεν εξαφάνισαν την εργασία γραφείου, αλλά την άλλαξαν για πάντα. Οι εργοδότες και οι εργαζόμενοι έπρεπε να προσαρμοστούν, και το έκαναν. Η αλλαγή που προκαλεί η τεχνητή νοημοσύνη θα είναι μια ανώμαλη μετάβαση, αλλά υπάρχει κάθε λόγος να πιστεύουμε ότι μπορούμε να μειώσουμε την αναστάτωση στη ζωή και το βιοπορισμό των ανθρώπων.
Η τεχνητή νοημοσύνη υιοθετεί τις προκαταλήψεις μας και επινοεί πράγματα.
Οι ψευδαισθήσεις - ο όρος που χρησιμοποιείται όταν μια τεχνητή νοημοσύνη κάνει με αυτοπεποίθηση κάποιον ισχυρισμό που απλά δεν είναι αληθινός - συνήθως συμβαίνουν επειδή η μηχανή δεν καταλαβαίνει το πλαίσιο του αιτήματός σας. Ζητήστε από μια τεχνητή νοημοσύνη να γράψει μια σύντομη ιστορία για διακοπές στο φεγγάρι και μπορεί να σας δώσει μια πολύ ευφάνταστη απάντηση. Ζητήστε της όμως να σας βοηθήσει να προγραμματίσετε ένα ταξίδι στην Τανζανία και μπορεί να προσπαθήσει να σας στείλει σε ένα ξενοδοχείο που δεν υπάρχει.
Ένας άλλος κίνδυνος με την τεχνητή νοημοσύνη είναι ότι αντικατοπτρίζει ή και επιδεινώνει τις υπάρχουσες προκαταλήψεις απέναντι σε άτομα με συγκεκριμένη ταυτότητα φύλου, φυλή, εθνικότητα κ.ο.κ.
Για να καταλάβετε γιατί προκαλούνται παραισθήσεις και προκαταλήψεις, είναι σημαντικό να γνωρίζετε πώς λειτουργούν σήμερα τα πιο συνηθισμένα μοντέλα τεχνητής νοημοσύνης. Πρόκειται ουσιαστικά για πολύ εξελιγμένες εκδοχές του κώδικα που επιτρέπει στην εφαρμογή ηλεκτρονικού ταχυδρομείου σας να προβλέπει την επόμενη λέξη που πρόκειται να πληκτρολογήσετε: Σαρώνουν τεράστιες ποσότητες κειμένου -σε ορισμένες περιπτώσεις σχεδόν τα πάντα που είναι διαθέσιμα στο διαδίκτυο- και το αναλύουν για να βρουν μοτίβα στην ανθρώπινη γλώσσα.
Όταν απευθύνετε μια ερώτηση σε μια τεχνητή νοημοσύνη, αυτή εξετάζει τις λέξεις που χρησιμοποιήσατε και στη συνέχεια αναζητά κομμάτια κειμένου που συνδέονται συχνά με αυτές τις λέξεις. Αν γράψετε "απαριθμήστε τα συστατικά για τηγανίτες", μπορεί να παρατηρήσει ότι οι λέξεις "αλεύρι, ζάχαρη, αλάτι, μπέικιν πάουντερ, γάλα και αυγά" εμφανίζονται συχνά με αυτή τη φράση. Στη συνέχεια, με βάση όσα γνωρίζει για τη σειρά με την οποία εμφανίζονται συνήθως αυτές οι λέξεις, παράγει μια απάντηση. (Τα μοντέλα τεχνητής νοημοσύνης που λειτουργούν με αυτόν τον τρόπο χρησιμοποιούν αυτό που ονομάζεται μετασχηματιστής. Το GPT-4 είναι ένα τέτοιο μοντέλο).
Αυτή η διαδικασία εξηγεί γιατί μια τεχνητή νοημοσύνη μπορεί να εμφανίζει παραισθήσεις ή να φαίνεται προκατειλημμένη. Δεν έχει κανένα πλαίσιο για τις ερωτήσεις που της κάνετε ή για τα πράγματα που της λέτε. Αν πείτε σε μια τεχνητή νοημοσύνη ότι έκανε λάθος, μπορεί να πει: "Συγγνώμη, έκανα λάθος". Αλλά αυτό είναι μια παραίσθηση - δεν πληκτρολόγησε τίποτα. Το λέει μόνο επειδή έχει σαρώσει αρκετό κείμενο για να γνωρίζει ότι το "Συγγνώμη, έκανα λάθος" είναι μια πρόταση που οι άνθρωποι γράφουν συχνά αφού κάποιος τους διορθώσει.
Ομοίως, τα μοντέλα τεχνητής νοημοσύνης κληρονομούν τις προκαταλήψεις που έχουν ενσωματωθεί στο κείμενο στο οποίο εκπαιδεύονται. Αν κάποιος διαβάζει πολύ για, ας πούμε, γιατρούς και το κείμενο αναφέρει κυρίως άνδρες γιατρούς, τότε οι απαντήσεις του θα υποθέσουν ότι οι περισσότεροι γιατροί είναι άνδρες.
Αν και ορισμένοι ερευνητές πιστεύουν ότι οι ψευδαισθήσεις είναι εγγενές πρόβλημα, εγώ δεν συμφωνώ. Είμαι αισιόδοξος ότι, με την πάροδο του χρόνου, τα μοντέλα τεχνητής νοημοσύνης μπορούν να διδαχθούν να διακρίνουν το γεγονός από τη φαντασία. Το OpenAI, για παράδειγμα, κάνει πολλά υποσχόμενο έργο σε αυτό το μέτωπο.
Άλλοι οργανισμοί, όπως το Ινστιτούτο Alan Turing και το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας, εργάζονται πάνω στο πρόβλημα της προκατάληψης. Μια προσέγγιση είναι η ενσωμάτωση ανθρώπινων αξιών και συλλογισμών υψηλότερου επιπέδου στην τεχνητή νοημοσύνη. Αυτό είναι ανάλογο με τον τρόπο με τον οποίο λειτουργεί ένας άνθρωπος με αυτογνωσία: Ίσως υποθέτετε ότι οι περισσότεροι γιατροί είναι άνδρες, αλλά έχετε αρκετή συνείδηση αυτής της υπόθεσης ώστε να γνωρίζετε ότι πρέπει να την καταπολεμήσετε σκόπιμα. Η τεχνητή νοημοσύνη μπορεί να λειτουργήσει με παρόμοιο τρόπο, ειδικά αν τα μοντέλα σχεδιάζονται από ανθρώπους με διαφορετικό υπόβαθρο.
Τέλος, όλοι όσοι χρησιμοποιούν την ΤΝ πρέπει να έχουν επίγνωση του προβλήματος της προκατάληψης και να γίνουν ενημερωμένοι χρήστες. Το δοκίμιο που ζητάτε από μια τεχνητή νοημοσύνη να συντάξει θα μπορούσε να είναι τόσο γεμάτο προκαταλήψεις όσο και με πραγματικά λάθη. Θα πρέπει να ελέγξετε τις προκαταλήψεις της ΤΝ καθώς και τις δικές σας.
Οι μαθητές δεν θα μάθουν να γράφουν επειδή η τεχνητή νοημοσύνη θα κάνει τη δουλειά γι' αυτούς.
Πολλοί εκπαιδευτικοί ανησυχούν για τους τρόπους με τους οποίους η Τεχνητή Νοημοσύνη θα υπονομεύσει την εργασία τους με τους μαθητές. Σε μια εποχή που ο καθένας έχει πρόσβαση στο Διαδίκτυο μπορεί να χρησιμοποιήσει την ΤΝ για να γράψει ένα αξιοσέβαστο πρώτο προσχέδιο μιας έκθεσης, τι θα εμποδίσει τους μαθητές να το παραδώσουν ως δική τους εργασία;
Υπάρχουν ήδη εργαλεία τεχνητής νοημοσύνης που μαθαίνουν να διακρίνουν αν κάτι γράφτηκε από άνθρωπο ή από υπολογιστή, ώστε οι καθηγητές να μπορούν να καταλάβουν πότε οι μαθητές τους δεν κάνουν τη δική τους δουλειά. Αλλά ορισμένοι καθηγητές δεν προσπαθούν να εμποδίσουν τους μαθητές τους να χρησιμοποιούν τεχνητή νοημοσύνη στα γραπτά τους - στην πραγματικότητα το ενθαρρύνουν.
Τον Ιανουάριο, μια έμπειρη καθηγήτρια Αγγλικών, η Cherie Shields, έγραψε ένα άρθρο στο Education Week για το πώς χρησιμοποιεί το ChatGPT στην τάξη της. Έχει βοηθήσει τους μαθητές της σε όλα, από το να ξεκινήσουν μια έκθεση μέχρι τη σύνταξη περιγραμμάτων και μάλιστα να τους δίνει ανατροφοδότηση για τη δουλειά τους.
"Οι εκπαιδευτικοί θα πρέπει να αγκαλιάσουν την τεχνολογία AI ως ένα ακόμη εργαλείο στο οποίο έχουν πρόσβαση οι μαθητές", έγραψε. "Ακριβώς όπως κάποτε διδάξαμε στους μαθητές πώς να κάνουν μια σωστή αναζήτηση στο Google, οι εκπαιδευτικοί θα πρέπει να σχεδιάσουν σαφή μαθήματα γύρω από το πώς το chatGPT bot μπορεί να βοηθήσει στη συγγραφή έκθεσης. Η αναγνώριση της ύπαρξης της τεχνητής νοημοσύνης και η βοήθεια των μαθητών να δουλέψουν μαζί της θα μπορούσε να φέρει επανάσταση στον τρόπο με τον οποίο διδάσκουμε". Δεν έχει κάθε εκπαιδευτικός τον χρόνο να μάθει και να χρησιμοποιήσει ένα νέο εργαλείο, αλλά εκπαιδευτικοί όπως η Cherie Shields προβάλλουν ένα καλό επιχείρημα ότι όσοι το κάνουν θα ωφεληθούν πολύ.
Μου θυμίζει την εποχή που οι ηλεκτρονικές αριθμομηχανές διαδόθηκαν ευρέως τις δεκαετίες του 1970 και 1980. Ορισμένοι καθηγητές μαθηματικών ανησυχούσαν ότι οι μαθητές θα σταματούσαν να μαθαίνουν πώς να κάνουν βασικές αριθμητικές πράξεις, αλλά άλλοι αγκάλιασαν τη νέα τεχνολογία και επικεντρώθηκαν στις δεξιότητες σκέψης πίσω από την αριθμητική.
Υπάρχει ένας άλλος τρόπος με τον οποίο η ΤΝ μπορεί να βοηθήσει στη γραφή και την κριτική σκέψη. Ειδικά σε αυτές τις πρώτες μέρες, όταν οι ψευδαισθήσεις και οι προκαταλήψεις αποτελούν ακόμη πρόβλημα, οι εκπαιδευτικοί μπορούν να βάλουν την ΤΝ να παράγει άρθρα και στη συνέχεια να συνεργαστούν με τους μαθητές τους για να ελέγξουν τα γεγονότα. Μη κερδοσκοπικοί οργανισμοί εκπαίδευσης όπως η Khan Academy και το OER Project, τους οποίους χρηματοδοτώ, προσφέρουν σε εκπαιδευτικούς και μαθητές δωρεάν διαδικτυακά εργαλεία που δίνουν μεγάλη έμφαση στον έλεγχο των ισχυρισμών. Λίγες δεξιότητες είναι πιο σημαντικές από το να ξέρεις πώς να διακρίνεις τι είναι αλήθεια και τι ψέμα.
Πρέπει να βεβαιωθούμε ότι το εκπαιδευτικό λογισμικό συμβάλλει στην κάλυψη του χάσματος επίδοσης, αντί να το επιδεινώνει. Το σημερινό λογισμικό είναι κυρίως προσανατολισμένο στην ενδυνάμωση των μαθητών που έχουν ήδη κίνητρα. Μπορεί να αναπτύξει ένα σχέδιο μελέτης για εσάς, να σας υποδείξει καλές πηγές και να ελέγξει τις γνώσεις σας. Αλλά δεν ξέρει ακόμη πώς να σας προσελκύσει σε ένα θέμα που δεν σας ενδιαφέρει ήδη. Αυτό είναι ένα πρόβλημα που θα πρέπει να λύσουν οι προγραμματιστές, ώστε να μπορούν να επωφεληθούν από την ΤΝ μαθητές όλων των τύπων.
Ποιο είναι το επόμενο βήμα;
Πιστεύω ότι υπάρχουν περισσότεροι λόγοι για να είμαστε αισιόδοξοι ότι μπορούμε να διαχειριστούμε τους κινδύνους της τεχνητής νοημοσύνης και ταυτόχρονα να μεγιστοποιήσουμε τα οφέλη της. Αλλά πρέπει να κινηθούμε γρήγορα.
Οι κυβερνήσεις πρέπει να αποκτήσουν τεχνογνωσία στην τεχνητή νοημοσύνη, ώστε να μπορούν να θεσπίσουν τεκμηριωμένους νόμους και κανονισμούς που να ανταποκρίνονται σε αυτή τη νέα τεχνολογία. Θα πρέπει να αντιμετωπίσουν την παραπληροφόρηση και τα deepfakes, τις απειλές για την ασφάλεια, τις αλλαγές στην αγορά εργασίας και τις επιπτώσεις στην εκπαίδευση. Να αναφέρω μόνο ένα παράδειγμα: Ο νόμος πρέπει να είναι σαφής σχετικά με το ποιες χρήσεις των deepfakes είναι νόμιμες και σχετικά με το πώς πρέπει να επισημαίνονται τα deepfakes, ώστε όλοι να καταλαβαίνουν πότε κάτι που βλέπουν ή ακούνε δεν είναι γνήσιο.
Οι πολιτικοί ηγέτες θα πρέπει να είναι εξοπλισμένοι ώστε να μπορούν να έχουν ενημερωμένο, προσεκτικό διάλογο με τους ψηφοφόρους τους. Θα πρέπει επίσης να αποφασίσουν σε ποιο βαθμό θα συνεργαστούν με άλλες χώρες σε αυτά τα ζητήματα έναντι του να προχωρήσουν μόνοι τους.
Στον ιδιωτικό τομέα, οι εταιρείες τεχνητής νοημοσύνης πρέπει να ασκούν το έργο τους με ασφάλεια και υπευθυνότητα. Αυτό περιλαμβάνει την προστασία της ιδιωτικής ζωής των ανθρώπων, τη διασφάλιση ότι τα μοντέλα τεχνητής νοημοσύνης τους αντικατοπτρίζουν τις βασικές ανθρώπινες αξίες, την ελαχιστοποίηση της προκατάληψης, τη διάδοση των οφελών σε όσο το δυνατόν περισσότερους ανθρώπους και την αποτροπή της χρήσης της τεχνολογίας από εγκληματίες ή τρομοκράτες. Οι εταιρείες σε πολλούς τομείς της οικονομίας θα πρέπει να βοηθήσουν τους υπαλλήλους τους να κάνουν τη μετάβαση σε έναν εργασιακό χώρο με επίκεντρο την ΤΝ, ώστε να μην μείνει κανείς πίσω. Και οι πελάτες θα πρέπει πάντα να γνωρίζουν πότε αλληλεπιδρούν με μια τεχνητή νοημοσύνη και όχι με έναν άνθρωπο.
Τέλος, ενθαρρύνω όλους να παρακολουθούν τις εξελίξεις στην ΤΝ όσο το δυνατόν περισσότερο. Πρόκειται για την πιο μετασχηματιστική καινοτομία που θα δούμε όλοι μας κατά τη διάρκεια της ζωής μας, και μια υγιής δημόσια συζήτηση θα εξαρτηθεί από τη γνώση όλων για την τεχνολογία, τα οφέλη και τους κινδύνους της. Τα οφέλη θα είναι τεράστια και ο καλύτερος λόγος για να πιστέψουμε ότι μπορούμε να διαχειριστούμε τους κινδύνους είναι ότι το έχουμε ξανακάνει.
Πηγή: The risks of AI are real but manageable






