
23 Απριλίου 2026
Ετοιμαστείτε για τις Deepfake εκλογές του 2024

Περίληψη άρθρου:
Η Τεχνητή Νοημοσύνη (ΤΝ) έχει γίνει πιο προσιτή στο μέσο άνθρωπο τον τελευταίο χρόνο, με πολλούς να ασχολούνται με προγράμματα ΤΝ όπως το DALL-E και το ChatGPT της OpenAI. Αυτή η τεχνολογία έχει τη δυνατότητα να διαστρεβλώσει την πραγματικότητα και να αποτελέσει σημαντική απειλή για τις προεδρικές εκλογές του 2024, εάν πολλαπλασιαστούν οι ήχοι, οι εικόνες και τα βίντεο των υποψηφίων που δημιουργούνται από την τεχνητή νοημοσύνη. Εταιρείες όπως η Runway, η Google και η Meta εργάζονται ήδη σε εργαλεία δημιουργίας AI από κείμενο σε βίντεο, τα οποία θα μπορούσαν να διευκολύνουν την παραγωγή πειστικών deepfakes. Για την καταπολέμησή του έχουν προταθεί λύσεις όπως C2PA, δακτυλικό αποτύπωμα, υδατογράφημα και μηχανή πλαισίωσης. Ωστόσο, εξακολουθεί να υπάρχει έλλειψη χρημάτων που πηγαίνουν στην εξεύρεση τρόπων για την πρόληψη της εξάπλωσης της παραπληροφόρησης.
Αναλυτικά το άρθρο:
Η τεχνητή νοημοσύνη ήταν κάποτε κάτι που ο μέσος άνθρωπος περιέγραφε αφηρημένα. Δεν είχαν καμία απτή σχέση μαζί της που να την γνωρίζουν, ακόμη και αν οι συσκευές τους την αξιοποιούσαν συχνά. Όλα αυτά άλλαξαν τον τελευταίο χρόνο, καθώς οι άνθρωποι άρχισαν να ασχολούνται με προγράμματα τεχνητής νοημοσύνης, όπως το DALL-E και το ChatGPT της OpenAI, και η τεχνολογία εξελίσσεται ραγδαία.
Καθώς η τεχνητή νοημοσύνη εκδημοκρατίζεται, η ίδια η δημοκρατία πέφτει κάτω από νέες πιέσεις. Πιθανώς θα υπάρξουν πολλοί συναρπαστικοί τρόποι με τους οποίους θα αναπτυχθεί, αλλά μπορεί επίσης να αρχίσει να διαστρεβλώνει την πραγματικότητα και θα μπορούσε να αποτελέσει σημαντική απειλή για τις προεδρικές εκλογές του 2024, εάν πολλαπλασιαστούν ο ήχος, οι εικόνες και τα βίντεο των υποψηφίων που δημιουργούνται από την ΤΝ. Η γραμμή μεταξύ του τι είναι αληθινό και τι ψεύτικο θα μπορούσε να αρχίσει να θολώνει σημαντικά περισσότερο από ό,τι έχει ήδη θολώσει σε μια εποχή αχαλίνωτης παραπληροφόρησης.
"Έχουμε δει αρκετά δραματικές αλλαγές στο τοπίο όσον αφορά τα εργαλεία παραγωγής -ιδιαίτερα τον τελευταίο χρόνο", λέει ο Henry Ajder, ανεξάρτητος εμπειρογνώμονας σε θέματα τεχνητής νοημοσύνης. "Νομίζω ότι η κλίμακα του περιεχομένου που βλέπουμε τώρα να παράγεται σχετίζεται άμεσα με αυτό το δραματικό άνοιγμα της προσβασιμότητας".
Δεν τίθεται το ερώτημα αν το περιεχόμενο που παράγεται με τεχνητή νοημοσύνη θα αρχίσει να παίζει ρόλο στην πολιτική, διότι αυτό ήδη συμβαίνει. Εικόνες και βίντεο που δημιουργούνται από τεχνητή νοημοσύνη και περιλαμβάνουν τον πρόεδρο Τζο Μπάιντεν και τον Ντόναλντ Τραμπ έχουν αρχίσει να διαδίδονται στο διαδίκτυο.
Οι Ρεπουμπλικάνοι χρησιμοποίησαν πρόσφατα την ΤΝ για να δημιουργήσουν μια διαφήμιση επίθεσης κατά του Μπάιντεν. Το ερώτημα είναι, τι θα συμβεί όταν ο καθένας μπορεί να ανοίξει τον φορητό υπολογιστή του και, με ελάχιστη προσπάθεια, να δημιουργήσει γρήγορα ένα πειστικό deepfake ενός πολιτικού;
Υπάρχουν πολλοί τρόποι για τη δημιουργία εικόνων τεχνητής νοημοσύνης από κείμενο, όπως το DALL-E, το Midjourney και το Stable Diffusion. Είναι εύκολο να δημιουργήσετε έναν κλώνο της φωνής κάποιου με ένα πρόγραμμα τεχνητής νοημοσύνης όπως αυτό που προσφέρει η ElevenLabs. Τα πειστικά βίντεο deepfake εξακολουθούν να είναι δύσκολο να παραχθούν, αλλά ο Ajder λέει ότι αυτό μπορεί να μην ισχύει μέσα σε ένα χρόνο περίπου.
"Η δημιουργία ενός πραγματικά υψηλής ποιότητας deepfake εξακολουθεί να απαιτεί αρκετή εξειδίκευση, καθώς και εξειδίκευση στο post-production για να βελτιωθεί η παραγωγή που παράγει η AI", λέει ο Ajder. "Το βίντεο είναι πραγματικά το επόμενο σύνορο στη γεννητική τεχνητή νοημοσύνη".
Κάποια deepfakes πολιτικών προσώπων έχουν εμφανιστεί τα τελευταία χρόνια, όπως ένα με τον Ουκρανό πρόεδρο Volodymyr Zelenskyy να λέει στα στρατεύματά του να παραδοθούν, το οποίο κυκλοφόρησε πέρυσι. Μόλις η τεχνολογία εξελιχθεί περισσότερο, πράγμα που μπορεί να μην αργήσει να συμβεί, αν αναλογιστεί κανείς πόσο γρήγορα εξελίσσονται άλλες μορφές παραγωγικής Τεχνητής Νοημοσύνης, μπορεί να εμφανιστούν περισσότερα τέτοιου είδους βίντεο, καθώς γίνονται πιο πειστικά και ευκολότερα στην παραγωγή.
"Δεν νομίζω ότι υπάρχει ένας ιστότοπος όπου μπορείτε να πείτε: "Δημιουργήστε μου ένα βίντεο με τον Τζο Μπάιντεν να λέει το Χ". Αυτό δεν υπάρχει, αλλά θα υπάρξει", λέει ο Hany Farid, καθηγητής στη Σχολή Πληροφορικής του UC Berkeley. "Είναι απλώς θέμα χρόνου. Οι άνθρωποι εργάζονται ήδη πάνω στην μετατροπή κειμένου σε βίντεο".
Αυτό περιλαμβάνει εταιρείες όπως η Runway, η Google και η Meta. Μόλις μια εταιρεία κυκλοφορήσει μια υψηλής ποιότητας έκδοση ενός εργαλείου τεχνητής νοημοσύνης για τη μετατροπή κειμένου σε βίντεο, μπορεί να δούμε πολλές άλλες να κυκλοφορούν γρήγορα τις δικές τους εκδόσεις, όπως έγινε μετά την κυκλοφορία του ChatGPT. Ο Farid λέει ότι κανείς δεν θέλει να μείνει "πίσω", οπότε αυτές οι εταιρείες τείνουν να κυκλοφορούν αυτό που έχουν το συντομότερο δυνατό.
"Με εκπλήσσει σταθερά το γεγονός ότι στον φυσικό κόσμο, όταν κυκλοφορούμε προϊόντα υπάρχουν πραγματικά αυστηρές κατευθυντήριες γραμμές", λέει ο Farid. "Δεν μπορείτε να κυκλοφορήσετε ένα προϊόν και να ελπίζετε ότι δεν θα σκοτώσει τον πελάτη σας. Αλλά με το λογισμικό, λέμε: "Αυτό δεν λειτουργεί πραγματικά, αλλά ας δούμε τι θα συμβεί όταν το κυκλοφορήσουμε σε δισεκατομμύρια ανθρώπους".
Αν αρχίσουμε να βλέπουμε έναν σημαντικό αριθμό deepfakes να εξαπλώνεται κατά τη διάρκεια των εκλογών, είναι εύκολο να φανταστούμε κάποιον σαν τον Ντόναλντ Τραμπ να μοιράζεται αυτού του είδους το περιεχόμενο στα μέσα κοινωνικής δικτύωσης και να ισχυρίζεται ότι είναι αληθινό.
Ένα deepfake του προέδρου Μπάιντεν που λέει κάτι που αποκλείει την εκλογή θα μπορούσε να βγει λίγο πριν από τις εκλογές και πολλοί άνθρωποι ίσως να μην μάθουν ποτέ ότι ήταν τεχνητής νοημοσύνης. Η έρευνα έχει δείξει σταθερά, άλλωστε, ότι οι ψευδείς ειδήσεις διαδίδονται περισσότερο από τις πραγματικές ειδήσεις.
Ακόμη και αν τα deepfakes δεν γίνουν πανταχού παρόντα πριν από τις εκλογές του 2024, οι οποίες απέχουν ακόμη 18 μήνες, το γεγονός και μόνο ότι μπορεί να δημιουργηθεί αυτό το είδος περιεχομένου θα μπορούσε να επηρεάσει τις εκλογές. Η γνώση ότι μπορούν να δημιουργηθούν σχετικά εύκολα πλαστές εικόνες, ήχος και βίντεο θα μπορούσε να κάνει τους ανθρώπους να μην εμπιστεύονται το νόμιμο υλικό που συναντούν.
"Από ορισμένες απόψεις, τα deepfakes και η γεννητική τεχνητή νοημοσύνη δεν χρειάζεται καν να εμπλακούν στις εκλογές για να προκαλέσουν ακόμα αναστάτωση, επειδή τώρα το πηγάδι έχει δηλητηριαστεί με την ιδέα ότι οτιδήποτε μπορεί να είναι ψεύτικο", λέει ο Ajder. "Αυτό παρέχει μια πραγματικά χρήσιμη δικαιολογία αν βγει κάτι άβολο που σας χαρακτηρίζει. Μπορείτε να το απορρίψετε ως ψεύτικο".
Τι μπορεί λοιπόν να γίνει για αυτό το πρόβλημα; Μια λύση είναι κάτι που ονομάζεται C2PA. Αυτή η τεχνολογία υπογράφει κρυπτογραφικά κάθε περιεχόμενο που δημιουργείται από μια συσκευή, όπως ένα τηλέφωνο ή μια βιντεοκάμερα, και τεκμηριώνει ποιος τράβηξε την εικόνα, πού και πότε. Η κρυπτογραφική υπογραφή στη συνέχεια τηρείται σε ένα κεντρικό αμετάβλητο βιβλίο. Αυτό θα επέτρεπε στους ανθρώπους που παράγουν νόμιμα βίντεο να αποδεικνύουν ότι είναι, πράγματι, νόμιμα.
Ορισμένες άλλες επιλογές περιλαμβάνουν αυτό που ονομάζεται δακτυλικό αποτύπωμα και υδατογράφημα εικόνων και βίντεο. Η αποτύπωση δακτυλικών αποτυπωμάτων περιλαμβάνει τη λήψη των λεγόμενων "κατακερματισμών" από το περιεχόμενο, οι οποίοι είναι ουσιαστικά απλώς συμβολοσειρές των δεδομένων του, έτσι ώστε να μπορεί να επαληθευτεί ως νόμιμο αργότερα. Η υδατοσήμανση, όπως θα περίμενε κανείς, περιλαμβάνει την εισαγωγή ψηφιακού υδατογραφήματος σε εικόνες και βίντεο. Συχνά προτείνεται ότι μπορούν να αναπτυχθούν εργαλεία τεχνητής νοημοσύνης για τον εντοπισμό βαθιών πλαστογραφιών, αλλά ο Ajder δεν πιστεύει σε αυτή τη λύση. Λέει ότι η τεχνολογία δεν είναι αρκετά αξιόπιστη και ότι δεν θα είναι σε θέση να συμβαδίσει με τα συνεχώς μεταβαλλόμενα γεννητικά εργαλεία ΤΝ που αναπτύσσονται.
Μια τελευταία δυνατότητα για την επίλυση αυτού του προβλήματος θα ήταν η ανάπτυξη ενός είδους άμεσου ελεγκτή γεγονότων για τους χρήστες των μέσων κοινωνικής δικτύωσης. Ο Aviv Ovadya, ερευνητής στο Berkman Klein Center for Internet & Society στο Χάρβαρντ, λέει ότι θα μπορούσατε να επισημάνετε ένα κομμάτι περιεχομένου σε μια εφαρμογή και να το στείλετε σε μια μηχανή πλαισίωσης που θα σας ενημερώνει για την εγκυρότητά του.
"Η παιδεία των μέσων ενημέρωσης που εξελίσσεται με τον ρυθμό της προόδου αυτής της τεχνολογίας δεν είναι εύκολη. Χρειάζεται να είναι σχεδόν στιγμιαία - όπου κοιτάζεις κάτι που βλέπεις στο διαδίκτυο και μπορείς να λάβεις το πλαίσιο αυτού του πράγματος", λέει ο Ovadya. "Τι είναι αυτό που βλέπετε; Θα μπορούσατε να το διασταυρώσετε με πηγές που μπορείτε να εμπιστευτείτε".
Αν δείτε κάτι που μπορεί να είναι ψεύτικη είδηση, το εργαλείο θα μπορούσε να σας ενημερώσει γρήγορα για την εγκυρότητά του. Αν δείτε μια εικόνα ή ένα βίντεο που μοιάζει να είναι ψεύτικο, θα μπορούσε να ελέγξει τις πηγές για να δει αν έχει επαληθευτεί. Ο Ovadya λέει ότι θα μπορούσε να είναι διαθέσιμο μέσα σε εφαρμογές όπως το WhatsApp και το Twitter, ή θα μπορούσε απλά να είναι η δική του εφαρμογή. Το πρόβλημα, λέει, είναι ότι πολλοί ιδρυτές με τους οποίους έχει μιλήσει, απλά δεν βλέπουν πολλά χρήματα στην ανάπτυξη ενός τέτοιου εργαλείου.
Το αν κάποια από αυτές τις πιθανές λύσεις θα υιοθετηθεί πριν από τις εκλογές του 2024 μένει να το δούμε, αλλά η απειλή αυξάνεται και υπάρχουν πολλά χρήματα που πηγαίνουν στην ανάπτυξη της γεννητικής τεχνητής νοημοσύνης και λίγα που πηγαίνουν στην εξεύρεση τρόπων για την πρόληψη της εξάπλωσης αυτού του είδους παραπληροφόρησης.
"Νομίζω ότι θα δούμε μια πλημμύρα εργαλείων, όπως ήδη βλέπουμε, αλλά νομίζω ότι [το πολιτικό περιεχόμενο που παράγεται με τεχνητή νοημοσύνη] θα συνεχιστεί", λέει ο Ajder. "Βασικά, δεν είμαστε σε καλή θέση για να αντιμετωπίσουμε αυτές τις απίστευτα ταχέως κινούμενες, ισχυρές τεχνολογίες".
Πηγή: Brace Yourself for the 2024 Deepfake Election






