14 Ιουλίου 2024

Ένα ρωσικό δίκτυο προπαγάνδας προωθεί ένα βίντεο του Μπάιντεν με τεχνητή νοημοσύνη

Περίληψη Άρθρου:

Οι ειδικοί έχουν παρατηρήσει εκστρατείες ρωσικής παραπληροφόρησης που χρησιμοποιούν τεχνητή νοημοσύνη στη δημιουργία παραπλανητικών βίντεο, όπως το κλιπ "bye, bye biden". Το βίντεο, ενδεχομένως κατασκευασμένο από τεχνολογία Deepfake, διαθέτει παραμορφωμένες εικόνες του Joe Biden και του Donald Trump. Με αυτή τη τακτική παραπληροφόρησης η Ρώσια προσπαθεί να επηρεάσει τις αμερικανικές εκλογές χρησιμοποιώντας εργαλεία AI όπως το CopyCop για να διαδώσει ψεύτικες ειδήσεις.


Κύρια σημεία του άρθρου:

  • Έχουν παρατηρηθεί ρωσικές εκστρατείες παραπληροφόρησης που χρησιμοποιούν τεχνητή νοημοσύνη για τη δημιουργία παραπλανητικών βίντεο.
  • Ένα παράδειγμα αυτού είναι το βίντεο "Bye, Bye Biden" με παραμορφωμένες εικόνες του Joe Biden και του Donald Trump, που ενδεχομένως δημιουργήθηκε με τεχνολογία Deepfake.
  • Σκοπός αυτών των εκστρατειών είναι να επηρεάσουν τις εκλογές των ΗΠΑ με τη διάδοση ψευδών ειδήσεων.
  • Τα εργαλεία AI όπως το CopyCop χρησιμοποιούνται σε αυτές τις προσπάθειες.
  • Το βίντεο δημιουργήθηκε από τους Little Bug με την συμμετοχή αρκετών ηθοποιών με καταγωγή από τη Μόσχα.
  • Το βίντεο ήταν παραποιημένο σε μια προσπάθεια να αποφύγει τον εντοπισμό στο διαδίκτυο.


Αναλυτικά το άρθρο:

Οι εμπειρογνώμονες λένε στο WIRED ότι οι ρωσικές εκστρατείες παραπληροφόρησης χρησιμοποιούν όλο και περισσότερο τη γεννητική τεχνητή νοημοσύν
η.

Τις τελευταίες εβδομάδες, καθώς τα λεγόμενα cheapfake βίντεο κλιπ που υποδηλώνουν ότι ο πρόεδρος Τζο Μπάιντεν είναι ακατάλληλος για το αξίωμα έχουν γίνει viral στα μέσα κοινωνικής δικτύωσης, ένα δίκτυο παραπληροφόρησης που συνδέεται με το Κρεμλίνο προώθησε ένα μουσικό βίντεο παρωδία με τον Μπάιντεν να φοράει πάνα και να τον σπρώχνουν σε αναπηρικό καροτσάκι.

Το βίντεο ονομάζεται "Bye, Bye Biden" και έχει προβληθεί περισσότερες από 5 εκατομμύρια φορές στο X από τότε που προωθήθηκε για πρώτη φορά στα μέσα Μαΐου.Παρουσιάζει τον Μπάιντεν ως ηλικιωμένο, να φοράει ακουστικό βαρηκοΐας και να παίρνει πολλά φάρμακα. Τον δείχνει επίσης να δίνει χρήματα σε έναν χαρακτήρα που φαίνεται να αντιπροσωπεύει παράνομους μετανάστες, ενώ αρνείται χρήματα σε πολίτες των ΗΠΑ μέχρι να αλλάξουν το κοστούμι τους και να μιμηθούν την ουκρανική σημαία. Μια άλλη σκηνή δείχνει τον Μπάιντεν να ανοίγει την εξώπορτα ενός οικογενειακού σπιτιού που έχει στον τοίχο μια σημαία της Συνομοσπονδίας και να επιτρέπει στους μετανάστες να μπαίνουν μέσα και να καταλαμβάνουν το σπίτι. Τέλος, το βίντεο περιέχει αναφορές σε συνωμοσίες περί κλεμμένων εκλογών που προωθούσε ο πρώην πρόεδρος Ντόναλντ Τραμπ.

Το βίντεο δημιουργήθηκε από τους Little Bug, ένα συγκρότημα που μιμείται το ύφος των Little Big, ενός πραγματικού ρωσικού συγκροτήματος που εγκατέλειψε τη χώρα το 2022 μετά την εισβολή της Ρωσίας στην Ουκρανία. Στο βίντεο συμμετέχουν αρκετοί ηθοποιοί με καταγωγή από τη Μόσχα -οι οποίοι μίλησαν με το ρωσικό μέσο ενημέρωσης Agency.Media- αλλά φαίνεται επίσης να χρησιμοποιείται τεχνολογία τεχνητής νοημοσύνης για να κάνει τους ηθοποιούς να μοιάζουν με τον Μπάιντεν και τον Τραμπ, καθώς και με τον Ίλια Προύσικιν, τον τραγουδιστή των Little Big.

"Ο Μπάιντεν και ο Τραμπ φαίνεται να είναι ο ίδιος ηθοποιός, με το deepfake video-editing να αλλάζει τα χαρακτηριστικά του προσώπου του μέχρι να μοιάζει με τον Μπάιντεν στη μία περίπτωση και με τον Τραμπ στην άλλη", λέει ο Άλεξ Φινκ, ειδικός σε θέματα τεχνητής νοημοσύνης και μηχανικής όρασης, ο οποίος ανέλυσε το βίντεο για το WIRED. "Η επεξεργασία είναι ασυνεπής, οπότε μπορείτε να δείτε ότι σε ορισμένες περιπτώσεις μοιάζει περισσότερο με τον Μπάιντεν και σε άλλες λιγότερο. Τα χαρακτηριστικά του προσώπου αλλάζουν συνεχώς".

Μια ανάλυση από την True Media, μια μη κερδοσκοπική οργάνωση που ιδρύθηκε για να αντιμετωπίσει την εξάπλωση των deepfakes που σχετίζονται με τις εκλογές, διαπίστωσε με 100 τοις εκατό βεβαιότητα ότι στο βίντεο χρησιμοποιήθηκε ήχος που δημιουργήθηκε από τεχνητή νοημοσύνη. Εκτίμησε επίσης με 78% εμπιστοσύνη ότι χρησιμοποιήθηκε κάποια τεχνολογία AI για να χειραγωγηθούν τα πρόσωπα των ηθοποιών.

Ο Fink λέει ότι η προφανής φύση της τεχνολογίας deepfake που παρουσιάζεται εδώ υποδηλώνει ότι το βίντεο δημιουργήθηκε βιαστικά, χρησιμοποιώντας έναν μικρό αριθμό επαναλήψεων ενός γεννητικού αντίπαλου δικτύου προκειμένου να δημιουργηθούν οι χαρακτήρες του Biden και του Trump.

Δεν είναι σαφές ποιος βρίσκεται πίσω από το βίντεο, αλλά το "Bye, Bye Biden" έχει προωθηθεί από το δίκτυο που πρόσκειται στο Κρεμλίνο και είναι γνωστό ως Doppelganger. Η καμπάνια αναρτήθηκε δεκάδες χιλιάδες φορές στο X και αποκαλύφθηκε από το Antibot4Navalny, μια ανώνυμη συλλογικότητα Ρώσων ερευνητών που παρακολουθεί τη δραστηριότητα του Doppelganger τους τελευταίους έξι μήνες.

Η καμπάνια ξεκίνησε για πρώτη φορά στις 21 Μαΐου και υπήρξαν σχεδόν 4.000 αναρτήσεις στο X για την προώθηση του βίντεο σε 13 γλώσσες, οι οποίες προωθήθηκαν από ένα δίκτυο σχεδόν 25.000 λογαριασμών. Οι ερευνητές του Antibot4Navalny κατέληξαν στο συμπέρασμα ότι οι αναρτήσεις γράφτηκαν με τη βοήθεια της τεχνολογίας generative AI. Το βίντεο έχει κοινοποιηθεί 6,5 εκατομμύρια φορές στο X και έχει προβληθεί σχεδόν 5 εκατομμύρια φορές.

Ανάμεσα στους εξέχοντες λογαριασμούς που κοινοποίησαν το βίντεο ήταν ο Russian Market, ο οποίος έχει 330.000 οπαδούς και λειτουργεί από τον Vadim Loskutov, ο οποίος είναι γνωστός για το ότι επαινεί τη Ρωσία και επικρίνει τη Δύση. Το βίντεο κοινοποιήθηκε επίσης από την Tara Reade, η οποία αποστάτησε στη Ρωσία το 2023 σε μια προσπάθεια να αποκτήσει την υπηκοότητα. Η Reade κατηγόρησε επίσης τον Biden για σεξουαλική επίθεση εναντίον της το 1993.

Το βίντεο, λένε οι ερευνητές στο WIRED, ήταν επίσης παραποιημένο σε μια προσπάθεια να αποφύγει τον εντοπισμό στο διαδίκτυο. "Οι χειριστές του Doppelganger έκοψαν το βίντεο σε αυθαίρετα σημεία, έτσι ώστε να είναι τεχνικά διαφορετικά σε χιλιοστά του δευτερολέπτου και ως εκ τούτου είναι πιθανό να θεωρούνται ως ξεχωριστά μοναδικά βίντεο από τα συστήματα προστασίας από την κατάχρηση", λένε οι ερευνητές του Antibot4Navalny στο WIRED.

"Αυτό εδώ είναι μοναδικό ως προς την ασάφεια του", δήλωσε ο Fink. "Είναι ίσως ένα γνωστό ρωσικό συγκρότημα, αλλά ίσως όχι, ίσως ένα deepfake, αλλά ίσως όχι, ίσως έχει αναφορά σε άλλους πολιτικούς, αλλά ίσως όχι. Με άλλα λόγια, είναι ένα σαφώς σοβιετικού τύπου προπαγανδιστικό βίντεο. Η ασάφεια επιτρέπει πολλαπλές ανταγωνιστικές εκδοχές, πράγμα που σημαίνει εκατοντάδες άρθρα και διαφωνίες στο διαδίκτυο, πράγμα που οδηγεί στο να το δουν τελικά περισσότεροι άνθρωποι".

Καθώς το Κρεμλίνο εντείνει τις προσπάθειές του να υπονομεύσει τις αμερικανικές εκλογές του Νοεμβρίου, γίνεται όλο και πιο σαφές ότι η Ρωσία είναι πρόθυμη να χρησιμοποιήσει τις αναδυόμενες τεχνολογίες τεχνητής νοημοσύνης. Μια νέα έκθεση που δημοσιεύθηκε αυτή την εβδομάδα από την εταιρεία πληροφοριών απειλών Recorded Future ανέδειξε αυτή την τάση αποκαλύπτοντας ότι μια εκστρατεία, η οποία συνδέεται με το Κρεμλίνο, χρησιμοποιεί εργαλεία δημιουργικής τεχνητής νοημοσύνης για να προωθήσει περιεχόμενο υπέρ του Trump σε ένα δίκτυο ψεύτικων ιστότοπων.

Η έκθεση περιγράφει λεπτομερώς πώς η εκστρατεία, η οποία ονομάστηκε CopyCop, χρησιμοποίησε τα εργαλεία τεχνητής νοημοσύνης για να ξαφρίσει περιεχόμενο από πραγματικούς ειδησεογραφικούς ιστότοπους, να επαναχρησιμοποιήσει το περιεχόμενο με δεξιό πρόσημο και να το αναδημοσιεύσει σε ένα δίκτυο ψεύτικων ιστότοπων με ονόματα όπως Red State Report και Patriotic Review, οι οποίοι υποτίθεται ότι στελεχώνονται από περισσότερους από 1.000 δημοσιογράφους - όλοι τους είναι ψεύτικοι και έχουν επίσης επινοηθεί από την τεχνητή νοημοσύνη.

Τα θέματα που προωθούνται από την εκστρατεία περιλαμβάνουν λάθη που έκανε ο Μπάιντεν κατά τη διάρκεια ομιλιών, την ηλικία του Μπάιντεν, αποτελέσματα δημοσκοπήσεων που δείχνουν προβάδισμα του Τραμπ και ισχυρισμούς ότι η πρόσφατη ποινική καταδίκη και δίκη του Τραμπ ήταν "χωρίς αντίκρισμα" και "ένα απόλυτο χάος".

Δεν είναι ακόμη σαφές πόσο αντίκτυπο έχουν αυτοί οι ιστότοποι, και μια έρευνα του WIRED σε πλατφόρμες κοινωνικής δικτύωσης βρήκε πολύ λίγους συνδέσμους προς το δίκτυο των ψεύτικων ιστότοπων που έχει δημιουργήσει το CopyCop. Αλλά αυτό που απέδειξε η εκστρατεία CopyCop είναι ότι η τεχνητή νοημοσύνη μπορεί να υπερφορτώσει τη διάδοση της παραπληροφόρησης. Και οι ειδικοί λένε ότι αυτό είναι πιθανότατα μόνο το πρώτο βήμα σε μια ευρύτερη στρατηγική που πιθανότατα θα περιλαμβάνει δίκτυα όπως το Doppelganger.

"Η εκτίμηση της εμπλοκής με τους ίδιους τους ιστότοπους παραμένει ένα δύσκολο έργο", λέει στο WIRED ο Clément Briens, αναλυτής της Recorded Future. "Το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη πιθανότατα δεν συγκεντρώνει καθόλου προσοχή. Ωστόσο, εξυπηρετεί τον σκοπό να συμβάλει στην καθιέρωση αυτών των ιστότοπων ως αξιόπιστων στοιχείων για όταν δημοσιεύουν στοχευμένο περιεχόμενο όπως τα deepfakes [τα οποία] ενισχύονται από καθιερωμένους ρωσικούς ή φιλορωσικούς παράγοντες επιρροής με υπάρχοντες οπαδούς και ακροατήρια".

Πηγή:A Russian Propaganda Network Is Promoting an AI-Manipulated Biden Video