
23 Απριλίου 2026
Η απάτη "Deepfake" στην Κίνα εγείρει ανησυχίες για απάτες με τεχνητή νοημοσύνη

Περίληψη άρθρου:
Μια βαθιά απάτη με ψεύτικη τεχνολογία στην Κίνα έχει εγείρει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης σε δόλιες δραστηριότητες. Το θύμα, το οποίο δεν ήταν διασημότητα, μετέφερε 4,3 εκατομμύρια CNY (622.000 δολάρια) αφού έλαβε μια βιντεοκλήση από φίλο του, ο οποίος χρειαζόταν επειγόντως χρήματα για να κάνει μια κατάθεση σε μια διαδικασία υποβολής προσφορών. Ο φίλος δεν είχε υποβάλει τέτοιο αίτημα και ανακαλύφθηκε ότι κατά τη διάρκεια της κλήσης είχε χρησιμοποιηθεί τεχνολογία ανταλλαγής προσώπων με τεχνητή νοημοσύνη για σκοπούς πλαστοπροσωπίας. Παρά τους αυστηρότερους κινεζικούς κανόνες σχετικά με τη χειραγώγηση δεδομένων φωνής και προσώπου, αυτή η τελευταία απάτη έχει προκαλέσει φόβους σχετικά με την προστασία της ιδιωτικής ζωής και την ασφάλεια στο διαδίκτυο από την ισχυρή τεχνολογία τεχνητής νοημοσύνης. Ένας σύμβουλος του ΟΗΕ προειδοποίησε πρόσφατα για την καταστροφική χρήση των βαθιών απομιμήσεων και ζήτησε να υπάρξει ρύθμιση για την προστασία του κοινού.
Κύρια σημεία του άρθρου:
- Η τεχνολογία Deep Fake έχει χρησιμοποιηθεί για τη διεξαγωγή δόλιων δραστηριοτήτων στην Κίνα, εγείροντας ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης σε τέτοιες δραστηριότητες.
- Οι συζητήσεις στα μέσα κοινωνικής δικτύωσης σχετικά με την έκρηξη του αριθμού των εξαπατήσεων με τεχνητή νοημοσύνη έχουν συγκεντρώσει περισσότερες από 120 εκατομμύρια προβολές σε μία ημέρα.
- Ο ΟΗΕ προειδοποίησε για την καταστροφική χρήση της τεχνολογίας και κάλεσε τα κράτη να θεσπίσουν κανονισμούς για την προστασία του κοινού.
- Η αστυνομία έχει ήδη ανακτήσει το μεγαλύτερο μέρος των κλεμμένων κεφαλαίων στην πρόσφατη απάτη με βαθιά πλαστά στοιχεία στην Κίνα, αλλά οι συζητήσεις στα μέσα κοινωνικής δικτύωσης έχουν εκραγεί με άτομα που εκφράζουν ανησυχίες για την απειλή της διαδικτυακής ιδιωτικής ζωής και ασφάλειας.
- Πέρυσι, μια έκθεση του Κέντρου Καταγγελιών για Εγκλήματα στο Διαδίκτυο (IC3) του FBI έδειξε ότι άνθρωποι χρησιμοποιούσαν την τεχνολογία για να παριστάνουν κάποιον άλλο και να αρπάζουν θέσεις εργασίας εξ αποστάσεως, υπογραμμίζοντας την ανάγκη για αυστηρότερους περιορισμούς στη χειραγώγηση δεδομένων φωνής και προσώπου.
Αναλυτικά το άρθρο:
Μια απάτη στην Κίνα που χρησιμοποίησε την τεχνολογία "deep fake" προκάλεσε ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης (AI) σε δόλιες δραστηριότητες. Το θέμα απέκτησε περισσότερες από 120 εκατομμύρια προβολές στην πλατφόρμα κοινωνικής δικτύωσης Weibo μέσα σε μία ημέρα, αναδεικνύοντας τον αυξανόμενο φόβο ότι η χρήση της τεχνητής νοημοσύνης θα μπορούσε να επηρεάσει το κοινό. Προηγουμένως συνδεόταν με διασημότητες, οι βαθιές απομιμήσεις γίνονται όλο και πιο mainstream και ένας σύμβουλος στα Ηνωμένα Έθνη προειδοποίησε για την καταστροφική χρήση τους, ζητώντας ρυθμίσεις για την προστασία των ανθρώπων.
Απάτη Deep-fake στην Κίνα
Μετά την προειδοποίηση ενός συμβούλου του ΟΗΕ σχετικά με τους πιθανούς κινδύνους της τεχνολογίας deepfake, ένας Κινέζος έπεσε θύμα απάτης με τη χρήση αυτής της τεχνολογίας. Ο άνδρας έλαβε ένα τηλεφώνημα με βίντεο από κάποιον που εμφανιζόταν ως φίλος του και χρειαζόταν επειγόντως χρήματα για μια προκαταβολή σε μια διαδικασία υποβολής προσφορών. Ο άνδρας μετέφερε 4,3 εκατομμύρια γουάν (622.000 δολάρια), μόνο για να ανακαλύψει αργότερα ότι είχε εξαπατηθεί από ένα deepfake με τεχνητή νοημοσύνη που χρησιμοποιούσε τεχνολογία ανταλλαγής προσώπων για να υποδυθεί τον φίλο του κατά τη διάρκεια της κλήσης. Το περιστατικό αυτό αναδεικνύει την αυξανόμενη απειλή των deepfakes και τις δυνατότητές τους για απάτη και ζημιά.
Οι Κινέζοι χρήστες των μέσων κοινωνικής δικτύωσης εκφράζουν ανησυχίες σχετικά με την απειλή για την ιδιωτικότητα και την ασφάλεια στο διαδίκτυο από ισχυρές τεχνολογίες όπως η τεχνητή νοημοσύνη, μετά την εξαπάτηση ενός άνδρα, ο οποίος με τη χρήση τεχνολογίας deep-fake μετέφερε 4,3 εκατομμύρια δολάρια σε έναν απατηλό τραπεζικό λογαριασμό. Η αστυνομία ανέκτησε το μεγαλύτερο μέρος των κλεμμένων κεφαλαίων, αλλά οι χρήστες του διαδικτύου δήλωσαν ότι οι φωτογραφίες, η φωνή και τα βίντεο είναι όλα στη διάθεση των απατεώνων και ότι οι κανόνες ασφάλειας των πληροφοριών δύσκολα θα μπορούσαν να συμβαδίσουν με τις τρέχουσες τεχνικές. Οι νεότεροι κινεζικοί κανόνες που εισήχθησαν τον Ιανουάριο, με επίκεντρο τον αυστηρότερο έλεγχο των εφαρμογών και των πιο πρόσφατων τεχνολογιών, επιβάλλουν αυστηρότερους περιορισμούς στη χειραγώγηση δεδομένων φωνής και προσώπου. Ωστόσο, αυτό δεν απέτρεψε τους απατεώνες από το να χρησιμοποιήσουν την τεχνολογία για να εξαπατήσουν έναν αθώο άνθρωπο.
Πηγή: 'Deepfake' scam in China raises concerns of AI-powered fraud






