
21 Απριλίου 2026
Κάμερες τεχνητής νοημοσύνης της Amazon χρησιμοποιούνται για την ανίχνευση των συναισθημάτων ανυποψίαστων επιβατών τρένων του Ηνωμένου Βασιλείου

Περίληψη άρθρου:
Οι κάμερες CCTV και η τεχνητή νοημοσύνη χρησιμοποιούνται στο Ηνωμένο Βασίλειο για την παρακολούθηση πλήθους, τον εντοπισμό κλοπών ποδηλάτων και τον εντοπισμό παραβατών σε σιδηροδρομικούς σταθμούς. Το λογισμικό της Amazon έχει χρησιμοποιηθεί για τη σάρωση προσώπων και την πρόβλεψη δημογραφικών στοιχείων, συναισθημάτων και συμπεριφορών των ταξιδιωτών. Οι δοκιμές τεχνητής νοημοσύνης αποσκοπούν επίσης στην ενίσχυση των μέτρων ασφαλείας με τεχνολογία αναγνώρισης αντικειμένων. Οι ειδικοί έχουν εκφράσει ανησυχίες σχετικά με την προστασία της ιδιωτικής ζωής και την αξιοπιστία της ανίχνευσης συναισθημάτων. Υπάρχει μια αυξανόμενη τάση χρήσης συστημάτων επιτήρησης AI σε δημόσιους χώρους παγκοσμίως, εγείροντας ερωτήματα σχετικά με τη διαφάνεια και την ιδιωτικότητα.
Κύρια σημεία του άρθρου:
- Οι κάμερες CCTV και η τεχνητή νοημοσύνη χρησιμοποιούνται για την παρακολούθηση πλήθους, τον εντοπισμό κλοπών ποδηλάτων και τον εντοπισμό παραβατών σε σιδηροδρομικούς σταθμούς σε όλο το Ηνωμένο Βασίλειο.
- Το λογισμικό της Amazon χρησιμοποιήθηκε για τη σάρωση των προσώπων των ταξιδιωτών στους σιδηροδρομικούς σταθμούς για την πρόβλεψη της ηλικίας, του φύλου και των συναισθημάτων για πιθανούς διαφημιστικούς σκοπούς.
- Έχουν διεξαχθεί δοκιμές τεχνητής νοημοσύνης με τη χρήση τεχνολογίας αναγνώρισης αντικειμένων για τον εντοπισμό περιστατικών ασφαλείας και τη μείωση της εγκληματικότητας σε σιδηροδρομικούς σταθμούς.
- Οι δοκιμές αφορούσαν την ανίχνευση ατόμων που καταπατούν τις ράγες, την πρόβλεψη του συνωστισμού στις πλατφόρμες, τον εντοπισμό αντικοινωνικής συμπεριφοράς και την παρακολούθηση πιθανών κλεφτών ποδηλάτων.
- Η χρήση της τεχνολογίας επιτήρησης με τεχνητή νοημοσύνη σε δημόσιους χώρους έχει εγείρει ανησυχίες σχετικά με την προστασία της ιδιωτικής ζωής και την έλλειψη διαφάνειας.
- Ορισμένες δοκιμές αφορούσαν την ανάλυση δημογραφικών στοιχείων και συναισθημάτων των επιβατών με τη χρήση καμερών CCTV συνδεδεμένων με συστήματα ανάλυσης που βασίζονται στο cloud, όπως το Rekognition της Amazon.
Αναλυτικά το άρθρο:
Οι κάμερες CCTV και η τεχνητή νοημοσύνη συνδυάζονται για την παρακολούθηση πλήθους, τον εντοπισμό κλοπών ποδηλάτων και τον εντοπισμό καταπατητών.
Χιλιάδες άνθρωποι που έπαιρναν τρένα στο Ηνωμένο Βασίλειο πιθανότατα σάρωσαν τα πρόσωπά τους από το λογισμικό της Amazon στο πλαίσιο εκτεταμένων δοκιμών τεχνητής νοημοσύνης, αποκαλύπτουν νέα έγγραφα. Το σύστημα αναγνώρισης εικόνας χρησιμοποιήθηκε για να προβλέψει την ηλικία, το φύλο και τα πιθανά συναισθήματα των ταξιδιωτών - με την υπόνοια ότι τα δεδομένα θα μπορούσαν να χρησιμοποιηθούν σε συστήματα διαφήμισης στο μέλλον.
Κατά τη διάρκεια των τελευταίων δύο ετών, οκτώ σιδηροδρομικοί σταθμοί σε όλο το Ηνωμένο Βασίλειο -συμπεριλαμβανομένων μεγάλων σταθμών όπως οι Euston και Waterloo του Λονδίνου, ο Manchester Piccadilly και άλλοι μικρότεροι σταθμοί- δοκίμασαν τεχνολογία επιτήρησης τεχνητής νοημοσύνης με κάμερες CCTV με στόχο την ειδοποίηση του προσωπικού για περιστατικά ασφαλείας και τη δυνητική μείωση ορισμένων τύπων εγκληματικότητας.
Οι εκτεταμένες δοκιμές, υπό την επίβλεψη του φορέα σιδηροδρομικών υποδομών Network Rail, χρησιμοποίησαν την αναγνώριση αντικειμένων -ένα είδος μηχανικής μάθησης που μπορεί να αναγνωρίζει αντικείμενα σε βίντεο- για να εντοπίζουν άτομα που καταπατούν τις ράγες, να παρακολουθούν και να προβλέπουν τον συνωστισμό στις πλατφόρμες, να εντοπίζουν αντικοινωνικές συμπεριφορές ("τρέξιμο, φωνές, skateboard, κάπνισμα") και να εντοπίζουν πιθανούς κλέφτες ποδηλάτων. Σε ξεχωριστές δοκιμές χρησιμοποιήθηκαν ασύρματοι αισθητήρες για την ανίχνευση ολισθηρών δαπέδων, γεμάτων κάδων απορριμμάτων και αποχετεύσεων που ενδέχεται να υπερχειλίσουν.
Το πεδίο εφαρμογής των δοκιμών τεχνητής νοημοσύνης, στοιχεία των οποίων έχουν αναφερθεί στο παρελθόν, αποκαλύφθηκε σε μια κρύπτη εγγράφων που ελήφθησαν σε απάντηση σε αίτημα για ελευθερία πληροφοριών από την ομάδα Big Brother Watch για τις πολιτικές ελευθερίες. "Η εξάπλωση και η κανονικοποίηση της επιτήρησης με τεχνητή νοημοσύνη σε αυτούς τους δημόσιους χώρους, χωρίς πολλές διαβουλεύσεις και συζητήσεις, είναι ένα αρκετά ανησυχητικό βήμα", λέει ο Τζέικ Χέρφουρτ, επικεφαλής έρευνας και ερευνών της ομάδας.
Οι δοκιμές τεχνητής νοημοσύνης χρησιμοποίησαν έναν συνδυασμό "έξυπνων" καμερών CCTV που μπορούν να ανιχνεύουν αντικείμενα ή κινήσεις από τις εικόνες που καταγράφουν και παλαιότερες κάμερες που έχουν τις ροές βίντεο τους συνδεδεμένες με ανάλυση μέσω cloud. Μεταξύ πέντε και επτά κάμερες ή αισθητήρες περιλαμβάνονταν σε κάθε σταθμό, σημειώνουν τα έγγραφα, τα οποία χρονολογούνται από τον Απρίλιο του 2023. Ένα φύλλο καταγράφει 50 πιθανές περιπτώσεις χρήσης τεχνητής νοημοσύνης, αν και δεν φαίνεται να χρησιμοποιήθηκαν όλες αυτές στις δοκιμές. Ένας σταθμός, ο London Euston, επρόκειτο να δοκιμάσει ένα σύστημα ανίχνευσης "κινδύνου αυτοκτονίας", αλλά τα έγγραφα αναφέρουν ότι η κάμερα απέτυχε και το προσωπικό δεν θεώρησε απαραίτητο να την αντικαταστήσει λόγω του ότι ο σταθμός είναι σταθμός "τερματικού σταθμού".
Ο Hurfurt λέει ότι το πιο "ανησυχητικό" στοιχείο των δοκιμών επικεντρώθηκε στα "δημογραφικά στοιχεία των επιβατών". Σύμφωνα με τα έγγραφα, αυτή η ρύθμιση θα μπορούσε να χρησιμοποιήσει τις εικόνες από τις κάμερες για να παράγει μια "στατιστική ανάλυση του ηλικιακού εύρους και των δημογραφικών στοιχείων ανδρών/γυναικών", και είναι επίσης σε θέση να "αναλύσει για συναισθήματα" όπως "χαρούμενα, λυπημένα και θυμωμένα".
Οι εικόνες καταγράφηκαν όταν οι άνθρωποι διέσχιζαν ένα "εικονικό σύρμα" κοντά στις μπάρες των εισιτηρίων και στάλθηκαν για ανάλυση από το σύστημα Rekognition της Amazon, το οποίο επιτρέπει την ανάλυση προσώπων και αντικειμένων. Αυτό θα μπορούσε να επιτρέψει τη μέτρηση της "ικανοποίησης" των επιβατών, λένε τα έγγραφα, σημειώνοντας ότι "τα δεδομένα αυτά θα μπορούσαν να αξιοποιηθούν για τη μέγιστη δυνατή διαφήμιση και τα έσοδα λιανικής πώλησης".
Οι ερευνητές τεχνητής νοημοσύνης έχουν συχνά προειδοποιήσει ότι η χρήση της τεχνολογίας για την ανίχνευση συναισθημάτων είναι "αναξιόπιστη" και ορισμένοι λένε ότι η τεχνολογία θα πρέπει να απαγορευτεί λόγω της δυσκολίας να καταλάβεις πώς μπορεί να αισθάνεται κάποιος από τον ήχο ή το βίντεο. Τον Οκτώβριο του 2022, η ρυθμιστική αρχή δεδομένων του Ηνωμένου Βασιλείου, το Γραφείο του Επιτρόπου Πληροφοριών, εξέδωσε δημόσια δήλωση με την οποία προειδοποιούσε κατά της χρήσης της ανάλυσης συναισθημάτων, λέγοντας ότι οι τεχνολογίες είναι "ανώριμες" και ότι "μπορεί να μην λειτουργήσουν ακόμη ή και ποτέ".
Το Network Rail δεν απάντησε σε ερωτήσεις σχετικά με τις δοκιμές που έστειλε το WIRED, συμπεριλαμβανομένων ερωτήσεων σχετικά με την τρέχουσα κατάσταση της χρήσης της τεχνητής νοημοσύνης, την ανίχνευση συναισθημάτων και τις ανησυχίες για την προστασία της ιδιωτικής ζωής.
"Λαμβάνουμε εξαιρετικά σοβαρά υπόψη την ασφάλεια του σιδηροδρομικού δικτύου και χρησιμοποιούμε μια σειρά προηγμένων τεχνολογιών σε όλους τους σταθμούς μας για την προστασία των επιβατών, των συναδέλφων μας και της σιδηροδρομικής υποδομής από το έγκλημα και άλλες απειλές", αναφέρει εκπρόσωπος της Network Rail. "Όταν αναπτύσσουμε τεχνολογία, συνεργαζόμαστε με την αστυνομία και τις υπηρεσίες ασφαλείας για να διασφαλίσουμε ότι λαμβάνουμε αναλογικά μέτρα και συμμορφωνόμαστε πάντα με τη σχετική νομοθεσία σχετικά με τη χρήση τεχνολογιών παρακολούθησης".
Δεν είναι σαφές πόσο ευρέως αναπτύχθηκε η ανάλυση ανίχνευσης συναισθημάτων, με τα έγγραφα κατά καιρούς να λένε ότι η περίπτωση χρήσης θα πρέπει να "εξετάζεται με μεγαλύτερη προσοχή" και αναφορές από σταθμούς να λένε ότι είναι "αδύνατο να επικυρωθεί η ακρίβεια". Ωστόσο, ο Γκρέγκορι Μπάτλερ, διευθύνων σύμβουλος της εταιρείας ανάλυσης δεδομένων και όρασης υπολογιστών Purple Transform, η οποία συνεργάστηκε με το Network Rail στις δοκιμές, λέει ότι η δυνατότητα διακόπηκε κατά τη διάρκεια των δοκιμών και ότι δεν αποθηκεύτηκαν εικόνες όταν ήταν ενεργή.
Τα έγγραφα της Network Rail σχετικά με τις δοκιμές τεχνητής νοημοσύνης περιγράφουν πολλαπλές περιπτώσεις χρήσης που αφορούν τη δυνατότητα των καμερών να στέλνουν αυτοματοποιημένες ειδοποιήσεις στο προσωπικό όταν εντοπίζουν συγκεκριμένη συμπεριφορά. Κανένα από τα συστήματα δεν χρησιμοποιεί την αμφιλεγόμενη τεχνολογία αναγνώρισης προσώπου, η οποία αποσκοπεί στην αντιστοίχιση της ταυτότητας των ανθρώπων με εκείνες που είναι αποθηκευμένες σε βάσεις δεδομένων.
"Ένα πρωταρχικό πλεονέκτημα είναι η ταχύτερη ανίχνευση περιστατικών καταπάτησης", λέει ο Butler, ο οποίος προσθέτει ότι το σύστημα ανάλυσης της εταιρείας του, SiYtE, χρησιμοποιείται σε 18 τοποθεσίες, συμπεριλαμβανομένων σιδηροδρομικών σταθμών και παραπλεύρως σιδηροδρομικών γραμμών. Τον τελευταίο μήνα, λέει ο Butler, υπήρξαν πέντε σοβαρές περιπτώσεις καταπάτησης που τα συστήματα εντόπισαν σε δύο τοποθεσίες, μεταξύ των οποίων ένας έφηβος που μάζευε μια μπάλα από τις γραμμές και ένας άνδρας που "πέρασε πάνω από πέντε λεπτά μαζεύοντας μπάλες του γκολφ κατά μήκος μιας γραμμής υψηλής ταχύτητας".
Στον σιδηροδρομικό σταθμό του Leeds, έναν από τους πιο πολυσύχναστους εκτός Λονδίνου, υπάρχουν 350 κάμερες CCTV συνδεδεμένες με την πλατφόρμα SiYtE, λέει ο Butler. "Οι αναλύσεις χρησιμοποιούνται για τη μέτρηση της ροής των ανθρώπων και τον εντοπισμό θεμάτων όπως ο συνωστισμός στις πλατφόρμες και, φυσικά, η καταπάτηση -όπου η τεχνολογία μπορεί να φιλτράρει τους εργαζόμενους που παρακολουθούνται μέσω της στολής των ΜΑΠ", λέει. "Η τεχνητή νοημοσύνη βοηθά τους ανθρώπινους χειριστές, οι οποίοι δεν μπορούν να παρακολουθούν συνεχώς όλες τις κάμερες, να αξιολογούν και να αντιμετωπίζουν άμεσα τους κινδύνους και τα ζητήματα ασφάλειας".
Τα έγγραφα της Network Rail υποστηρίζουν ότι οι κάμερες που χρησιμοποιήθηκαν σε έναν σταθμό, στο Reading, επέτρεψαν στην αστυνομία να επιταχύνει τις έρευνες για κλοπές ποδηλάτων, καθώς ήταν σε θέση να εντοπίσει τα ποδήλατα στο υλικό. "Διαπιστώθηκε ότι, ενώ οι αναλύσεις δεν μπορούσαν να ανιχνεύσουν με βεβαιότητα μια κλοπή, μπορούσαν όμως να εντοπίσουν ένα άτομο με ποδήλατο", αναφέρουν τα αρχεία.
Προσθέτουν επίσης ότι οι νέοι αισθητήρες ποιότητας του αέρα που χρησιμοποιήθηκαν στις δοκιμές θα μπορούσαν να εξοικονομήσουν χρόνο στο προσωπικό από τη χειροκίνητη διενέργεια ελέγχων. Μια περίπτωση τεχνητής νοημοσύνης χρησιμοποιεί δεδομένα από αισθητήρες για να ανιχνεύσει "ιδρωμένα" δάπεδα, τα οποία έχουν γίνει ολισθηρά από τη συμπύκνωση, και να ειδοποιήσει το προσωπικό όταν πρέπει να καθαριστούν.
Ενώ τα έγγραφα περιγράφουν λεπτομερώς ορισμένα στοιχεία των δοκιμών, οι ειδικοί σε θέματα προστασίας της ιδιωτικής ζωής δηλώνουν ότι ανησυχούν για τη συνολική έλλειψη διαφάνειας και συζήτησης σχετικά με τη χρήση της τεχνητής νοημοσύνης σε δημόσιους χώρους. Σε ένα έγγραφο που έχει σχεδιαστεί για να αξιολογήσει τα ζητήματα προστασίας δεδομένων με τα συστήματα, ο Hurfurt από το Big Brother Watch λέει ότι φαίνεται να υπάρχει μια "απορριπτική στάση" απέναντι στους ανθρώπους που μπορεί να έχουν ανησυχίες για την προστασία της ιδιωτικής ζωής. Μια ερώτηση ρωτάει: "Τι είναι αυτό το θέμα; "Είναι πιθανό κάποιοι άνθρωποι να αντιταχθούν ή να το θεωρήσουν παρεμβατικό;" Ένα μέλος του προσωπικού γράφει: "Τυπικά, όχι, αλλά δεν υπάρχει καμία λογική για κάποιους ανθρώπους".
Την ίδια στιγμή, παρόμοια συστήματα παρακολούθησης με τεχνητή νοημοσύνη που χρησιμοποιούν την τεχνολογία για την παρακολούθηση πλήθους χρησιμοποιούνται όλο και περισσότερο σε όλο τον κόσμο. Κατά τη διάρκεια των Ολυμπιακών Αγώνων του Παρισιού στη Γαλλία, αργότερα φέτος, η βιντεοεπιτήρηση με AI θα παρακολουθεί χιλιάδες ανθρώπους και θα προσπαθεί να ξεχωρίσει τις εξάρσεις του πλήθους, τη χρήση όπλων και τα εγκαταλελειμμένα αντικείμενα.
"Τα συστήματα που δεν ταυτοποιούν τους ανθρώπους είναι καλύτερα από εκείνα που ταυτοποιούν, αλλά ανησυχώ για μια ολισθηρή πορεία", λέει η Carissa Véliz, αναπληρώτρια καθηγήτρια ψυχολογίας στο Ινστιτούτο Ηθικής της Τεχνητής Νοημοσύνης του Πανεπιστημίου της Οξφόρδης. Η Véliz επισημαίνει παρόμοιες δοκιμές Τεχνητής Νοημοσύνης στο μετρό του Λονδίνου, οι οποίες αρχικά είχαν θολώσει τα πρόσωπα των ανθρώπων που μπορεί να απέφευγαν τα ναύλα, αλλά στη συνέχεια άλλαξαν προσέγγιση, ξεθολώνοντας τις φωτογραφίες και διατηρώντας τις εικόνες για περισσότερο χρόνο από ό,τι είχε αρχικά προγραμματιστεί.
"Υπάρχει μια πολύ ενστικτώδης τάση για επέκταση της επιτήρησης", λέει ο Véliz. "Στα ανθρώπινα όντα αρέσει να βλέπουν περισσότερα, να βλέπουν μακρύτερα. Αλλά η επιτήρηση οδηγεί στον έλεγχο και ο έλεγχος στην απώλεια της ελευθερίας που απειλεί τις φιλελεύθερες δημοκρατίες".
Πηγή: Amazon-Powered AI Cameras Used to Detect Emotions of Unwitting UK Train Passengers






