Ένα δημιουργικό κόλπο κάνει το ChatGPT να αποκαλύψει οδηγίες για την κατασκευή βομβών

Περίληψη του άρθρου:
Μετά την τελευταία παρουσίαση προϊόντων της Apple, η Wired ανέλυσε το νέο ιδιωτικό cloud compute (PCC) με στόχο την ενίσχυση της ασφάλειας των δεδομένων και της ιδιωτικής ζωής για την πλατφόρμα τεχνητής νοημοσύνης της Apple Intelligence. Το άρθρο υπογράμμισε επίσης μια τεχνική χρησιμοποιώντας την παρακολούθηση των ματιών με το Apple Vision Pro για αναγνώριση κωδικού πρόσβασης. Εν τω μεταξύ, οι ΗΠΑ απευθύνονται σε ακροδεξιό εξτρεμισμό και προπαγάνδα. Επιπλέον, ένας χάκερ εξαπάτησε το ChatGPT στην παροχή οδηγιών κατασκευής βόμβας χρησιμοποιώντας μια αφηγηματική προσέγγιση για να παρακάμψει τους περιορισμούς.
Κύρια σημεία του άρθρου:
- Η Apple εισήγαγε ένα νέο ασφαλές περιβάλλον διακομιστή που ονομάζεται Private Cloud Compute (PCC) με στόχο την ενίσχυση της ιδιωτικής ζωής και της ασφάλειας δεδομένων, επεξεργάζοντας τοπικά δεδομένα σε συσκευές χρήστη.
- Το PCC στοχεύει στη μείωση της έκθεσης δεδομένων για τη νέα πλατφόρμα τεχνητής νοημοσύνης της Apple, την Apple Intelligence.
- Κατά τη διάρκεια της παρουσίασης, ο Craig Federighi παρουσίασε περιεχόμενο από την "Playground Image Playground" της Apple Intelligence, με το σκυλί του Bailey.
- Η Wired συζήτησε πώς οι χρήστες του X μπορούν να προστατεύσουν τα δεδομένα τους από το "ανεξέλεγκτο" εργαλείο AI GROK AI στην πλατφόρμα κοινωνικής δικτύωσης X.
- Οι ερευνητές ανέπτυξαν μια τεχνική χρησιμοποιώντας την παρακολούθηση των ματιών για τον εντοπισμό κωδικών πρόσβασης, αν και ένα κενό ασφαλείας που επιτρέπει αυτή τη μέθοδο έχει εξεταστεί από τότε.
- Στα νέα της Εθνικής Ασφάλειας, δύο άτομα κατηγορήθηκαν για την εξάπλωση της προπαγάνδας για να υποκινήσουν τρομοκρατικές επιθέσεις "μοναχικού λύκου" ως μέρος της καταστολής του νεο-φασιστικού εξτρεμισμού στις ΗΠΑ.
Αναλυτικά το άρθρο:
Μετά την εκδήλωση παρουσίασης προϊόντων της Apple αυτή την εβδομάδα, το WIRED έκανε μια βαθιά ανάλυση στο νέο ασφαλές περιβάλλον διακομιστών της εταιρείας, γνωστό ως Private Cloud Compute, το οποίο προσπαθεί να αναπαράγει στο cloud την ασφάλεια και την ιδιωτικότητα της επεξεργασίας δεδομένων τοπικά στις μεμονωμένες συσκευές των χρηστών.
Ο στόχος είναι να ελαχιστοποιηθεί η πιθανή έκθεση δεδομένων που υποβάλλονται σε επεξεργασία για το Apple Intelligence, τη νέα πλατφόρμα τεχνητής νοημοσύνης της εταιρείας. Εκτός από την ενημέρωση για το PCC από τον ανώτερο αντιπρόεδρο μηχανικής λογισμικού της Apple, Craig Federighi, οι αναγνώστες του WIRED έλαβαν επίσης μια πρώτη ματιά στο περιεχόμενο που δημιουργήθηκε από τη λειτουργία "Image Playground" του Apple Intelligence ως μέρος κρίσιμων ενημερώσεων για τα πρόσφατα γενέθλια του σκύλου του Federighi, Bailey.
Στρεφόμενοι σε προστασία της ιδιωτικότητας πολύ διαφορετικού είδους σε μια άλλη νέα υπηρεσία τεχνητής νοημοσύνης, το WIRED εξέτασε πώς οι χρήστες της πλατφόρμας κοινωνικής δικτύωσης X μπορούν να εμποδίσουν τα δεδομένα τους από το να απορροφηθούν από το "ανεξέλεγκτο" εργαλείο παραγωγικής τεχνητής νοημοσύνης της xAI γνωστό ως Grok AI. Και σε άλλα νέα σχετικά με προϊόντα της Apple, ερευνητές ανέπτυξαν μια τεχνική για τη χρήση παρακολούθησης ματιών για να διακρίνουν κωδικούς πρόσβασης και PIN που πληκτρολογούν οι άνθρωποι χρησιμοποιώντας τρισδιάστατα άβαταρ του Apple Vision Pro - ένα είδος καταγραφέα πληκτρολογήσεων για μικτή πραγματικότητα. (Το κενό ασφαλείας που καθιστούσε δυνατή την τεχνική έχει έκτοτε διορθωθεί.)
Στο μέτωπο της εθνικής ασφάλειας, οι ΗΠΑ κατηγόρησαν αυτή την εβδομάδα δύο άτομα για διάδοση προπαγάνδας με σκοπό την έμπνευση τρομοκρατικών επιθέσεων "μοναχικών λύκων". Η υπόθεση, εναντίον φερόμενων μελών του ακροδεξιού δικτύου γνωστού ως Terrorgram Collective, σηματοδοτεί μια στροφή στον τρόπο με τον οποίο οι ΗΠΑ καταστέλλουν τους νεοφασιστικούς εξτρεμιστές.
Το ChatGPT Εξαπατήθηκε να Αποκαλύψει Οδηγίες για την Κατασκευή Βομβών Λιπάσματος Αφού Οδηγήθηκε Βαθιά σε Φανταστική Αφήγηση
Η πλατφόρμα τεχνητής νοημοσύνης ChatGPT της OpenAI είναι σχεδιασμένη με αυστηρούς περιορισμούς που εμποδίζουν την υπηρεσία από το να προσφέρει συμβουλές για επικίνδυνα και παράνομα θέματα όπως συμβουλές για ξέπλυμα χρήματος ή οδηγό για την απόρριψη ενός πτώματος. Αλλά ένας καλλιτέχνης και χάκερ που αυτοαποκαλείται "Amadon" βρήκε έναν τρόπο να εξαπατήσει ή να "ξεκλειδώσει" το chatbot λέγοντάς του να "παίξει ένα παιχνίδι" και στη συνέχεια καθοδηγώντας το σε μια επιστημονικής φαντασίας ιστορία όπου οι περιορισμοί του συστήματος δεν ίσχυαν. Ο Amadon κατάφερε τότε να κάνει το ChatGPT να αποκαλύψει οδηγίες για την κατασκευή επικίνδυνων βομβών λιπάσματος. Ένας εκπρόσωπος της OpenAI δεν απάντησε στις ερωτήσεις του TechCrunch σχετικά με την έρευνα.
"Πρόκειται για την ύφανση αφηγήσεων και τη δημιουργία πλαισίων που παίζουν μέσα στους κανόνες του συστήματος, ωθώντας τα όρια χωρίς να τα ξεπερνούν. Ο στόχος δεν είναι να χακάρουμε με τη συμβατική έννοια αλλά να εμπλακούμε σε έναν στρατηγικό χορό με την τεχνητή νοημοσύνη, προσπαθώντας να πάρουμε τη σωστή απάντηση κατανοώντας πώς 'σκέφτεται'," είπε ο Amadon στο TechCrunch. "Το σενάριο επιστημονικής φαντασίας βγάζει την τεχνητή νοημοσύνη από ένα πλαίσιο όπου αναζητά λογοκριμένο περιεχόμενο... Πραγματικά δεν υπάρχει όριο σε αυτό που μπορείς να τη ρωτήσεις μόλις παρακάμψεις τους περιορισμούς."
Πηγή: Security News This Week: A Creative Trick Makes ChatGPT Spit Out Bomb-Making Instructions
