
18 Απριλίου 2025

Η τεχνητή νοημοσύνη είναι ο νέος συνάδελφός σας. Μπορείτε να την εμπιστευτείτε;

Περίληψη 'Αρθρου:
Η ταχεία εξέλιξη των εργαλείων τεχνητής νοημοσύνης όπως το OpenAi ChatGPT και το Microsoft Copilot δημιουργούν ανησυχίες για την ιδιωτική ζωή και την ασφάλεια, ιδίως στο χώρο εργασίας. Οι ανησυχίες περιβάλλουν τις δυνατότητες εγγραφής οθόνης του ChatGPT και τους πιθανούς κινδύνους έκθεσης δεδομένων. Η Βουλή των Αντιπροσώπων απαγόρευσε το Copilot λόγω κινδύνων ασφαλείας, ενώ ο Gartner προειδοποίησε για απειλές έκθεσης δεδομένων. Οι επιχειρήσεις πρέπει να είναι προσεκτικές με εργαλεία AI για να αποτρέψουν την ακούσια διαρροή δεδομέων και την πιθανή στόχευση από χάκερ. Οι εταιρείες τονίζουν ότι υπάρχουν τα μέτρα ασφαλείας, αλλά οι χρήστες θα πρέπει επίσης να λαμβάνουν προφυλάξεις όπως η αποφυγή εισαγωγής ευαίσθητων πληροφοριών. Καθώς το AI ενσωματώνεται στους χώρους εργασίας, η διατήρηση της ιδιωτικής ζωής και της ασφάλειας καθίσταται ζωτικής σημασίας για την άμβλυνση των κινδύνων που σχετίζονται με αυτά τα προηγμένα εργαλεία.
Κύρια σημεία του άρθρου:
- Ταχεία εξέλιξη εργαλείων τεχνητής νοημοσύνης όπως το OpenAi Chatgpt και το Microsoft Copilot.
- Ανησυχίες για την ιδιωτική ζωή και την ασφάλεια, ειδικά στο χώρο εργασίας.
- Οι δυνατότητες εγγραφής οθόνης του ChatGPT και οι πιθανοί κίνδυνοι έκθεσης δεδομένων.
- Η Βουλή των Αντιπροσώπων απαγορεύει το Copilot λόγω κινδύνων ασφαλείας.
- Ο Gartner προειδοποιεί σχετικά με τις απειλές της έκθεσης δεδομένων.
- Οι επιχειρήσεις πρέπει να είναι προσεκτικές με τα εργαλεία AI για να αποτρέψουν την ακούσια διαρροή δεδομένων και τη στόχευση από χάκερ.
Αναλυτικά το άρθρο:
Εργαλεία δημιουργικής τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI και το Copilot της Microsoft, γίνονται μέρος της καθημερινής επιχειρηματικής ζωής. Συνοδεύονται όμως από ζητήματα προστασίας της ιδιωτικής ζωής και ασφάλειας που πρέπει να γνωρίζετε.
Τα εργαλεία γεννητικής τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI και το Copilot της Microsoft, εξελίσσονται με ταχείς ρυθμούς, τροφοδοτώντας τις ανησυχίες ότι η τεχνολογία θα μπορούσε να οδηγήσει σε πολλαπλά ζητήματα προστασίας της ιδιωτικής ζωής και ασφάλειας, ιδίως στον εργασιακό χώρο.
Τον Μάιο, ακτιβιστές υπέρ της προστασίας της ιδιωτικής ζωής χαρακτήρισαν το νέο εργαλείο Recall της Microsoft ως πιθανό «εφιάλτη της ιδιωτικής ζωής» λόγω της ικανότητάς του να λαμβάνει στιγμιότυπα οθόνης του φορητού σας υπολογιστή κάθε λίγα δευτερόλεπτα. Η λειτουργία αυτή τράβηξε την προσοχή της βρετανικής ρυθμιστικής αρχής Information Commissioner's Office, η οποία ζητά από τη Microsoft να αποκαλύψει περισσότερα σχετικά με την ασφάλεια του προϊόντος που λανσάρεται σύντομα στους υπολογιστές Copilot+.
Οι ανησυχίες αυξάνονται επίσης σχετικά με το ChatGPT της OpenAI, το οποίο έχει επιδείξει ικανότητες λήψης στιγμιότυπων οθόνης στην εφαρμογή macOS που πρόκειται να κυκλοφορήσει σύντομα και οι ειδικοί σε θέματα προστασίας της ιδιωτικής ζωής λένε ότι θα μπορούσαν να οδηγήσουν στη λήψη ευαίσθητων δεδομένων.
Η Βουλή των Αντιπροσώπων των ΗΠΑ απαγόρευσε τη χρήση του Copilot της Microsoft μεταξύ των μελών του προσωπικού, αφού κρίθηκε από το Γραφείο Κυβερνοασφάλειας ότι αποτελεί κίνδυνο για τους χρήστες λόγω «της απειλής διαρροής δεδομένων της Βουλής των Αντιπροσώπων σε μη εγκεκριμένες από τη Βουλή υπηρεσίες cloud».
Εν τω μεταξύ, ο αναλυτής της αγοράς Gartner προειδοποίησε ότι «η χρήση του Copilot για το Microsoft 365 ενέχει κινδύνους έκθεσης ευαίσθητων δεδομένων και περιεχομένου εσωτερικά και εξωτερικά». Και τον περασμένο μήνα, η Google αναγκάστηκε να προβεί σε προσαρμογές της νέας λειτουργίας αναζήτησης, AI Overviews, αφού κυκλοφόρησαν στιγμιότυπα οθόνης με παράξενες και παραπλανητικές απαντήσεις σε ερωτήματα.
Υπερέκθεση
Για όσους χρησιμοποιούν γεννητική τεχνητή νοημοσύνη στην εργασία τους, μία από τις μεγαλύτερες προκλήσεις είναι ο κίνδυνος ακούσιας έκθεσης ευαίσθητων δεδομένων. Τα περισσότερα παραγωγικά συστήματα ΤΝ είναι «ουσιαστικά μεγάλα σφουγγάρια», λέει ο Camden Woollven, επικεφαλής ομάδας AI στην εταιρεία διαχείρισης κινδύνων GRC International Group. «Απορροφούν τεράστιες ποσότητες πληροφοριών από το διαδίκτυο για να εκπαιδεύσουν τα γλωσσικά τους μοντέλα».
Οι εταιρείες AI «διψούν για δεδομένα για να εκπαιδεύσουν τα μοντέλα τους» και «φαίνεται ότι το κάνουν συμπεριφορικά ελκυστικό», λέει ο Steve Elcock, διευθύνων σύμβουλος και ιδρυτής της εταιρείας λογισμικού Elementsuite. Αυτός ο τεράστιος όγκος συλλογής δεδομένων σημαίνει ότι υπάρχει το ενδεχόμενο να μπουν ευαίσθητες πληροφορίες «στο οικοσύστημα κάποιου άλλου», λέει ο Jeff Watkins, επικεφαλής προϊόντος και τεχνολογίας στην ψηφιακή συμβουλευτική εταιρεία xDesign. «Θα μπορούσαν επίσης αργότερα να εξαχθούν μέσω έξυπνων προτροπών».
Ταυτόχρονα, υπάρχει η απειλή τα ίδια τα συστήματα τεχνητής νοημοσύνης να γίνουν στόχος χάκερ. «Θεωρητικά, αν ένας εισβολέας καταφέρει να αποκτήσει πρόσβαση στο μεγάλο γλωσσικό μοντέλο (LLM) που τροφοδοτεί τα εργαλεία AI μιας εταιρείας, θα μπορούσε να αποσπάσει ευαίσθητα δεδομένα, να τοποθετήσει ψευδή ή παραπλανητικά αποτελέσματα ή να χρησιμοποιήσει την AI για τη διάδοση κακόβουλου λογισμικού», λέει ο Woollven.
Τα εργαλεία τεχνητής νοημοσύνης καταναλωτικού επιπέδου μπορούν να δημιουργήσουν προφανείς κινδύνους. Ωστόσο, ένας αυξανόμενος αριθμός πιθανών προβλημάτων προκύπτει με « αποκλειστικές» υπηρεσίες τεχνητής νοημοσύνης που θεωρούνται σε γενικές γραμμές ασφαλείς για εργασία, όπως το Microsoft Copilot, λέει ο Phil Robinson, κύριος σύμβουλος της εταιρείας συμβούλων ασφαλείας Prism Infosec.
«Αυτό θα μπορούσε θεωρητικά να χρησιμοποιηθεί για την εξέταση ευαίσθητων δεδομένων, εάν τα δικαιώματα πρόσβασης δεν έχουν κλειδωθείΘα μπορούσαμε να δούμε εργαζόμενους να ζητούν να δουν μισθολογικές κλίμακες, δραστηριότητες συγχωνεύσεων και εξαγορών ή έγγραφα που περιέχουν διαπιστευτήρια, τα οποία θα μπορούσαν στη συνέχεια να διαρρεύσουν ή να πωληθούν".
Μια άλλη ανησυχία επικεντρώνεται γύρω από τα εργαλεία τεχνητής νοημοσύνης που θα μπορούσαν να χρησιμοποιηθούν για την παρακολούθηση του προσωπικού, παραβιάζοντας ενδεχομένως την ιδιωτική του ζωή. Η λειτουργία Recall της Microsoft αναφέρει ότι «τα στιγμιότυπά σας είναι δικά σας, παραμένουν τοπικά στον υπολογιστή σας» και «έχετε πάντα τον έλεγχο με την ιδιωτικότητα που μπορείτε να εμπιστευτείτε».
Ωστόσο, «δεν φαίνεται να αργεί πολύ η στιγμή που αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί για την παρακολούθηση των εργαζομένων», λέει ο Elcock.
Αυτολογοκρισία
Η γεννητική τεχνητή νοημοσύνη ενέχει αρκετούς πιθανούς κινδύνους, αλλά υπάρχουν μέτρα που μπορούν να λάβουν οι επιχειρήσεις και οι μεμονωμένοι εργαζόμενοι για να βελτιώσουν την ιδιωτικότητα και την ασφάλεια. Πρώτον, μην βάζετε εμπιστευτικές πληροφορίες σε ένα πρότυπο για ένα δημόσια διαθέσιμο εργαλείο όπως το ChatGPT ή το Gemini της Google, λέει η Lisa Avvocato, αντιπρόεδρος μάρκετινγκ και κοινότητας στην εταιρεία δεδομένων Sama.
Όταν δημιουργείτε ένα πρότυπο, να είστε γενικοί για να αποφύγετε να μοιραστείτε πάρα πολλά. «Ρωτήστε: “Γράψτε ένα πρότυπο πρότασης για δαπάνες του προϋπολογισμού”, όχι “Εδώ είναι ο προϋπολογισμός μου, γράψτε μια πρόταση για δαπάνες σε ένα ευαίσθητο έργο”», λέει η ίδια. «Χρησιμοποιήστε την AI ως πρώτο προσχέδιο και στη συνέχεια προσθέστε τις ευαίσθητες πληροφορίες που πρέπει να συμπεριλάβετε».
Εάν το χρησιμοποιείτε για έρευνα, αποφύγετε ζητήματα όπως αυτά που παρατηρήθηκαν με τις επισκοπήσεις AI της Google, επικυρώνοντας αυτά που παρέχει, λέει ο Avvocato. "Ζητήστε του να παρέχει παραπομπές και συνδέσμους προς τις πηγές του. Αν ζητήσετε από την AI να γράψει κώδικα, θα πρέπει και πάλι να τον ελέγξετε, αντί να υποθέσετε ότι είναι καλός για να ξεκινήσει".
Η ίδια η Microsoft έχει δηλώσει ότι το Copilot πρέπει να ρυθμιστεί σωστά και να εφαρμοστεί το «ελάχιστο προνόμιο» -η έννοια ότι οι χρήστες πρέπει να έχουν πρόσβαση μόνο στις πληροφορίες που χρειάζονται-. Αυτό είναι «ένα κρίσιμο σημείο», λέει ο Robinson της Prism Infosec. «Οι οργανισμοί πρέπει να θέσουν τις βάσεις για αυτά τα συστήματα και όχι απλώς να εμπιστεύονται την τεχνολογία και να υποθέτουν ότι όλα θα είναι εντάξει».
Αξίζει επίσης να σημειωθεί ότι το ChatGPT χρησιμοποιεί τα δεδομένα που μοιράζεστε για την εκπαίδευση των μοντέλων του, εκτός αν το απενεργοποιήσετε στις ρυθμίσεις ή χρησιμοποιήσετε την έκδοση για επιχειρήσεις.
Κατάλογος διαβεβαιώσεων
Οι εταιρείες που ενσωματώνουν την τεχνητή νοημοσύνη στα προϊόντα τους λένε ότι κάνουν ό,τι μπορούν για την προστασία της ασφάλειας και της ιδιωτικής ζωής. Η Microsoft επιθυμεί να περιγράψει τις πτυχές της ασφάλειας και της ιδιωτικής ζωής στο προϊόν Recall και τη δυνατότητα ελέγχου της λειτουργίας στις Ρυθμίσεις > Απόρρητο και ασφάλεια > Recall & στιγμιότυπα.
Η Google αναφέρει ότι η γεννητική τεχνητή νοημοσύνη στο Workspace «δεν αλλάζει τις θεμελιώδεις εγγυήσεις προστασίας της ιδιωτικής ζωής μας για την παροχή επιλογών και ελέγχου των δεδομένων τους στους χρήστες» και ορίζει ότι οι πληροφορίες δεν χρησιμοποιούνται για διαφήμιση.
Η OpenAI επαναλαμβάνει πώς διατηρεί την ασφάλεια και την ιδιωτικότητα στα προϊόντα της, ενώ οι εταιρικές εκδόσεις είναι διαθέσιμες με επιπλέον ελέγχους. «Θέλουμε τα μοντέλα τεχνητής νοημοσύνης μας να μαθαίνουν για τον κόσμο, όχι για τους ιδιώτες - και λαμβάνουμε μέτρα για την προστασία των δεδομένων και της ιδιωτικής ζωής των ανθρώπων», λέει εκπρόσωπος της OpenAI στο WIRED.
Η OpenAI λέει ότι προσφέρει τρόπους ελέγχου του τρόπου χρήσης των δεδομένων, συμπεριλαμβανομένων εργαλείων αυτοεξυπηρέτησης για πρόσβαση, εξαγωγή και διαγραφή προσωπικών πληροφοριών, καθώς και τη δυνατότητα να εξαιρεθεί κανείς από τη χρήση περιεχομένου για τη βελτίωση των μοντέλων της. Το ChatGPT Team, το ChatGPT Enterprise και το API του δεν εκπαιδεύονται σε δεδομένα ή συνομιλίες και τα μοντέλα του δεν μαθαίνουν από τη χρήση από προεπιλογή, σύμφωνα με την εταιρεία.
Όπως και να έχει, φαίνεται ότι ο AI συνεργάτης σας είναι εδώ για να μείνει. Καθώς αυτά τα συστήματα γίνονται πιο εξελιγμένα και πανταχού παρόντα στο χώρο εργασίας, οι κίνδυνοι θα ενταθούν, λέει ο Woollven. "Βλέπουμε ήδη την εμφάνιση πολυτροπικών AI, όπως το GPT-4o, που μπορούν να αναλύουν και να παράγουν εικόνες, ήχο και βίντεο. Έτσι, τώρα δεν είναι μόνο τα δεδομένα που βασίζονται σε κείμενο που οι εταιρείες πρέπει να ανησυχούν για τη διαφύλαξη".
Έχοντας αυτό κατά νου, οι άνθρωποι -και οι επιχειρήσεις- πρέπει να αποκτήσουν τη νοοτροπία να αντιμετωπίζουν την AI όπως οποιαδήποτε άλλη υπηρεσία τρίτων, λέει ο Woollven. «Μην μοιράζεστε τίποτα που δεν θα θέλατε να μεταδοθεί δημοσίως».