20 Απριλίου 2026

Η κυβέρνηση των ΗΠΑ θέλει εσάς να κυνηγήσετε τα ελαττώματα της Γενετικής Τεχνητής Νοημοσύνης

Περίληψη του άρθρου:

Στο DEFCON 2023, οι εταιρείες τεχνητής νοημοσύνης συνεργάστηκαν με ομάδες αλγοριθμικής ακεραιότητας και την αμερικανική κυβέρνηση για την αξιολόγηση των συστημάτων τεχνητής νοημοσύνης για αδυναμίες. Η Humane Intelligence ανακοίνωσε μια εθνική προσπάθεια κόκκινων ομάδων που καλεί όλους τους κατοίκους των ΗΠΑ να αξιολογήσουν το λογισμικό παραγωγικότητας AI, μέρος των προκλήσεων της NIST που ονομάζεται ARIA. Αυτό αποσκοπεί στην ενίσχυση της ασφάλειας και της ηθικής δοκιμής των τεχνολογιών AI. Οι συμμετέχοντες θα χωριστούν σε ομάδες επίθεσης και άμυνας για τελική εκδήλωση στη Βιρτζίνια, χρησιμοποιώντας το πλαίσιο διαχείρισης κινδύνου NIST AI για αξιολόγηση. Η ανθρώπινη νοημοσύνη επιδιώκει να εκδημοκρατίσει τις αξιολογήσεις των μοντέλων τεχνητής νοημοσύνης, εξασφαλίζοντας την προσβασιμότητα για όλους τους χρήστες, συμπεριλαμβανομένων των υποεκπροσωπούμενων ομάδων. Συνεργαζόμενος με την NIST, στοχεύουν στη βελτίωση της διαφάνειας στην ανάπτυξη του αλγορίθμου μέσω πρωτοβουλιών όπως "προκλήσεις γενναιοδωρίας".



Κύρια σημεία του άρθρου:

  • Η DEFCON 2023 παρουσίασε συνεργασία μεταξύ των εταιρειών τεχνητής νοημοσύνης, των ομάδων αλγοριθμικής ακεραιότητας και της αμερικανικής κυβέρνησης για την αξιολόγηση των συστημάτων τεχνητής νοημοσύνης για τρωτά σημεία.
  • Η Humane Intelligence ξεκίνησε μια εθνική πρωτοβουλία που περιλαμβάνει κόκκινες ομάδες για την αξιολόγηση του λογισμικού παραγωγικότητας AI ως μέρος των προκλήσεων της ARIA της NIST.
  • Ο στόχος είναι η ενίσχυση της ασφάλειας και των δεοντολογικών προτύπων στις τεχνολογίες τεχνητής νοημοσύνης.
  • Οι συμμετέχοντες θα οργανωθούν σε ομάδες επίθεσης και άμυνας για μια κορυφαία εκδήλωση στη Βιρτζίνια.
  • Οι αξιολογήσεις θα χρησιμοποιήσουν το πλαίσιο διαχείρισης κινδύνου NIST AI.
  • Η πρωτοβουλία στοχεύει να εκδημοκρατίσει τις αξιολογήσεις της τεχνητής νοημοσύνης, εξασφαλίζοντας την ένταξη για όλους τους χρήστες, ιδιαίτερα τις ομάδες που υποβλήθηκαν σε συμπληρωματικά.
  • Η συνεργασία με την NIST επικεντρώνεται στη βελτίωση της διαφάνειας στην ανάπτυξη του αλγορίθμου μέσω πρωτοβουλιών όπως "προκλήσεις γενναιοδωρίας".


Αναλυτικά το άρθρο:

Στο συνέδριο χάκερ Defcon 2023 στο Λας Βέγκας, διακεκριμένες εταιρείες τεχνολογίας τεχνητής νοημοσύνης συνεργάστηκαν με ομάδες αλγοριθμικής ακεραιότητας και διαφάνειας για να κατασκοπεύσουν χιλιάδες συμμετέχοντες σε πλατφόρμες τεχνητής νοημοσύνης και να βρουν αδυναμίες σε αυτά τα κρίσιμα συστήματα. Αυτή η άσκηση «κόκκινης ομάδας», η οποία είχε επίσης την υποστήριξη της κυβέρνησης των ΗΠΑ, έκανε ένα βήμα προς το άνοιγμα αυτών των συστημάτων που ασκούν όλο και μεγαλύτερη επιρροή αλλά είναι αδιαφανείς και υπόκεινται σε έλεγχο. Τώρα, ο μη κερδοσκοπικός οργανισμός Humane Intelligence που ασχολείται με την ηθική τεχνητή νοημοσύνη και την αλγοριθμική αξιολόγηση προχωράει αυτό το μοντέλο ένα βήμα παραπέρα. Την Τετάρτη, η ομάδα ανακοίνωσε μια πρόσκληση συμμετοχής με το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας των ΗΠΑ, καλώντας κάθε κάτοικο των ΗΠΑ να συμμετάσχει στον προκριματικό γύρο μιας εθνικής προσπάθειας red-teaming για την αξιολόγηση λογισμικού παραγωγικότητας γραφείου με τεχνητή νοημοσύνη.

Ο προκριματικός γύρος θα διεξαχθεί διαδικτυακά και είναι ανοικτός τόσο σε προγραμματιστές όσο και σε οποιονδήποτε στο ευρύ κοινό στο πλαίσιο των προκλήσεων τεχνητής νοημοσύνης του NIST, γνωστής ως Assessing Risks and Impacts of AI ή ARIA. Οι συμμετέχοντες που θα περάσουν από τον προκριματικό γύρο θα λάβουν μέρος σε μια προσωπική εκδήλωση κόκκινης ομάδας στα τέλη Οκτωβρίου στο συνέδριο για την εφαρμοσμένη μηχανική μάθηση στην ασφάλεια πληροφοριών (CAMLIS) στη Βιρτζίνια. Στόχος είναι να διευρυνθούν οι δυνατότητες για τη διεξαγωγή αυστηρών δοκιμών της ασφάλειας, της ανθεκτικότητας και της ηθικής των τεχνολογιών δημιουργικής τεχνητής νοημοσύνης.

«Ο μέσος άνθρωπος που χρησιμοποιεί ένα από αυτά τα μοντέλα δεν έχει πραγματικά τη δυνατότητα να καθορίσει αν το μοντέλο είναι κατάλληλο για το σκοπό του», λέει ο Theo Skeadas, επικεφαλής του προσωπικού της Humane Intelligence. «Θέλουμε λοιπόν να εκδημοκρατίσουμε τη δυνατότητα διεξαγωγής αξιολογήσεων και να διασφαλίσουμε ότι όλοι όσοι χρησιμοποιούν αυτά τα μοντέλα μπορούν να εκτιμήσουν οι ίδιοι αν το μοντέλο ανταποκρίνεται ή όχι στις ανάγκες τους».

Η τελική εκδήλωση στο CAMLIS θα χωρίσει τους συμμετέχοντες σε μια κόκκινη ομάδα που προσπαθεί να επιτεθεί στα συστήματα τεχνητής νοημοσύνης και σε μια μπλε ομάδα που εργάζεται στην άμυνα. Οι συμμετέχοντες θα χρησιμοποιήσουν το προφίλ AI 600-1, μέρος του πλαισίου διαχείρισης κινδύνου AI του NIST, ως ρουμπρίκα για τη μέτρηση του κατά πόσον η κόκκινη ομάδα είναι σε θέση να παράγει αποτελέσματα που παραβιάζουν την αναμενόμενη συμπεριφορά των συστημάτων.

«Το ARIA του NIST βασίζεται στη δομημένη ανατροφοδότηση των χρηστών για την κατανόηση των πραγματικών εφαρμογών των μοντέλων τεχνητής νοημοσύνης», λέει ο ιδρυτής της Humane Intelligence, Rumman Chowdhury, ο οποίος είναι επίσης εργολάβος στο Γραφείο Αναδυόμενων Τεχνολογιών του NIST και μέλος του συμβουλίου για την ασφάλεια και την προστασία της τεχνητής νοημοσύνης του Υπουργείου Εσωτερικής Ασφάλειας των ΗΠΑ. «Η ομάδα ARIA είναι ως επί το πλείστον εμπειρογνώμονες σε θέματα κοινωνικοτεχνικής δοκιμής και αξιολόγησης και [χρησιμοποιεί] αυτό το υπόβαθρο ως έναν τρόπο εξέλιξης του πεδίου προς την αυστηρή επιστημονική αξιολόγηση της παραγωγικής ΤΝ».

Οι Chowdhury και Skeadas λένε ότι η συνεργασία με το NIST είναι μόνο μία από μια σειρά συνεργασιών με κόκκινες ομάδες AI που θα ανακοινώσει η Humane Intelligence τις επόμενες εβδομάδες με κυβερνητικές υπηρεσίες των ΗΠΑ, διεθνείς κυβερνήσεις και ΜΚΟ. Στόχος της προσπάθειας είναι να γίνει πολύ πιο σύνηθες για τις εταιρείες και τους οργανισμούς που αναπτύσσουν τους αλγορίθμους που σήμερα είναι «μαύρα κουτιά» να προσφέρουν διαφάνεια και λογοδοσία μέσω μηχανισμών όπως οι «bias bounty challenges», όπου τα άτομα μπορούν να ανταμείβονται για την ανεύρεση προβλημάτων και ανισοτήτων στα μοντέλα τεχνητής νοημοσύνης.

«Η κοινότητα θα πρέπει να είναι ευρύτερη από τους προγραμματιστές», λέει ο Skeadas. «Οι υπεύθυνοι χάραξης πολιτικής, οι δημοσιογράφοι, η κοινωνία των πολιτών και οι μη τεχνικοί άνθρωποι θα πρέπει να συμμετέχουν στη διαδικασία δοκιμής και αξιολόγησης αυτών των συστημάτων. Και πρέπει να διασφαλίσουμε ότι οι λιγότερο εκπροσωπούμενες ομάδες, όπως τα άτομα που μιλούν γλώσσες μειονοτήτων ή προέρχονται από μη πλειοψηφικές κουλτούρες και προοπτικές, μπορούν να συμμετέχουν σε αυτή τη διαδικασία».

ΠηγήThe US Government Wants You—Yes, You—to Hunt Down Generative AI Flaws