23 Απριλίου 2026

Προκατάληψη στην τεχνητή νοημοσύνη: Μαύροι καλλιτέχνες καταγγέλλουν ιστορική διαγραφή από αλγορίθμους!

Περίληψη άρθρου:
Η καλλιτέχνης Stephanie Dinkins βραβεύτηκε με 100.000 δολάρια από το Μουσείο Guggenheim για το έργο της που συνδυάζει τέχνη και τεχνολογία. Η Dinkins έχει πειραματιστεί με την τεχνητή νοημοσύνη (A.I.) για να απεικονίσει μαύρες γυναίκες, αλλά διαπίστωσε ότι οι προκαταλήψεις και οι διαστρεβλώσεις είναι ενσωματωμένες στους αλγορίθμους. Άλλοι μαύροι καλλιτέχνες έχουν επίσης αντιμετωπίσει φυλετικές προκαταλήψεις στην Α.Ι., τόσο στη δημιουργία εικόνων όσο και στα υποκείμενα προγράμματα. Εταιρείες όπως η OpenAI και η Stability AI έχουν δεσμευτεί να βελτιώσουν τα εργαλεία τους και να μειώσουν τις προκαταλήψεις. Ωστόσο, οι επικριτές υποστηρίζουν ότι η προκατάληψη είναι ένα βαθύτερο ζήτημα που πηγάζει από την ιστορία της μηχανικής μάθησης, η οποία αναπτύχθηκε κυρίως από λευκούς άνδρες. Ορισμένες εταιρείες έχουν καταφύγει στην απαγόρευση ορισμένων λέξεων από τις προτροπές κειμένου για να αποφύγουν την προκατάληψη, αλλά αυτό δεν αντιμετωπίζει τα θεμελιώδη ζητήματα εντός της τεχνολογίας. Καλλιτέχνες όπως η Dinkins εξακολουθούν να είναι αποφασισμένοι να εργαστούν με την τεχνολογία παρά τις προκλήσεις αυτές.
 


Κύρια σημεία του άρθρου:

  • Οι μαύροι καλλιτέχνες εκφράζουν ανησυχίες για τη φυλετική προκατάληψη στην τεχνητή νοημοσύνη
  • Η τεχνητή νοημοσύνη παραμορφώνει τα χαρακτηριστικά του προσώπου και τις υφές των μαλλιών των μαύρων γυναικών
  • Παραποίηση και στερεότυπα στις γεννήτριες εικόνων τεχνητής νοημοσύνης
  • Μεγάλες εταιρείες δεσμεύονται να αντιμετωπίσουν την προκατάληψη, αλλά το πρόβλημα παραμένει
  • Η μεροληψία στην ΤΝ εντοπίζεται σε μηχανικούς κυρίως λευκών ανδρών
  • Εφαρμόζονται απαγορεύσεις λέξεων, αλλά οι εμπειρογνώμονες υποστηρίζουν ότι πρέπει να αντιμετωπιστούν θεμελιώδη ζητήματα
  • Ανάγκη για πιο περιεκτικές και διαφοροποιημένες αναπαραστάσεις στα συστήματα τεχνητής νοημοσύνη


Αναλυτικά το άρθρο:
Dinkins: αμφισβητεί τη διαγραφή της ιστορίας που προκαλείται από την προκατειλημμένη τεχνολογία, συνεχίζει με σκεπτικισμό.

Οι εταιρείες τεχνολογίας αναγνωρίζουν ότι οι αλγόριθμοι μηχανικής μάθησης μπορεί να διαιωνίζουν τις διακρίσεις και χρειάζονται βελτίωση.

Η Stephanie Dinkins στο στούντιό της στο Μπρούκλιν. Τα τελευταία επτά χρόνια πειραματίζεται με την ικανότητα της τεχνητής νοημοσύνης να απεικονίζει ρεαλιστικά μαύρες γυναίκες να χαμογελούν και να κλαίνε.

Η καλλιτέχνης Stephanie Dinkins είναι εδώ και καιρό πρωτοπόρος στο συνδυασμό τέχνης και τεχνολογίας στην πρακτική της στο Μπρούκλιν. Τον Μάιο τιμήθηκε με 100.000 δολάρια από το Μουσείο Guggenheim για τις πρωτοποριακές καινοτομίες της, συμπεριλαμβανομένης μιας συνεχιζόμενης σειράς συνεντεύξεων με το Bina48, ένα ανθρωποειδές ρομπότ.

Τα τελευταία επτά χρόνια πειραματίζεται με την ικανότητα της A.I. να απεικονίζει ρεαλιστικά μαύρες γυναίκες, χαμογελαστές και κλαίγοντας, χρησιμοποιώντας μια ποικιλία από λεκτικές προτροπές. Τα πρώτα αποτελέσματα ήταν ανιαρά, αν όχι ανησυχητικά: ο αλγόριθμός της παρήγαγε ένα ανθρωποειδές με ροζ σκιά, καλυμμένο από έναν μαύρο μανδύα.

"Περίμενα κάτι με λίγο περισσότερη υπόσταση της μαύρης γυναίκας", είπε. Και παρόλο που η τεχνολογία έχει βελτιωθεί από τα πρώτα της πειράματα, η Dinkins έπιασε τον εαυτό της να χρησιμοποιεί περιττούς όρους στις προτροπές κειμένου για να βοηθήσει τις γεννήτριες εικόνων της τεχνητής νοημοσύνης να επιτύχουν την επιθυμητή εικόνα της, "για να δώσει στη μηχανή την ευκαιρία να μου δώσει αυτό που ήθελα". Αλλά είτε χρησιμοποιεί τον όρο "Αφροαμερικανίδα" είτε "μαύρη γυναίκα", οι παραμορφώσεις της μηχανής που παραμορφώνουν τα χαρακτηριστικά του προσώπου και την υφή των μαλλιών συμβαίνουν σε υψηλά ποσοστά.

"Οι βελτιώσεις συσκοτίζουν ορισμένα από τα βαθύτερα ερωτήματα που θα έπρεπε να θέτουμε σχετικά με τις διακρίσεις", δήλωσε ο Dinkins. Ο καλλιτέχνης, ο οποίος είναι μαύρος, πρόσθεσε: "Οι προκαταλήψεις ενσωματώνονται βαθιά σε αυτά τα συστήματα, οπότε αυτό γίνεται βαθιά ριζωμένο και αυτόματο. Αν εργάζομαι μέσα σε ένα σύστημα που χρησιμοποιεί αλγοριθμικά οικοσυστήματα, τότε θέλω αυτό το σύστημα να γνωρίζει ποιοι είναι οι μαύροι άνθρωποι με διαφοροποιημένους τρόπους, ώστε να μπορούμε να αισθανόμαστε καλύτερα υποστηριζόμενοι".

Δεν είναι η μόνη που θέτει σκληρά ερωτήματα σχετικά με την ανησυχητική σχέση μεταξύ Α.Ι. και φυλής. Πολλοί μαύροι καλλιτέχνες βρίσκουν ενδείξεις φυλετικής προκατάληψης στην τεχνητή νοημοσύνη, τόσο στα μεγάλα σύνολα δεδομένων που διδάσκουν στις μηχανές πώς να δημιουργούν εικόνες όσο και στα υποκείμενα προγράμματα που εκτελούν τους αλγορίθμους. Σε ορισμένες περιπτώσεις, οι τεχνολογίες της τεχνητής νοημοσύνης φαίνεται να αγνοούν ή να διαστρεβλώνουν τις κειμενικές προτροπές των καλλιτεχνών, επηρεάζοντας τον τρόπο με τον οποίο απεικονίζονται οι μαύροι στις εικόνες, και σε άλλες, φαίνεται να στερεοτυποποιούν ή να λογοκρίνουν την ιστορία και τον πολιτισμό των μαύρων.

Η συζήτηση για τη φυλετική προκατάληψη στο πλαίσιο της τεχνητής νοημοσύνης έχει αυξηθεί τα τελευταία χρόνια, με μελέτες που δείχνουν ότι οι τεχνολογίες αναγνώρισης προσώπου και οι ψηφιακοί βοηθοί δυσκολεύονται να αναγνωρίσουν τις εικόνες και τα πρότυπα ομιλίας μη λευκών ανθρώπων. Οι μελέτες έθεσαν ευρύτερα ζητήματα δικαιοσύνης και προκατάληψης.

Σημαντικές εταιρείες πίσω από γεννήτριες εικόνων τεχνητής νοημοσύνης - συμπεριλαμβανομένων των OpenAI, Stability AI και Midjourney - έχουν δεσμευτεί να βελτιώσουν τα εργαλεία τους. "Η προκατάληψη είναι ένα σημαντικό, βιομηχανικό πρόβλημα", δήλωσε η Alex Beck, εκπρόσωπος της OpenAI, σε συνέντευξη μέσω ηλεκτρονικού ταχυδρομείου, προσθέτοντας ότι η εταιρεία προσπαθεί συνεχώς "να βελτιώσει τις επιδόσεις, να μειώσει την προκατάληψη και να μετριάσει τις επιβλαβείς εξόδους". Αρνήθηκε να πει πόσοι υπάλληλοι εργάζονται για τη φυλετική προκατάληψη ή πόσα χρήματα έχει διαθέσει η εταιρεία για το πρόβλημα.

"Οι μαύροι άνθρωποι έχουν συνηθίσει να είναι αόρατοι", έγραψε η Σενεγαλέζα καλλιτέχνης Linda Dounia Rebeiz σε μια εισαγωγή στην έκθεσή της "In/Visible", για το Feral File, μια αγορά του NFT. "Όταν μας βλέπουν, έχουμε συνηθίσει να μας παραποιούν".

Για να αποδείξει την άποψή της κατά τη διάρκεια μιας συνέντευξης με έναν δημοσιογράφο, η 28χρονη Rebeiz ζήτησε από τη γεννήτρια εικόνων του OpenAI, DALL-E 2, να φανταστεί κτίρια στη γενέτειρά της, το Ντακάρ. Ο αλγόριθμος παρήγαγε άνυδρα τοπία ερήμου και ερειπωμένα κτίρια που, όπως είπε η Rebeiz, δεν είχαν καμία σχέση με τα παραθαλάσσια σπίτια της πρωτεύουσας της Σενεγάλης.

"Είναι αποθαρρυντικό", δήλωσε η Rebeiz. "Ο αλγόριθμος κλίνει προς μια πολιτιστική εικόνα της Αφρικής που έχει δημιουργήσει η Δύση. Προεπιλέγει τα χειρότερα στερεότυπα που υπάρχουν ήδη στο διαδίκτυο".

Πέρυσι, η OpenAI δήλωσε ότι καθιερώνει νέες τεχνικές για τη διαφοροποίηση των εικόνων που παράγει το DALL-E 2, έτσι ώστε το εργαλείο "να παράγει εικόνες ανθρώπων που αντικατοπτρίζουν με μεγαλύτερη ακρίβεια την ποικιλομορφία του παγκόσμιου πληθυσμού".

Ένας καλλιτέχνης που παρουσιάζεται στην έκθεση του Rebeiz, η Minne Atairu είναι υποψήφια διδάκτορας στο Teachers College του Πανεπιστημίου Κολούμπια, η οποία σχεδίαζε να χρησιμοποιήσει γεννήτριες εικόνων με νεαρούς έγχρωμους μαθητές στο Νότιο Μπρονξ. Αλλά τώρα ανησυχεί ότι "αυτό μπορεί να οδηγήσει τους μαθητές να δημιουργήσουν προσβλητικές εικόνες", εξήγησε η Atairu.

H Minne Atairu, καλλιτέχνης και εκπαιδευτικός, στο Armory το 2022 με έργα βασισμένα σε ένα σύνολο δεδομένων από μαύρα μοντέλα που βρέθηκαν σε παλιά μαύρα περιοδικά.Credit...via Minne Atairu
 
Στην έκθεση Feral File περιλαμβάνονται εικόνες από τις "Blonde Braids Studies", οι οποίες διερευνούν τους περιορισμούς του αλγορίθμου Midjourney για την παραγωγή εικόνων μαύρων γυναικών με φυσικά ξανθά μαλλιά. Όταν η καλλιτέχνις ζήτησε μια εικόνα μαύρων πανομοιότυπων διδύμων με ξανθά μαλλιά, το πρόγραμμα παρήγαγε αντ' αυτού ένα αδελφάκι με ανοιχτότερο δέρμα.

"Αυτό μας λέει από πού συγκεντρώνει εικόνες ο αλγόριθμος", δήλωσε η Atairu. "Δεν αντλεί απαραιτήτως από ένα σώμα μαύρων ανθρώπων, αλλά από ένα σώμα που προσανατολίζεται προς τους λευκούς".

Είπε ότι ανησυχεί μήπως τα μικρά μαύρα παιδιά προσπαθήσουν να δημιουργήσουν εικόνες του εαυτού τους και δουν παιδιά των οποίων το δέρμα είναι ανοιχτόχρωμο. Η Atairu υπενθύμισε μερικά από τα προηγούμενα πειράματά της με το Midjourney πριν οι πρόσφατες ενημερώσεις βελτιώσουν τις ικανότητές του. "Δημιούργησε εικόνες που έμοιαζαν με blackface", είπε. "Έβλεπες μια μύτη, αλλά δεν ήταν η μύτη ενός ανθρώπου. Έμοιαζε με τη μύτη ενός σκύλου".

Απαντώντας σε αίτημα σχολιασμού, ο David Holz, ιδρυτής της Midjourney, δήλωσε σε ηλεκτρονικό μήνυμα: "Εάν κάποιος διαπιστώσει κάποιο πρόβλημα με τα συστήματά μας, του ζητάμε να μας στείλει συγκεκριμένα παραδείγματα ώστε να μπορέσουμε να το ερευνήσουμε".

Η Stability AI, η οποία παρέχει υπηρεσίες δημιουργίας εικόνων, δήλωσε ότι σκοπεύει να συνεργαστεί με τη βιομηχανία τεχνητών νοημοσυνών για τη βελτίωση των τεχνικών αξιολόγησης της προκατάληψης με μεγαλύτερη ποικιλία χωρών και πολιτισμών. Η μεροληψία, δήλωσε η εταιρεία A.I., προκαλείται από την "υπερεκπροσώπηση" στα γενικά σύνολα δεδομένων της, αν και δεν διευκρίνισε αν η υπερεκπροσώπηση των λευκών ήταν το ζήτημα εδώ.

Το έργο της Minne Atairu "Blonde Braids Study IV", διερευνά τους περιορισμούς του αλγορίθμου της Midjourney για την παραγωγή εικόνων μαύρων γυναικών με ξανθά μαλλιά. Ένα πείραμα παρήγαγε αντ' αυτού ένα δίδυμο με ανοιχτότερο δέρμα. "Δεν αντλεί απαραίτητα από ένα σώμα μαύρων ανθρώπων, αλλά από ένα σώμα που απευθύνεται σε λευκούς ανθρώπους." Credit...via Minne Atairu

Νωρίτερα αυτό το μήνα, το Bloomberg ανέλυσε περισσότερες από 5.000 εικόνες που παρήγαγε το Stability AI και διαπίστωσε ότι το πρόγραμμά του ενίσχυε τα στερεότυπα σχετικά με τη φυλή και το φύλο, απεικονίζοντας συνήθως ανθρώπους με ανοιχτότερες αποχρώσεις δέρματος ως κατόχους υψηλά αμειβόμενων θέσεων εργασίας, ενώ τα άτομα με σκουρότερες αποχρώσεις δέρματος χαρακτηρίζονταν "λαντζιέρης" και "οικονόμος".

Τα προβλήματα αυτά δεν έχουν σταματήσει τη φρενίτιδα των επενδύσεων στον κλάδο της τεχνολογίας. Μια πρόσφατη ρόδινη έκθεση της εταιρείας συμβούλων McKinsey προέβλεψε ότι η γενεσιουργός τεχνητή νοημοσύνη θα προσθέσει 4,4 τρισεκατομμύρια δολάρια στην παγκόσμια οικονομία ετησίως. Πέρυσι, σχεδόν 3.200 νεοφυείς επιχειρήσεις έλαβαν χρηματοδότηση ύψους 52,1 δισεκατομμυρίων δολαρίων, σύμφωνα με τη βάση δεδομένων GlobalData Deals Database.

Οι εταιρείες τεχνολογίας αγωνίζονται ενάντια στις κατηγορίες για μεροληψία στις απεικονίσεις του σκούρου δέρματος από τις πρώτες ημέρες της έγχρωμης φωτογραφίας τη δεκαετία του 1950, όταν εταιρείες όπως η Kodak χρησιμοποιούσαν λευκά μοντέλα στην ανάπτυξη χρώματος. Πριν από οκτώ χρόνια, η Google απενεργοποίησε τη δυνατότητα του προγράμματος A.I. να επιτρέπει στους ανθρώπους να αναζητούν γορίλες και πιθήκους μέσω της εφαρμογής Photos, επειδή ο αλγόριθμος ταξινόμησε λανθασμένα τους μαύρους ανθρώπους σε αυτές τις κατηγορίες. Μέχρι τον Μάιο του τρέχοντος έτους, το πρόβλημα δεν είχε ακόμη διορθωθεί. Δύο πρώην υπάλληλοι που εργάζονταν πάνω στην τεχνολογία δήλωσαν στους New York Times ότι η Google δεν είχε εκπαιδεύσει το σύστημα τεχνητής νοημοσύνης με αρκετές εικόνες μαύρων ανθρώπων.

Τα πειράματα αυτού του δημοσιογράφου με το DALL-E 2 και την προτροπή "Μαύρη γυναίκα χαμογελάει" παρήγαγαν παραμορφώσεις προσώπου.

Άλλοι ειδικοί που μελετούν την τεχνητή νοημοσύνη δήλωσαν ότι η προκατάληψη είναι βαθύτερη από τα σύνολα δεδομένων, αναφερόμενοι στην πρώιμη ανάπτυξη αυτής της τεχνολογίας τη δεκαετία του 1960.

"Το ζήτημα είναι πιο περίπλοκο από την προκατάληψη των δεδομένων", δήλωσε ο James E. Dobson, πολιτισμικός ιστορικός στο Dartmouth College και συγγραφέας ενός πρόσφατου βιβλίου για τη γέννηση της όρασης των υπολογιστών. Σύμφωνα με την έρευνά του, υπήρχε πολύ λίγη συζήτηση για τη φυλή κατά τις πρώτες ημέρες της μηχανικής μάθησης και οι περισσότεροι επιστήμονες που εργάζονταν πάνω στην τεχνολογία ήταν λευκοί άνδρες.

"Είναι δύσκολο να διαχωρίσουμε τους σημερινούς αλγορίθμους από αυτή την ιστορία, επειδή οι μηχανικοί βασίζονται σε αυτές τις προηγούμενες εκδόσεις", δήλωσε ο Dobson.

Για να μειωθεί η εμφάνιση φυλετικής προκατάληψης και εικόνων μίσους, ορισμένες εταιρείες έχουν απαγορεύσει ορισμένες λέξεις από τις προτροπές κειμένου που υποβάλλουν οι χρήστες στις γεννήτριες, όπως "σκλάβος" και "φασίστας".

Όμως, ο Dobson δήλωσε ότι οι εταιρείες που ελπίζουν σε μια απλή λύση, όπως η λογοκρισία του είδους των προτροπών που μπορούν να υποβάλουν οι χρήστες, αποφεύγουν τα πιο θεμελιώδη ζητήματα προκατάληψης στην υποκείμενη τεχνολογία.

"Είναι μια ανησυχητική περίοδος καθώς αυτοί οι αλγόριθμοι γίνονται όλο και πιο περίπλοκοι. Και όταν βλέπεις να βγαίνουν σκουπίδια, πρέπει να αναρωτιέσαι τι είδους διαδικασία σκουπιδιών εξακολουθεί να κάθεται εκεί μέσα στο μοντέλο", πρόσθεσε ο καθηγητής.

Η Auriea Harvey, καλλιτέχνης που περιλαμβάνεται στην πρόσφατη έκθεση "Refiguring" του Whitney Museum, σχετικά με τις ψηφιακές ταυτότητες, έπεσε πάνω σε αυτές τις απαγορεύσεις για ένα πρόσφατο έργο που χρησιμοποίησε το Midjourney. "Ήθελα να αμφισβητήσω τη βάση δεδομένων σχετικά με το τι γνώριζε για τα δουλεμπορικά πλοία", είπε. "Έλαβα ένα μήνυμα που έλεγε ότι το Midjourney θα ανέστειλε τον λογαριασμό μου αν συνέχιζα".

Η Stephanie Dinkins, εναρκτήρια αποδέκτης του βραβείου LG Guggenheim για τέχνη βασισμένη στην τεχνολογία, στο στούντιό της στο Μπρούκλιν. Λέει ότι δεν εγκαταλείπει την τεχνολογία παρά τα προβλήματα.

Πηγή: Black Artists Say A.I. Shows Bias, With Algorithms Erasing Their History