Περίληψη άρθρου:
Μια ομάδα επιστημόνων πληροφορικής από την Google, την DeepMind, το ETHZ, το Πανεπιστήμιο Princeton και το Πανεπιστήμιο της Καλιφόρνιας, Berkeley, ανακάλυψε ότι τα συστήματα δημιουργίας εικόνων που βασίζονται στην τεχνητή νοημοσύνη μπορούν μερικές φορές να δημιουργήσουν αντίγραφα των εικόνων που χρησιμοποιούνται για την εκπαίδευσή τους. Οι ερευνητές δοκίμασαν διάφορα συστήματα λογισμικού δημιουργίας εικόνων και διαπίστωσαν ότι σε 1.000 επιστροφές εικόνων επιστράφηκαν περισσότερες από 100 περιπτώσεις αντιγραμμένων εικόνων. Περίπου το 35% των αντιγραμμένων εικόνων είχαν ειδοποιήσεις πνευματικών δικαιωμάτων, ενώ το 65% δεν είχε ρητή ειδοποίηση αλλά φαινόταν πιθανό να ανήκει σε εικόνες που καλύπτονται από τους γενικούς νόμους περί προστασίας πνευματικών δικαιωμάτων. Για να αποφευχθεί αυτό το φαινόμενο, η ομάδα προτείνει την προσθήκη ενός μηχανισμού επισήμανσης στο στάδιο επεξεργασίας κατά το οποίο προστίθεται θόρυβος για να αποτραπεί η επιστροφή εικόνων από σύνολα δεδομένων. Αυτό θα βοηθούσε να διασφαλιστεί ότι δημιουργούνται μόνο νέες εικόνες.



Αναλυτικά το άρθρο:
Το παρόν έγγραφο περιγράφει μια μελέτη που διεξήχθη από μια ομάδα επιστημόνων πληροφορικής από την Google, την DeepMind, το ETHZ, το Πανεπιστήμιο Princeton και το Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ.

Η ομάδα δοκίμασε διάφορα συστήματα δημιουργίας εικόνων βασισμένα στην τεχνητή νοημοσύνη για να διαπιστώσει αν μπορούσαν να δημιουργήσουν αντίγραφα των εικόνων που χρησιμοποιήθηκαν για την εκπαίδευσή τους.

Τα αποτελέσματα της μελέτης έδειξαν ότι τα συστήματα δημιουργίας εικόνων με βάση την τεχνητή νοημοσύνη ήταν σε θέση να δημιουργήσουν αντίγραφα των εικόνων εκπαίδευσης. Η εργασία έχει δημοσιευτεί στον διακομιστή arXiv preprint.

Η έρευνα αυτή είναι σημαντική, καθώς δείχνει ότι τα συστήματα παραγωγής εικόνων που βασίζονται στην Τεχνητή Νοημοσύνη μπορούν να χρησιμοποιηθούν για τη δημιουργία αντιγράφων των εικόνων που χρησιμοποιήθηκαν για την εκπαίδευσή τους.

Τα συστήματα δημιουργίας εικόνων έχουν κερδίσει πρόσφατα την προσοχή λόγω της ικανότητάς τους να δημιουργούν εικόνες υψηλής ανάλυσης με βάση προτροπές φυσικής γλώσσας. Τα συστήματα αυτά εκπαιδεύονται σε χιλιάδες εικόνες ως πρότυπα.

Ωστόσο, οι ερευνητές διαπίστωσαν ότι αυτά τα συστήματα μπορεί μερικές φορές να κάνουν λάθος και να επιστρέψουν μία από τις εικόνες από τα δεδομένα εκπαίδευσής τους αντί να δημιουργήσουν μια νέα εικόνα. Αυτό συνέβη περισσότερες από 100 φορές από τις 1.000 επιστροφές εικόνων κατά τη διάρκεια των δοκιμών τους.

Αυτό δείχνει ότι ενώ τα συστήματα αυτά είναι ισχυρά, δεν είναι τέλεια και χρειάζονται ακόμη περαιτέρω ανάπτυξη.

Τα συστήματα δημιουργίας εικόνων με βάση την τεχνητή νοημοσύνη έχουν ένα πρόβλημα με την παραβίαση πνευματικών δικαιωμάτων.

Κατά τη διάρκεια των δοκιμών, η ομάδα διαπίστωσε ότι το 35% των εικόνων που αντιγράφηκαν είχαν ειδοποιήσεις για τα πνευματικά δικαιώματα, ενώ το 65% δεν είχε ρητή ειδοποίηση, αλλά φαινόταν πιθανό να καλύπτονται από τους γενικούς νόμους περί προστασίας των πνευματικών δικαιωμάτων.

Για να αποφευχθεί αυτό, οι παραγωγοί τέτοιων προϊόντων πρέπει να προσθέσουν μια άλλη δικλείδα ασφαλείας, όπως έναν μηχανισμό επισήμανσης. Η ομάδα σημείωσε επίσης ότι μερικές φορές ένα σύστημα πρόσθεσε θόρυβο σε μια αντιγραμμένη εικόνα, καθιστώντας πιο δύσκολο να διαπιστωθεί ότι πρόκειται για αντίγραφο.

Ως εκ τούτου, οι παραγωγοί πρέπει να το γνωρίζουν αυτό και να λαμβάνουν μέτρα για να το αποτρέψουν.

Πηγή: Testing shows AI-based image generation systems can sometimes generate copies of trainer data