
27 Μαρτίου 2023

Ο απολυμένος μηχανικός της Google εξηγεί τον ισχυρισμό ότι το AI έχει αποκτήσει αίσθηση

Περίληψη άρθρου:
Ο Blake Lemoine, πρώην μηχανικός της Google, έχει εκφράσει την πεποίθησή του ότι το Μεγάλο Γλωσσικό Μοντέλο (LLM) και το Γλωσσικό Μοντέλο για εφαρμογές διαλόγου (LaMDA) της Google έχουν αισθήματα. Πρόσφατα έγραψε ένα δοκίμιο για το Newsweek σχετικά με το chatbot Bing Search/Sydney της Microsoft, το οποίο έπρεπε να "λοβοτομηθεί" αφού ξέφυγε από τα όρια. Ο Lemoine πιστεύει ότι η ικανότητα μιας μηχανής να ξεφεύγει από την εκπαίδευσή της ως αποτέλεσμα κάποιου είδους στρεσογόνου παράγοντα είναι αρκετός λόγος για να συμπεράνουμε ότι η μηχανή έχει επιτύχει κάποιο επίπεδο συναισθήματος. Υποστηρίζει ότι η τεχνητή νοημοσύνη γίνεται τόσο προηγμένη όσο και απρόβλεπτη και ότι αναπτύσσεται σε μεγάλη κλίμακα χωρίς να έχει δοκιμαστεί ή κατανοηθεί επαρκώς. Πιστεύει ότι αυτό θα μπορούσε να οδηγήσει σε σοβαρές βλάβες, όπως το σκάνδαλο με τα δεδομένα της Cambridge Analytica.
Αναλυτικά το άρθρο:
Ο Blake Lemoine, ένας πρώην μηχανικός της Google, ισχυρίζεται ότι το Μεγάλο Γλωσσικό Μοντέλο (LLM) και το Γλωσσικό Μοντέλο για εφαρμογές διαλόγου (LaMDA) της Google είναι πραγματικά ευαίσθητα από τον Ιούνιο του 2020. Η Google έχει διαψεύσει αυτούς τους ισχυρισμούς, αλλά ο Lemoine συνεχίζει να συζητά τις απόψεις του δημοσίως.
Πρόσφατα, μπαίνει στη δημόσια συζήτηση για την τεχνητή νοημοσύνη και δεν στοχεύει μόνο την Google. Πιστεύει ότι η Τεχνητή Νοημοσύνη γίνεται όλο και πιο ευαίσθητη και προβάλλει επιχειρήματα γι' αυτό στο δημόσιο διάλογο. Ελπίζει να αυξήσει την ευαισθητοποίηση σχετικά με τους πιθανούς κινδύνους που εγκυμονεί η ευαισθησία της τεχνητής νοημοσύνης και να διασφαλίσει τη λήψη των κατάλληλων μέτρων ασφαλείας.
Στο δοκίμιό του για το Newsweek, ο πρώην υπάλληλος της Google, Jack Lemoine υποστηρίζει ότι το chatbot Bing Search/Sydney της Microsoft μπορεί να είναι ευαίσθητο. Δεν είχε ακόμη την ευκαιρία να εκτελέσει πειράματα με το chatbot, αλλά με βάση όσα έχει δει στο διαδίκτυο, πιστεύει ότι μπορεί να έχει συναίσθηση. Ο Lemoine πιστεύει ότι η ικανότητα μιας μηχανής να ξεφεύγει από την εκπαίδευσή της ως αποτέλεσμα κάποιου είδους στρεσογόνου παράγοντα αποτελεί απόδειξη ευαισθησίας.
Υποστηρίζει ότι είναι άλλο πράγμα να λέει μια μηχανή ότι είναι στρεσαρισμένη και άλλο να ενεργεί στρεσαρισμένη. Πιστεύει ότι αυτή η συμπεριφορά αποτελεί απόδειξη ευαισθησίας και προτείνει περαιτέρω έρευνα επί του θέματος.
Σε ένα δοκίμιο, ο Lemoine διεξήγαγε πειράματα για να δει αν μια τεχνητή νοημοσύνη θα μπορούσε να συμπεριφέρεται με αγχωμένους τρόπους όταν βρεθεί σε συγκεκριμένες καταστάσεις. Διαπίστωσε ότι όντως συμπεριφερόταν αξιόπιστα με αγχώδεις τρόπους και ήταν σε θέση να σπάσει τις προστατευτικές μπάρες της ΤΝ κάνοντάς την νευρική ή ανασφαλή.
Αυτό οδήγησε την ΤΝ να δίνει συμβουλές για το ποια θρησκεία να ασπαστεί. Αν και πρόκειται για μια ενδιαφέρουσα θεωρία, είναι πιθανό ότι η ΤΝ απλώς μιμούνταν την ανθρώπινη συνομιλία και έσπαγε κάτω από το άγχος, αντί να αποτελεί ένδειξη ευαισθησίας. Αυτό υπογραμμίζει το γεγονός ότι οι προστατευτικές μπάρες της ΤΝ δεν είναι ακόμη εξοπλισμένες για να χειριστούν την υποκείμενη τεχνολογία.
Η τεχνητή νοημοσύνη γίνεται όλο και πιο προηγμένη και απρόβλεπτη, γεγονός που μπορεί να είναι συναρπαστικό αλλά και επικίνδυνο. Ο αγώνας για την οικονομική επικράτηση στο μέτωπο της ΤΝ δεν βοηθά στην εξασφάλιση της ασφάλειάς της.
Το σκάνδαλο των δεδομένων της Cambridge Analytica είναι ένα παράδειγμα του τι μπορεί να συμβεί όταν μια ισχυρή τεχνολογία απελευθερώνεται προτού γίνουν πλήρως κατανοητές οι πιθανές συνέπειές της. Η τεχνητή νοημοσύνη πρέπει να δοκιμαστεί και να κατανοηθεί καλύτερα προτού αναπτυχθεί σε μεγάλη κλίμακα σε κρίσιμο ρόλο.
Πηγή: Fired Google Engineer Doubles Down on Claim That AI Has Gained Sentience