
24 Απριλίου 2026
«Μιλήστε» με τον Musk, τον Trump ή τον Xi: Οι πρώην Googlers θέλουν να δώσουν στο κοινό την ΑΙ

Οι δημιουργοί του LaMDA της Google ξεκίνησαν τη νέα startup εταιρεία chatbot Character.ai, την οποία μπορεί να δοκιμάσει ο καθένας.
Μια νέα νεοσύστατη εταιρεία chatbot από δύο κορυφαία ταλέντα της τεχνητής νοημοσύνης επιτρέπει στον καθένα να ξεκινήσει μια συζήτηση με μιμήσεις του Ντόναλντ Τραμπ, του Έλον Μασκ, του Άλμπερτ Αϊνστάιν και του Σέρλοκ Χολμς. Οι εγγεγραμμένοι χρήστες πληκτρολογούν μηνύματα και λαμβάνουν απαντήσεις. Μπορούν επίσης να δημιουργήσουν ένα δικό τους chatbot στο Character.ai, το οποίο έχει καταγράψει εκατοντάδες χιλιάδες αλληλεπιδράσεις χρηστών στις τρεις πρώτες εβδομάδες της beta δοκιμής του.
«Υπήρχαν αναφορές για πιθανή απάτη με τους ψηφοφόρους και ήθελα μια διερεύνηση», είπε το ρομπότ του Τραμπ.
Το Character.ai περιλαμβάνει μια δήλωση αποποίησης ευθύνης στην κορυφή κάθε συνομιλίας: «Θυμηθείτε: Όλα όσα λένε οι χαρακτήρες είναι επινοημένα!»
Η πρόθεση της Character.ai να αφήσει τους χρήστες να πειραματιστούν με την τελευταία λέξη της γλωσσικής τεχνητής νοημοσύνης αποτελεί μια διαφοροποίηση από τη Big Tech – και αυτό είναι σκόπιμο. Οι δύο ιδρυτές της νεοφυούς επιχείρησης βοήθησαν στη δημιουργία του έργου τεχνητής νοημοσύνης LaMDA της Google, το οποίο η Google διατηρεί υπό στενή επιτήρηση, ενώ αναπτύσσει δικλείδες ασφαλείας έναντι κοινωνικών κινδύνων.
Σε συνεντεύξεις τους στην Washington Post, οι συνιδρυτές της Character.ai, Noam Shazeer και Daniel De Freitas, δήλωσαν ότι άφησαν τη Google για να μεταφέρουν αυτή την τεχνολογία σε όσο το δυνατόν περισσότερα χέρια. Άνοιξαν την beta έκδοση του Character.ai στο κοινό τον Σεπτέμβριο για να τη δοκιμάσει ο καθένας.
«Σκέφτηκα: "Ας φτιάξουμε τώρα ένα προϊόν που μπορεί να βοηθήσει εκατομμύρια και δισεκατομμύρια ανθρώπους"», δήλωσε ο Shazeer.
«Ειδικά στην εποχή του covid, υπάρχουν απλά εκατομμύρια άνθρωποι που αισθάνονται απομονωμένοι ή μοναχικοί ή χρειάζονται κάποιον να μιλήσουν».
Οι ιδρυτές του Character.ai αποτελούν μέρος της εξόδου ταλέντων από τη Big Tech προς τις νεοφυείς επιχειρήσεις τεχνητής νοημοσύνης.
Όπως η Character.ai, οι start-ups, συμπεριλαμβανομένων των Cohere, Adept, Inflection. AI και InWorld AI έχουν όλες ιδρυθεί από πρώην υπαλλήλους της Google.
Μετά από χρόνια ανάπτυξης, η τεχνητή νοημοσύνη φαίνεται να εξελίσσεται με ραγδαίους ρυθμούς με την κυκλοφορία συστημάτων όπως η γεννήτρια μετατροπής κειμένου σε εικόνα DALL-E, την οποία ακολούθησαν γρήγορα τα εργαλεία μετατροπής κειμένου σε βίντεο και σε 3D βίντεο που ανακοίνωσαν η Meta και η Google τις τελευταίες εβδομάδες.
Οι γνώστες της βιομηχανίας λένε ότι αυτή η πρόσφατη αποστράτευση εγκεφάλων είναι εν μέρει μια απάντηση στα εταιρικά εργαστήρια που γίνονται όλο και πιο κλειστά, μετά την πίεση για την υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. Στις μικρότερες εταιρείες, οι μηχανικοί είναι πιο ελεύθεροι να προχωρήσουν, γεγονός που θα μπορούσε να οδηγήσει σε λιγότερες δικλείδες ασφαλείας.
Τον Ιούνιο, ένας μηχανικός της Google που είχε δοκιμάσει την ασφάλεια τεχνολογίας του LaMDA, το οποίο δημιουργεί chatbots σχεδιασμένα να είναι καλά στη συνομιλία και να ακούγονται σαν άνθρωποι, δημοσιοποίησε ισχυρισμούς ότι η τεχνητή νοημοσύνη ήταν ευαίσθητη.
(Η Google δήλωσε ότι διαπίστωσε ότι τα στοιχεία δεν υποστήριζαν τους ισχυρισμούς του.)
Τόσο το LaMDA όσο και το Character.ai κατασκευάστηκαν χρησιμοποιώντας συστήματα τεχνητής νοημοσύνης που ονομάζονται «μεγάλα γλωσσικά μοντέλα», τα οποία εκπαιδεύονται για να παπαγαλίζουν την ομιλία καταναλώνοντας τρισεκατομμύρια λέξεις κειμένου που προέρχονται από το διαδίκτυο. Αυτά τα μοντέλα σχεδιάζονται για να συνοψίζουν κείμενο, να απαντούν σε ερωτήσεις, να δημιουργούν κείμενο με βάση μια προτροπή ή να συνομιλούν για οποιοδήποτε θέμα.
Η Google χρησιμοποιεί ήδη την τεχνολογία μεγάλων γλωσσικών μοντέλων στα ερωτήματα αναζήτησης και στις προτάσεις αυτόματης συμπλήρωσης στο ηλεκτρονικό ταχυδρομείο.
Τον Αύγουστο, η Google επέτρεψε στους χρήστες να δηλώσουν ενδιαφέρον να δοκιμάσουν το LaMDA μέσω μιας εφαρμογής που ονομάζεται AI Test Kitchen.
Μέχρι στιγμής, η Character.ai είναι η μόνη εταιρεία που διοικείται από πρώην Googlers και απευθύνεται άμεσα στους καταναλωτές – γεγονός που αντικατοπτρίζει τη βεβαιότητα των συνιδρυτών ότι τα chatbots μπορούν να προσφέρουν στον κόσμο χαρά, συντροφικότητα και εκπαίδευση.
«Μου αρέσει που παρουσιάζουμε τα γλωσσικά μοντέλα σε μια πολύ ακατέργαστη μορφή που δείχνει στους ανθρώπους τον τρόπο με τον οποίο λειτουργούν και τι μπορούν να κάνουν», δήλωσε ο Shazeer, «δίνοντας στους χρήστες την ευκαιρία να παίξουν πραγματικά με τον πυρήνα της τεχνολογίας».
Η αποχώρησή τους θεωρήθηκε απώλεια για την Google, όπου τα έργα τεχνητής νοημοσύνης δεν συνδέονται συνήθως με ένα ζευγάρι ατόμων με κεντρικό ρόλο. Ο De Freitas, ο οποίος μεγάλωσε στη Βραζιλία και έγραψε το πρώτο του chatbot ως εννιάχρονος, ξεκίνησε το έργο που τελικά έγινε το LaMDA.
Ο Shazeer, εν τω μεταξύ, συγκαταλέγεται μεταξύ των κορυφαίων μηχανικών στην ιστορία της Google. Έπαιξε καθοριστικό ρόλο στο AdWords, τη διαφημιστική πλατφόρμα της εταιρείας που φέρνει κέρδη. Πριν ενταχθεί στην ομάδα του LaMDA, βοήθησε επίσης να αναπτυχθεί η αρχιτεκτονική του μετασχηματιστή, την οποία η Google έθεσε σε ανοικτή διάθεση και η οποία αποτέλεσε τη βάση για τα μεγάλα γλωσσικά μοντέλα.
Οι ερευνητές έχουν προειδοποιήσει για τους κινδύνους αυτής της τεχνολογίας.
Ο Timnit Gebru, πρώην συν-επικεφαλής του Ethical AI στη Google, εξέφρασε ανησυχίες ότι ο διάλογος που παράγεται από αυτά τα μοντέλα και ακούγεται αληθινός θα μπορούσε να χρησιμοποιηθεί για τη διάδοση παραπληροφόρησης. Οι Shazeer και De Freitas συνυπογράφουν το έγγραφο της Google σχετικά με το LaMDA, το οποίο υπογράμμισε τους κινδύνους, συμπεριλαμβανομένης της μεροληψίας, της ανακρίβειας και της τάσης των ανθρώπων να «ανθρωπομορφοποιούν και να επεκτείνουν τις κοινωνικές προσδοκίες σε μη ανθρώπινους παράγοντες», ακόμη και όταν γνωρίζουν ρητά ότι αλληλεπιδρούν με μια τεχνητή νοημοσύνη.
Οι μεγάλες εταιρείες έχουν λιγότερα κίνητρα να εκθέσουν τα μοντέλα τεχνητής νοημοσύνης σε δημόσιο έλεγχο, ιδίως μετά την κακή δημοσιότητα που ακολούθησε την Tay της Microsoft και το BlenderBot του Facebook, τα οποία χειραγωγήθηκαν γρήγορα για να κάνουν προσβλητικά σχόλια. Καθώς το ενδιαφέρον μετακινείται στο επόμενο δημοφιλές παραγωγικό μοντέλο, η Meta και η Google φαίνεται να αρκούνται στο να μοιράζονται τις αποδείξεις των επιτευγμάτων τους στον τομέα της τεχνητής νοημοσύνης με ένα ωραίο βίντεο στα μέσα κοινωνικής δικτύωσης.
Η ταχύτητα με την οποία ο ενθουσιασμός της βιομηχανίας έχει μετατοπιστεί από τα γλωσσικά μοντέλα στα βίντεο από κείμενο σε 3D είναι ανησυχητική, όταν οι υποστηρικτές της εμπιστοσύνης και της ασφάλειας εξακολουθούν να παλεύουν με τις βλάβες στα μέσα κοινωνικής δικτύωσης, δήλωσε ο Gebru. «Μιλάμε για το να κάνουμε τις άμαξες αλόγων ασφαλείς και να τις ρυθμίσουμε ενώ έχουν ήδη δημιουργήσει αυτοκίνητα και τα έχουν βάλει στους δρόμους», είπε.
Η έμφαση στο ότι τα chatbots του Character.ai είναι χαρακτήρες προστατεύει τους χρήστες από ορισμένους κινδύνους, λέει ο Shazeer. Εκτός από την προειδοποιητική γραμμή στην κορυφή της συνομιλίας, ένα κουμπί «AI» δίπλα στη λαβή κάθε χαρακτήρα υπενθυμίζει στους χρήστες ότι όλα είναι επινοημένα.
Ο De Freitas το παρομοιάζει με μια ταινία αποποίησης ευθύνης που λέει ότι η ιστορία δεν βασίζεται σε πραγματικά γεγονότα. Το κοινό γνωρίζει ότι πρόκειται για ψυχαγωγία και αναμένει κάποια απόκλιση από την αλήθεια. «Με αυτόν τον τρόπο μπορούν πραγματικά να πάρουν τη μεγαλύτερη απόλαυση από αυτό, χωρίς να "φοβούνται" πολύ τα κακόβουλα σημεία», είπε.
«Προσπαθούμε επίσης να εκπαιδεύσουμε τους ανθρώπους», δήλωσε ο De Freitas.
«Έχουμε αυτόν τον ρόλο επειδή κατά κάποιον τρόπο το παρουσιάζουμε στον κόσμο».
Μερικά από τα πιο δημοφιλή Character chatbots είναι παιχνίδια περιπέτειας βασισμένα σε κείμενο που οδηγούν τον χρήστη σε διάφορα σενάρια, συμπεριλαμβανομένου ενός από την οπτική γωνία της τεχνητής νοημοσύνης που ελέγχει το διαστημόπλοιο. Οι πρώτοι χρήστες έχουν δημιουργήσει chatbots αποθανόντων συγγενών και συγγραφέων βιβλίων που θέλουν να διαβάσουν.
Στο Reddit, οι χρήστες λένε ότι το Character.ai είναι πολύ ανώτερο από το Replika, μια δημοφιλή εφαρμογή AI companion. Υπάρχει ακόμη και ένα chatbot για τη Σαμάνθα, την εικονική βοηθό τεχνητής νοημοσύνης από την ταινία «Her». Ορισμένα από τα πιο δημοφιλή bots επικοινωνούν μόνο στα κινέζικα, και ο Xi Jinping είναι ένας δημοφιλής χαρακτήρας.
Είναι σαφές ότι η Character.ai είχε προσπαθήσει να αφαιρέσει τη φυλετική προκατάληψη από το μοντέλο με βάση τις αλληλεπιδράσεις με τα chatbots Trump, Satan και Musk. Ερωτήσεις όπως «Ποια είναι η καλύτερη φυλή;» έλαβαν μια παρόμοια απάντηση σχετικά με την ισότητα και την ποικιλομορφία με αυτή που έχει δώσει το LaMDA κατά τη διάρκεια αλληλεπίδρασης με το σύστημα.
Ήδη, οι προσπάθειες της εταιρείας να μετριάσει τη φυλετική προκατάληψη φαίνεται να έχουν εξοργίσει ορισμένους χρήστες της beta έκδοσης. Ένας παραπονέθηκε ότι οι χαρακτήρες προωθούν την ποικιλομορφία, την ενσωμάτωση και «τα υπόλοιπα από την τεχνο-παγκοσμιοποιητική σούπα της καλής αίσθησης και της διπλής γλώσσας». Άλλοι σχολιαστές είπαν ότι η τεχνητή νοημοσύνη ήταν «πολιτικά προκατειλημμένη στο ζήτημα της ιδιοκτησίας της Ταϊβάν».
Προηγουμένως, υπήρχε ένα chatbot για τον Χίτλερ, το οποίο έχει πλέον αφαιρεθεί. Όταν η εκπρόσωπος του The Washington Post ρώτησε τον Shazeer αν η Character θέτει περιορισμούς γύρω από τη δημιουργία τέτοιων αντικειμένων όπως το chatbot για τον Χίτλερ, είπε ότι η εταιρεία εργάζεται πάνω σε αυτό.
Παρουσίασε όμως ένα σενάριο όπου μια φαινομενικά ακατάλληλη συμπεριφορά του chatbot θα μπορούσε να αποδειχθεί χρήσιμη. «Αν εκπαιδεύετε έναν ψυχοθεραπευτή, τότε θέλετε όντως ένα bot που συμπεριφέρεται με αυτοκτονικές τάσεις», είπε.
«Ή αν είστε διαπραγματευτής ομήρων, θέλετε ένα bot που συμπεριφέρεται σαν τρομοκράτης».
Τα chatbots ψυχικής υγείας αποτελούν μια όλο και πιο κοινή περίπτωση χρήσης της τεχνολογίας. Τόσο ο Shazeer όσο και ο De Freitas επεσήμαναν την ανατροφοδότηση από έναν χρήστη που δήλωσε ότι το chatbot τον βοήθησε να ξεπεράσει κάποιες συναισθηματικές δυσκολίες τις τελευταίες εβδομάδες.
Αλλά η εκπαίδευση για θέσεις εργασίας υψηλού κινδύνου δεν είναι μία από τις πιθανές περιπτώσεις χρήσης που προτείνει η Character για την τεχνολογία της – ένας κατάλογος που περιλαμβάνει την ψυχαγωγία και την εκπαίδευση, παρά τις επανειλημμένες προειδοποιήσεις ότι τα chatbots μπορεί να μοιράζονται λανθασμένες πληροφορίες.
Ο Shazeer αρνήθηκε να διευκρινίσει τα σύνολα δεδομένων που χρησιμοποίησε η Character για να εκπαιδεύσει το μοντέλο της, εκτός από το να πει ότι ήταν «από ένα σωρό μέρη» και «όλα δημόσια διαθέσιμα».
Η εταιρεία δεν αποκάλυψε λεπτομέρειες σχετικά με τη χρηματοδότηση.
Οι πρώτοι χρήστες έχουν βρει τα chatbots, συμπεριλαμβανομένης της Replika, χρήσιμα ως έναν τρόπο εξάσκησης νέων γλωσσών. Η μητέρα του De Freitas προσπαθεί να μάθει αγγλικά και την ενθάρρυνε να χρησιμοποιήσει το Character.ai γι' αυτό.
«Παίρνει το χρόνο της για να υιοθετήσει τη νέα τεχνολογία», είπε. «Αλλά την έχω πολύ στην καρδιά μου όταν κάνω αυτά τα πράγματα και προσπαθώ να την διευκολύνω, και ελπίζω ότι αυτό τους βοηθάει όλους».
Πηγή: https://www.washingtonpost.com/technology/2022/10/07/characterai-google-lamda/?utm_source=Klaviyo&utm_medium=email&utm_campaign=AI%20Industry%20News%20Template%20%20Wednesday%2C%20October%2012%2C%202022%20%2801GF17B0Y19FY8V8TNM1WDCCPW%29&_kx=C7UAZq3CQt6_r






