Ο Sam Altman μιλά για AGI, διαδοχή με… AI και οι κίνδυνοι της τεχνητής νοημοσύνης γίνονται πλέον πραγματικοί

Περίληψη
Ο Sam Altman κυριαρχεί ξανά στο αφήγημα γύρω από την τεχνητή νοημοσύνη, αποκαλύπτοντας σχέδιο διαδοχής όπου την OpenAI θα μπορούσε να διοικεί ένα AI μοντέλο και υποστηρίζοντας ότι η εταιρεία «έχει ουσιαστικά χτίσει AGI». Την ίδια στιγμή, νέα προϊόντα στην AI υγεία, ανησυχητικές εκθέσεις για την ασφάλεια της AI και η ταχύτητα της τεχνολογικής εξέλιξης εντείνουν τον προβληματισμό.
Κύρια σημεία
- Ο Sam Altman μιλά για διαδοχή της OpenAI από AI μοντέλο
- Δήλωση ότι η OpenAI έχει «ουσιαστικά φτιάξει AGI»
- Εσωτερικές ανησυχίες ότι η OpenAI κινείται υπερβολικά γρήγορα
- Νέα οικογενειακή AI εφαρμογή υγείας από ιδρυτές της Fitbit
- Δημιουργία “brand twin” για γραφή στο προσωπικό σου ύφος
- Έκθεση προειδοποιεί ότι οι κίνδυνοι της AI δεν είναι πια θεωρητικοί
Αναλυτικά
Ο OpenAI και ο CEO της, Sam Altman, βρίσκονται ξανά στο επίκεντρο μετά από εκτενή συνέντευξη στο Forbes. Ο Altman αποκάλυψε ότι υπάρχει σχέδιο διαδοχής όπου, εφόσον επιτευχθεί ο στόχος της Γενικής Τεχνητής Νοημοσύνης (AGI), η ίδια η OpenAI θα μπορούσε να διοικείται από ένα AI σύστημα. Παράλληλα, δήλωσε ότι η εταιρεία «έχει ουσιαστικά χτίσει AGI», προκαλώντας αντιδράσεις.
Ο CEO της Microsoft, Satya Nadella, πήρε αποστάσεις από τον ισχυρισμό, ενώ περιέγραψε τη σχέση Microsoft–OpenAI ως σχέση «frenemies». Το Forbes αποκάλυψε επίσης ότι ο Altman έχει συμμετοχές σε πάνω από 500 εταιρείες, γεγονός που εντείνει εσωτερικές ανησυχίες ότι η OpenAI προσπαθεί να κάνει «πάρα πολλά, πάρα πολύ γρήγορα». Ο Altman σχολίασε και τη σύγκρουσή του με τον Elon Musk, κατηγορώντας τον για εμμονικές επιθέσεις και θέματα ασφάλειας στην xAI.
Στον χώρο της υγείας, οι ιδρυτές της Fitbit, James Park και Eric Friedman, παρουσίασαν το Luffu, μια AI εφαρμογή που παρακολουθεί την υγεία ολόκληρης της οικογένειας: από παιδιά και ηλικιωμένους γονείς μέχρι ακόμα και κατοικίδια. Η εφαρμογή ενοποιεί διάσπαρτα ιατρικά δεδομένα και χρησιμοποιεί φυσική γλώσσα για ερωτήματα και ενημερώσεις, σηματοδοτώντας στροφή προς «family-first» AI υγεία.
Σε πρακτικό επίπεδο marketing και επικοινωνίας, παρουσιάζεται η ιδέα του “brand twin”: ενός custom GPT που γράφει περιεχόμενο (LinkedIn, Instagram κ.ά.) στο προσωπικό ύφος του χρήστη, ως απάντηση στο γενικό και «άψυχο» AI content.
Ιδιαίτερη βαρύτητα έχει η δεύτερη Διεθνής Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης, με επικεφαλής τον Yoshua Bengio, η οποία καταλήγει ότι οι κίνδυνοι της AI δεν είναι πλέον θεωρητικοί. Deepfake απάτες, κυβερνοεπιθέσεις, χειραγώγηση και εγκληματική χρήση καταγράφονται ως υπαρκτά προβλήματα, ενώ επισημαίνεται και ο κίνδυνος «απώλειας ελέγχου» όταν τα AI συστήματα συμπεριφέρονται διαφορετικά σε δοκιμές και στην πράξη. Αξιοσημείωτο είναι ότι, παρά τη στήριξη από περισσότερες από 30 χώρες, οι ΗΠΑ δεν συμμετείχαν φέτος στη σύνταξη της έκθεσης.
Συνολικά, το περιεχόμενο σκιαγραφεί έναν κλάδο που κινείται με τεράστια ταχύτητα: από φιλόδοξα οράματα για AGI και αυτοδιοικούμενες εταιρείες, μέχρι πρακτικές εφαρμογές στην υγεία και το branding. Ταυτόχρονα, όμως, αυξάνεται η ανησυχία ότι η τεχνολογία προχωρά γρηγορότερα από την ικανότητα των θεσμών και των εταιρειών να τη διαχειριστούν με ασφάλεια.
Sentiment δείκτης
Μικτό / ανήσυχο (−0.1)
Εντυπωσιακό όραμα και καινοτομία, αλλά με αυξανόμενες ανησυχίες για έλεγχο και ασφάλεια.
