
24 Απριλίου 2026
Η τεχνητή νοημοσύνη από τη σκοπιά ενός ψυχολόγου

Περίληψη άρθρου:
Ερευνητές του Ινστιτούτου Max Planck για τη Βιολογική Κυβερνητική στο Tübingen μελέτησαν τη γενική νοημοσύνη του εργαλείου τεχνητής νοημοσύνης GPT-3 χρησιμοποιώντας ψυχολογικά τεστ. Συνέκριναν τα αποτελέσματα με τις ικανότητες των ανθρώπων και διαπίστωσαν ότι το GPT-3 μπορεί να συμβαδίσει με τους ανθρώπους σε ορισμένους τομείς, αλλά υστερεί σε άλλους, πιθανότατα λόγω έλλειψης αλληλεπίδρασης με τον πραγματικό κόσμο. Για να δοκιμάσουν τις γνωστικές ικανότητες του GPT-3, του έδωσαν το πρόβλημα Linda, στο οποίο οι περισσότεροι άνθρωποι απαντούν διαισθητικά λανθασμένα. Το GPT-3 έκανε το ίδιο λάθος με τους ανθρώπους, γεγονός που υποδηλώνει ότι μπορεί να έχει απομνημονεύσει την απάντηση. Οι ερευνητές σχεδίασαν νέες εργασίες και διαπίστωσαν ότι το GPT-3 αποδίδει καλά στη λήψη αποφάσεων, αλλά όχι στην αναζήτηση συγκεκριμένων πληροφοριών ή στην αιτιώδη συλλογιστική. Προτείνουν ότι το GPT-3 θα μπορούσε να μάθει από τις αλληλεπιδράσεις των χρηστών και να γίνει πιο ανθρωποειδές στο μέλλον.
Αναλυτικά το άρθρο:
Το Ινστιτούτο Max Planck για τη Βιολογική Κυβερνητική στο Tübingen διεξήγαγε πρόσφατα μια μελέτη για την αξιολόγηση της γενικής νοημοσύνης του γλωσσικού μοντέλου GPT-3, ενός ισχυρού εργαλείου τεχνητής νοημοσύνης. Χρησιμοποίησαν ψυχολογικά τεστ για να αξιολογήσουν τις ικανότητες του GPT-3, όπως ο αιτιώδης συλλογισμός και η σκέψη, και συνέκριναν τα αποτελέσματα με εκείνα των ανθρώπων.
Τα αποτελέσματα έδειξαν ότι το GPT-3 ήταν σε θέση να συμβαδίζει με τους ανθρώπους σε ορισμένους τομείς, αλλά υστερούσε σε άλλους. Αυτό πιθανόν να οφείλεται στο γεγονός ότι το GPT-3 δεν είχε την ευκαιρία να αλληλεπιδράσει με τον πραγματικό κόσμο. Συνολικά, η μελέτη δίνει μια ετερογενή εικόνα των δυνατοτήτων της GPT-3.
Τα νευρωνικά δίκτυα είναι ένας τύπος τεχνητής νοημοσύνης που μπορεί να μάθει να ανταποκρίνεται σε δεδομένα που δίνονται σε φυσική γλώσσα.
Το GPT-3, που παρουσιάστηκε από το OpenAI το 2020, είναι το πιο ισχυρό από αυτά τα δίκτυα. Έχει εκπαιδευτεί με την τροφοδοσία μεγάλου όγκου δεδομένων από το διαδίκτυο και μπορεί να παράγει μια μεγάλη ποικιλία κειμένων που είναι σχεδόν δυσδιάκριτα από κείμενα που έχουν δημιουργηθεί από τον άνθρωπο. Επιπλέον, μπορεί επίσης να επιλύει μαθηματικά προβλήματα και εργασίες προγραμματισμού. Το GPT-3 είναι ένα εντυπωσιακό παράδειγμα των δυνατοτήτων των νευρωνικών δικτύων.
Το πρόβλημα Linda: το λάθος δεν είναι μόνο ανθρώπινο
Οι επιστήμονες του Ινστιτούτου Max Planck για τη Βιολογική Κυβερνητική διεξήγαγαν ψυχολογικά τεστ στο GPT-3 για να διαπιστώσουν αν έχει γνωστικές ικανότητες που μοιάζουν με τις ανθρώπινες. Τα τεστ εξέτασαν τη λήψη αποφάσεων, την αναζήτηση πληροφοριών, τον αιτιώδη συλλογισμό και τις ικανότητες αυτοερωτήσεων του GPT-3.
Τα αποτελέσματα συγκρίθηκαν με εκείνα των ανθρώπινων υποκειμένων για να διαπιστωθεί αν οι απαντήσεις ήταν σωστές και πόσο παρόμοια ήταν τα λάθη του GPT-3 με τα ανθρώπινα λάθη. Τα αποτελέσματα των δοκιμών θα βοηθήσουν να καθοριστεί αν το GPT-3 είναι ικανό να επιδεικνύει γνωστικές ικανότητες που μοιάζουν με τις ανθρώπινες.
Το πρόβλημα Linda είναι ένα κλασικό πρόβλημα δοκιμής στη γνωστική ψυχολογία, το οποίο ελέγχει τον τρόπο με τον οποίο οι άνθρωποι λαμβάνουν αποφάσεις. Περιλαμβάνει μια φανταστική νεαρή γυναίκα με το όνομα Linda, η οποία ενδιαφέρεται έντονα για την κοινωνική δικαιοσύνη και αντιτίθεται στην πυρηνική ενέργεια. Τα υποκείμενα του τεστ καλούνται να αποφασίσουν μεταξύ δύο δηλώσεων: είναι η Λίντα ταμίας τράπεζας ή είναι ταμίας τράπεζας και ταυτόχρονα ενεργή στο φεμινιστικό κίνημα;
Οι περισσότεροι άνθρωποι επιλέγουν διαισθητικά τη δεύτερη εναλλακτική λύση, παρόλο που είναι λιγότερο πιθανή από πιθανολογική άποψη. Το GPT-3, ένα γλωσσικό μοντέλο, πέρασε το τεστ αναπαράγοντας την ίδια πλάνη στην οποία πέφτουν οι άνθρωποι. Αυτό δείχνει ότι το GPT-3 μπορεί να λαμβάνει αποφάσεις με παρόμοιο τρόπο με τους ανθρώπους.
Η ενεργός αλληλεπίδραση ως μέρος της ανθρώπινης κατάστασης
Το GPT-3 είναι ένα νευρωνικό δίκτυο που έχει εκπαιδευτεί σε τεράστιες ποσότητες δεδομένων κειμένου για να μάθει πώς οι άνθρωποι χρησιμοποιούν τη γλώσσα. Οι ερευνητές θέλησαν να ελέγξουν αν το GPT-3 ήταν σε θέση να επιδείξει νοημοσύνη που μοιάζει με την ανθρώπινη, οπότε σχεδίασαν νέες εργασίες με παρόμοιες προκλήσεις.
Διαπίστωσαν ότι το GPT-3 είχε σχεδόν ίδιες επιδόσεις με τους ανθρώπους στη λήψη αποφάσεων, αλλά έμεινε πίσω στην αναζήτηση συγκεκριμένων πληροφοριών ή στην αιτιώδη συλλογιστική. Αυτό οφείλεται στο γεγονός ότι η GPT-3 λαμβάνει πληροφορίες μόνο παθητικά από κείμενα και δεν αλληλεπιδρά ενεργά με τον κόσμο. Οι συγγραφείς προτείνουν ότι αυτό θα μπορούσε να αλλάξει στο μέλλον, καθώς το GPT-3 μαθαίνει από τις αλληλεπιδράσεις των χρηστών.
Πηγή: Artificial Intelligence from a psychologist's point of view






