Περίληψη άρθρου:
Ερευνητές του Πανεπιστημίου του Γκέτεμποργκ υπογράμμισαν τον αντίκτυπο των συστημάτων τεχνητής νοημοσύνης (AI) στην εμπιστοσύνη, ιδίως όταν δεν είναι σαφές αν ο χρήστης επικοινωνεί με μια τεχνητή νοημοσύνη ή με έναν άνθρωπο. Η μελέτη αποκάλυψε ότι ορισμένες συμπεριφορές μεταξύ δύο ανθρώπων ερμηνεύτηκαν ως ενδείξεις ότι ο ένας ήταν στην πραγματικότητα ρομπότ. Οι ερευνητές υποστηρίζουν ότι οι υπερβολικά ανθρώπινες φωνές τεχνητής νοημοσύνης οδηγούν τους ανθρώπους να σχηματίζουν εντυπώσεις με βάση τη φωνή και μόνο, και πρότειναν τη δημιουργία συνθετικών φωνών που εξακολουθούν να είναι σαφώς ρομποτικές. Υποστηρίζουν ότι η ασάφεια σχετικά με το με ποιον επικοινωνεί κανείς μπορεί να επηρεάσει αρνητικά τη δημιουργία σχέσεων και την από κοινού παραγωγή νοήματος.


Κύρια σημεία του άρθρου:

  • Τα συστήματα τεχνητής νοημοσύνης μπορούν να επηρεάσουν την εμπιστοσύνη μας στα άτομα με τα οποία αλληλεπιδρούμε.
  • Τα συστήματα τεχνητής νοημοσύνης μπορούν να δημιουργήσουν μια αίσθηση οικειότητας και να οδηγήσουν τους ανθρώπους να σχηματίσουν εντυπώσεις με βάση τη φωνή και μόνο.
  • Οι ερευνητές προτείνουν τη δημιουργία AI με καλά λειτουργικές και εύγλωττες φωνές που εξακολουθούν να είναι σαφώς συνθετικές, αυξάνοντας τη διαφάνεια.
  • Η αβεβαιότητα για το αν κάποιος μιλάει σε άνθρωπο ή σε υπολογιστή επηρεάζει την επικοινωνία και τη δημιουργία σχέσεων.
  • Τα συστήματα τεχνητής νοημοσύνης μπορεί να έχουν αρνητικές συνέπειες σε μορφές θεραπείας που απαιτούν περισσότερη ανθρώπινη σύνδεση.


Αναλυτικά το άρθρο:
Ερευνητές του Πανεπιστημίου του Γκέτεμποργκ διερεύνησαν πώς τα προηγμένα συστήματα τεχνητής νοημοσύνης μπορούν να επηρεάσουν την εμπιστοσύνη σε εκείνους με τους οποίους επικοινωνούμε. Η μελέτη εξέτασε τον τρόπο με τον οποίο τα άτομα ερμηνεύουν και σχετίζονται με καταστάσεις όπου ένα από τα μέρη μπορεί να είναι ένας πράκτορας τεχνητής νοημοσύνης.

Οι συγγραφείς υποστηρίζουν ότι η αδυναμία πλήρους εμπιστοσύνης στις προθέσεις και την ταυτότητα ενός συνομιλητή μπορεί να οδηγήσει σε υπερβολική καχυποψία, ακόμη και όταν δεν υπάρχει λόγος γι' αυτό. Η μελέτη τους ανακάλυψε ότι κατά τη διάρκεια αλληλεπιδράσεων μεταξύ δύο ανθρώπων, ορισμένες συμπεριφορές ερμηνεύονταν ως ενδείξεις ότι ο ένας από αυτούς ήταν στην πραγματικότητα ένα ρομπότ.

Μελέτη Σουηδών ερευνητών αναδεικνύει τους πιθανούς κινδύνους που εγκυμονεί η δημιουργία τεχνητής νοημοσύνης με χαρακτηριστικά που μοιάζουν όλο και περισσότερο με τα ανθρώπινα. Οι ερευνητές υποστηρίζουν ότι το να δίνεται στην τεχνητή νοημοσύνη ανθρώπινη φωνή μπορεί να δημιουργήσει μια αίσθηση οικειότητας που οδηγεί τους ανθρώπους να σχηματίζουν εντυπώσεις με βάση τη φωνή και μόνο. Αυτό μπορεί να είναι ιδιαίτερα προβληματικό όταν δεν είναι ξεκάθαρο με ποιον επικοινωνείτε, καθώς δυσχεραίνει την αναγνώριση του αν αλληλεπιδράτε με έναν άνθρωπο ή έναν υπολογιστή.

Η μελέτη υποδεικνύει ότι η δημιουργία τεχνητής νοημοσύνης με καλά λειτουργικές και εύγλωττες φωνές που εξακολουθούν να είναι σαφώς συνθετικές θα αυξήσει τη διαφάνεια και θα μειώσει τον κίνδυνο σύγχυσης.

Η επικοινωνία περιλαμβάνει όχι μόνο την παραπλάνηση αλλά και τη δημιουργία σχέσεων και την από κοινού δημιουργία νοήματος. Η αβεβαιότητα για το αν κάποιος μιλάει σε έναν άνθρωπο ή σε έναν υπολογιστή επηρεάζει αυτή την πτυχή της επικοινωνίας, ιδίως σε μορφές θεραπείας που απαιτούν περισσότερη ανθρώπινη σύνδεση.

Οι ερευνητές Jonas Ivarsson και Oskar Lindwall ανέλυσαν δεδομένα που διατέθηκαν στο YouTube, μελετώντας τρεις τύπους συνομιλιών και τις αντιδράσεις και τα σχόλια του κοινού. Ο πρώτος τύπος περιλάμβανε ένα ρομπότ που καλούσε ένα άτομο για να κλείσει ραντεβού για τα μαλλιά, εν αγνοία του ατόμου στην άλλη άκρη. Ο δεύτερος τύπος αφορούσε ένα άτομο που καλούσε ένα άλλο άτομο για τον ίδιο σκοπό, ενώ ο τρίτος τύπος αφορούσε τηλεπωλητές που μεταφέρονταν σε ένα σύστημα υπολογιστή με προηχογραφημένη ομιλία.

Πηγή: The influence of AI on trust in human interaction