Αναγνωρίζοντας ότι ορισμένοι άνθρωποι που αντιμετωπίζουν προβλήματα ψυχικής υγείας δεν στρέφονται σε παραδοσιακούς παρόχους βοήθειας, ένας αναπληρωτής καθηγητής του Πανεπιστημίου Temple εξέτασε πώς η τεχνητή νοημοσύνη θα μπορούσε να αξιοποιηθεί για να βοηθήσει στη βελτίωση της πρόσβασης σε πόρους υγειονομικής περίθαλψης. «Το σημείο εκκίνησής μας ήταν ότι η ψυχική υγεία έχει ένα μεγάλο στίγμα στο κοινό και οι άνθρωποι θα ήταν πιο ανοιχτοί στο να αποκαλύψουν τις πληροφορίες τους σε ένα ρομπότ αντί για έναν άνθρωπο», δήλωσε ο Sezgin Ayabakan, υπότροφος Harold Schaefer στο Τμήμα Συστημάτων Διαχείρισης Πληροφοριών στο Fox School of Business.
«Σκεφτήκαμε ότι οι άνθρωποι θα ήταν πιο πρόθυμοι να επικοινωνήσουν με έναν πράκτορα Τεχνητής Νοημοσύνης επειδή μπορεί να πιστεύουν ότι δεν θα κριθούν από τα ρομπότ, επειδή δεν είναι εκπαιδευμένοι να κρίνουν τους ανθρώπους», πρόσθεσε. «Οι άνθρωποι μπορεί να αισθάνονται ότι η κριτική ικανότητα του ανθρώπινου επαγγελματία μπορεί να είναι υψηλή, επομένως μπορεί να μην επικοινωνήσουν». Ωστόσο, μετά από πολλαπλά εργαστηριακά πειράματα, η ερευνητική του ομάδα βρήκε ένα απροσδόκητο αποτέλεσμα.
«Οι άνθρωποι αντιλήφθηκαν τους πράκτορες της Τεχνητής Νοημοσύνης ως πιο επικριτικούς από έναν ανθρώπινο αντίστοιχο, αν και και οι δύο πράκτορες συμπεριφέρονταν ακριβώς με τον ίδιο τρόπο», είπε ο Ayabakan. «Αυτό ήταν το βασικό εύρημα». Οι ερευνητές διεξήγαγαν τέσσερα εργαστηριακά πειράματα για μια μελέτη βινιέτας σε τέσσερις ομάδες των 290 έως 1.105 συμμετεχόντων. Κατά τη διάρκεια των πειραμάτων, στους συμμετέχοντες παρουσιάστηκαν βίντεο μιας συνομιλίας μεταξύ ενός πράκτορα και ενός ασθενούς.
Στη μία ομάδα συμμετεχόντων ειπώθηκε ότι ο πράκτορας ήταν πράκτορας Τεχνητής Νοημοσύνης, ενώ στην άλλη ενημερώθηκε ότι ο πράκτορας ήταν άνθρωπος. «Η μόνη μεταβλητή που άλλαζε ήταν ο τύπος του πράκτορα που αποκαλύπταμε», εξήγησε ο Ayabakan. «Αυτή είναι η ομορφιά των μελετών βινιέτας. Μπορείτε να ελέγξετε όλα τα άλλα πράγματα και αλλάζετε μόνο μία μεταβλητή. Λαμβάνετε την αντίληψη των ανθρώπων με βάση αυτήν την αλλαγή».
Στη συνέχεια, οι ερευνητές διεξήγαγαν μια ποιοτική μελέτη για να κατανοήσουν πώς τα chatbots θεωρούνται πιο επικριτικά. Διεξήγαγαν 41 εις βάθος συνεντεύξεις κατά τη διάρκεια αυτής της μελέτης για να μάθουν γιατί οι άνθρωποι ένιωθαν ότι κρίνονταν από αυτά τα chatbots. «Τα ευρήματά μας υποδηλώνουν ότι οι άνθρωποι δεν πιστεύουν ότι τα chatbots έχουν την κορυφαία συναισθηματική κατανόηση όπως οι ανθρώπινοι ομολόγοι τους», είπε ο Ayabakan.
«Δεν μπορούν να κατανοήσουν σε βάθος επειδή δεν έχουν αυτές τις ανθρώπινες εμπειρίες και τους λείπουν αυτές οι κοινωνικές έννοιες και η συναισθηματική κατανόηση που οδηγούν σε αυξημένη αντιληπτή κριτική ικανότητα». Τα άτομα που συμμετείχαν στις συνεντεύξεις πίστευαν ότι τα chatbot δεν ήταν ικανά να έχουν ενσυναίσθηση, συμπόνια και την ικανότητα να επικυρώνουν τα συναισθήματά τους. «Οι άνθρωποι αισθάνονται ότι αυτοί οι πράκτορες δεν μπορούν να προσφέρουν αυτή την ανθρώπινη επαφή ή αυτή την ανθρώπινη σύνδεση, τουλάχιστον σε ένα πλαίσιο ψυχικής υγείας», συνέχισε ο Ayabakan.
«Το κύριο χαρακτηριστικό είναι ότι οι άνθρωποι αντιλαμβάνονται αυτούς τους πράκτορες για αυτά που δεν μπορούν να κάνουν, αντί για αυτά που μπορούν να κάνουν. Αλλά αν θέλουν να κρίνουν έναν ανθρώπινο πράκτορα, συνήθως τον κρίνουν για αυτά που κάνουν, αντί για αυτά που δεν μπορούν να κάνουν».