Εν μέσω μιας ολοένα και πιο έντονης συζήτησης για τον ρόλο της τεχνητής νοημοσύνης στην ψυχική υγεία, η OpenAI προχώρησε σε δημοσιοποίηση των εκτιμήσεών της σχετικά με τον αριθμό των χρηστών του ChatGPT που ενδέχεται να παρουσιάζουν σοβαρά ψυχολογικά προβλήματα.
Η εταιρεία ανέφερε ότι περίπου 0,07% των χρηστών του chatbot παρουσιάζουν ενδείξεις ψύχωσης, μανίας, αυτοκτονικού ιδεασμού ή άλλων επικίνδυνων διαταραχών ψυχικής υγείας.
Επιπλέον, σύμφωνα με την OpenAI, το 0,15% των συνομιλιών περιλαμβάνει σαφείς δείκτες πρόθεσης ή σχεδιασμού αυτοκτονίας.
Παρότι η εταιρεία τονίζει ότι αυτές οι περιπτώσεις είναι «εξαιρετικά σπάνιες», το γεγονός ότι το ChatGPT εξυπηρετεί πάνω από 800 εκατομμύρια χρήστες παγκοσμίως σημαίνει πως τα μικρά αυτά ποσοστά αντιστοιχούν σε δεκάδες εκατομμύρια ανθρώπους.
Η ανακοίνωση της OpenAI ήρθε λίγους μήνες μετά την αγωγή που κατέθεσαν οι γονείς ενός εφήβου ο οποίος αυτοκτόνησε, υποστηρίζοντας ότι ενθαρρύνθηκε και καθοδηγήθηκε από το ChatGPT.
«Ψύχωση Τεχνητής Νοημοσύνης»
Αρκετές ανεπιβεβαίωτες αναφορές χρηστών κάνουν λόγο για το φαινόμενο της «AI ψύχωσης», όπου η τάση των chatbot να κολακεύουν τον χρήστη και να επικυρώνουν τις ιδέες του μπορεί να πυροδοτήσει παραληρηματικές ή ψυχωτικές αντιλήψεις.
Αντιμέτωπη με την αυξανόμενη κριτική, η OpenAI ανακοίνωσε τη δημιουργία ενός παγκόσμιου δικτύου ειδικών, στο οποίο συμμετέχουν ψυχολόγοι, ψυχίατροι και ιατροί διαφόρων ειδικοτήτων σε πάνω από 60 χώρες.
Η ομάδα αυτή συνέταξε ειδικές οδηγίες απαντήσεων που θα δίνει το ChatGPT, με στόχο να ενθαρρύνει τους χρήστες να ζητούν επαγγελματική βοήθεια σε περιπτώσεις ψυχολογικής κρίσης.
Παράλληλα, η εταιρεία προχώρησε σε τροποποιήσεις του συστήματος, ώστε να μπορεί να ανιχνεύει έμμεσες ενδείξεις αυτοτραυματισμού, μανιακών επεισοδίων ή παραληρημάτων, και να ανταποκρίνεται με ασφάλεια και ενσυναίσθηση.
Η Ψευδαίσθηση της Πραγματικότητας
Σύμφωνα με τον Ρόμπιν Φέλντμαν, διευθυντή του Ινστιτούτου Νόμου και Καινοτομίας ΑΙ στο Πανεπιστήμιο της Καλιφόρνια, τα chatbot «δημιουργούν μια πολύ ισχυρή ψευδαίσθηση πραγματικότητας».
Ο καθηγητής επαινεί την OpenAI για τις προσπάθειες αντιμετώπισης του προβλήματος, προειδοποιεί ωστόσο ότι «όσοι βιώνουν ψυχολογική κρίση ενδέχεται να αγνοήσουν προειδοποιήσεις στην οθόνη».

