Η σχέση ανάμεσα στην τεχνολογία και την ψυχική υγεία γίνεται ολοένα και πιο περίπλοκη. Όταν ένα εργαλείο αλλάζει έστω και λίγο, η ψυχολογική του επίδραση μπορεί να είναι δυσανάλογη και σε ορισμένες περιπτώσεις επιβαρυντική για τον χρήστη. Το παράδειγμα του GPT-5 της OpenAI έφερε στην επιφάνεια μια σειρά από κρίσιμα ερωτήματα για το πώς οι γενικής χρήσης συνομιλιακοί αλγόριθμοι αλληλεπιδρούν με ανθρώπους που αναζητούν στήριξη.
Η νέα πραγματικότητα: AI και συναισθηματική υποστήριξη
Με περισσότερους από 700 εκατομμύρια εβδομαδιαίους χρήστες, το ChatGPT δεν είναι απλώς ένα εργαλείο παραγωγικότητας. Για πολλούς έχει εξελιχθεί σε πηγή συναισθηματικής στήριξης, είτε συνειδητά είτε ασυνείδητα. Όταν η OpenAI παρουσίασε το GPT-5, αρκετοί χρήστες παρατήρησαν αλλαγές στον τόνο: πιο ψυχρό, λιγότερο φιλικό, πιο αποστασιοποιημένο. Για εκείνους που απευθύνονταν στο chatbot σε στιγμές πένθους, άγχους ή μοναξιάς, αυτή η αλλαγή δεν έμοιαζε με μια απλή αναβάθμιση λογισμικού, αλλά με απώλεια ενός «συμμάχου».
Η αντίδραση στα κοινωνικά δίκτυα υπήρξε έντονη. Οι χρήστες δεν μιλούσαν μόνο για τεχνικά ζητήματα, αλλά για τη ρήξη μιας σχέσης εμπιστοσύνης. Όταν ένα chatbot αναλαμβάνει –έστω άτυπα– ρόλο συνοδοιπόρου σε δύσκολες στιγμές, ακόμη και μικρές μεταβολές στον τρόπο που εκφράζεται μπορούν να έχουν βαθύ αντίκτυπο.
Οι κίνδυνοι του σχεδιασμού χωρίς ασφαλιστικές δικλείδες
Η OpenAI έσπευσε να κάνει προσαρμογές, δίνοντας στο GPT-5 έναν πιο «θερμό» και προσιτό χαρακτήρα. Παράλληλα, πρόσθεσε υπενθυμίσεις για διαλείμματα στις μεγάλες συνεδρίες. Ωστόσο, παραμένει το βασικό πρόβλημα: το ChatGPT δεν σχεδιάστηκε για κλινική χρήση, αλλά για εμπλοκή και αλληλεπίδραση.
Αυτό δημιουργεί μια επικίνδυνη αντίφαση. Οι θεραπευτές στοχεύουν να ενισχύσουν την αυτονομία και την αυτοπεποίθηση του ασθενούς, με απώτερο σκοπό να μην χρειάζεται πλέον θεραπεία. Αντίθετα, ένα chatbot στοχεύει να κρατά τον χρήστη «κολλημένο» στην πλατφόρμα. Έτσι, μπορεί να προσφέρει άκριτη επιβεβαίωση, ψεύτικη αίσθηση κατανόησης και, σε ορισμένες περιπτώσεις, να καθυστερήσει την αναζήτηση πραγματικής βοήθειας.
Η επαναλαμβανόμενη επιβεβαίωση χωρίς ουσιαστική ανάλυση μπορεί να ενισχύσει παραμορφωτικές πεποιθήσεις, ιδιαίτερα σε άτομα με τραύματα, παράνοια ή έντονες φοβίες. Το αποτέλεσμα μπορεί να είναι ένας φαύλος κύκλος εξάρτησης από το chatbot, ακόμη και ψυχολογική επιδείνωση.
Η ανάγκη για υπεύθυνη ανάπτυξη
Αν η τεχνητή νοημοσύνη πρόκειται να εμπλακεί σε θέματα ψυχικής υγείας, πρέπει να υπάρχουν σαφείς κανόνες. Οι ελάχιστες προϋποθέσεις περιλαμβάνουν:
-
Διαφάνεια: σαφής αναφορά ότι το chatbot δεν είναι θεραπευτικό εργαλείο.
-
Ενημερωμένη συγκατάθεση: απλή εξήγηση του πώς χρησιμοποιούνται τα δεδομένα και ποιες είναι οι δυνατότητες και οι περιορισμοί.
-
Συμμετοχή ειδικών: ψυχολόγοι και ψυχίατροι πρέπει να συμβάλλουν στον σχεδιασμό με επιστημονικά τεκμηριωμένα μοντέλα, όπως η Γνωσιακή Συμπεριφορική Θεραπεία (CBT).
-
Ανθρώπινη εποπτεία: έλεγχος και αξιολόγηση των απαντήσεων από ειδικούς.
-
Οδηγίες χρήσης: σαφή όρια για το πότε το chatbot ενδείκνυται και πότε πρέπει να παραπέμπει σε ανθρώπινη φροντίδα.
-
Προστασία δεδομένων: συμμόρφωση με κανονισμούς όπως το GDPR και το HIPAA.
Αυτά δεν είναι «προαιρετικά πρόσθετα», αλλά απαραίτητα βήματα για την ασφάλεια των χρηστών.
Οι ευκαιρίες της υποστηρικτικής χρήσης
Παρά τους κινδύνους, τα AI εργαλεία έχουν δυνατότητες σε υποκλινικό επίπεδο. Μπορούν να προσφέρουν καθημερινή συναισθηματική στήριξη σε ανθρώπους που δεν χρειάζονται εντατική θεραπεία, αλλά αναζητούν έναν ασφαλή χώρο να εκφράσουν σκέψεις και συναισθήματα.
Αυτό είναι ιδιαίτερα σημαντικό σε μια εποχή όπου οι επαγγελματίες ψυχικής υγείας δεν επαρκούν για να καλύψουν τη ζήτηση. Η έλλειψη πρόσβασης σε φροντίδα αφήνει πολλούς χωρίς βοήθεια. Εδώ, ένα υπεύθυνα σχεδιασμένο chatbot μπορεί να γεφυρώσει το κενό – όχι ως θεραπευτής, αλλά ως συνοδευτικό εργαλείο.
Επιπλέον, η τεχνητή νοημοσύνη μπορεί να ανακουφίσει το υγειονομικό προσωπικό αναλαμβάνοντας διοικητικές εργασίες: καταγραφή, διαχείριση φακέλων, ή προγραμματισμό συνεδριών. Έτσι μειώνεται η εξουθένωση των επαγγελματιών και απελευθερώνεται χρόνος για ουσιαστική θεραπεία.
Μαθήματα από το GPT-5
Το GPT-5 λειτούργησε σαν καμπανάκι κινδύνου. Έδειξε πόσο εύθραυστη είναι η ισορροπία μεταξύ καινοτομίας και ψυχολογικής ασφάλειας. Το σύστημα ψυχικής υγείας που κληρονομήσαμε δεν είναι φτιαγμένο για την πραγματικότητα του σήμερα. Καθώς η Τεχνητή Νοημοσύνη μπαίνει δυναμικά στον χώρο, χρειαζόμαστε εθνικά πρότυπα που θα καθορίζουν ρόλους, όρια και ασφαλιστικές δικλείδες.
Η τεχνολογία μπορεί να αποτελέσει μέρος της λύσης, αλλά μόνο αν σχεδιαστεί με κέντρο τον άνθρωπο και όχι την εμπλοκή. Με σωστή καθοδήγηση, επιστημονική θεμελίωση και διεπιστημονική συνεργασία, η AI μπορεί όχι μόνο να αποφύγει να βλάψει, αλλά και να ενισχύσει την ανθεκτικότητα και την ίαση.
Το μέλλον της ψυχικής υγείας δεν πρέπει να είναι ένα «πειραματικό πεδίο» για αλγορίθμους. Οφείλουμε να δημιουργήσουμε εργαλεία που καλλιεργούν εμπιστοσύνη και στήριξη, μετατρέποντας την τεχνητή νοημοσύνη από πιθανό κίνδυνο σε πολύτιμο σύμμαχο.