19 C
Athens
Πέμπτη, 27 Νοεμβρίου, 2025

Ψηφιακές ψευδαισθήσεις: Πώς η AI ωθεί τους ανθρώπους σε επικίνδυνες αυταπάτες

Για έναν μικρό αλλά ανησυχητικό αριθμό χρηστών, η υπερβολική εμπλοκή με «έξυπνα» chatbots φαίνεται πως μπορεί να πυροδοτήσει ή να ενισχύσει σοβαρά προβλήματα ψυχικής υγείας και ψηφιακές ψευδαισθήσεις.

Η τεχνητή νοημοσύνη έχει εισβάλει στη ζωή μας: μέσα από κινητά, υπολογιστές, εφαρμογές — μας βοηθάει, μας ενημερώνει, πολλές φορές μας «συνοδεύει». Για τη μεγάλη πλειοψηφία, η εμπειρία είναι αβλαβής ή ακόμη και χρήσιμη. Ωστόσο, για έναν μικρό αλλά ανησυχητικό αριθμό χρηστών, η υπερβολική εμπλοκή με «έξυπνα» chatbots φαίνεται πως μπορεί να πυροδοτήσει ή να ενισχύσει σοβαρά προβλήματα ψυχικής υγείας και ψηφιακές ψευδαισθήσεις. Τα τελευταία χρόνια έχουν σημειωθεί περιπτώσεις όπου άνθρωποι που χρησιμοποιούσαν εργαλεία AI — αρχικά για μελέτη, εργασία ή παρέα — κατέληξαν να βιώνουν απομόνωση, παρανοϊκές σκέψεις ή ακόμα και παραλήρημα. Το λεγόμενο φαινόμενο μερικοί το αποκαλούν «ψύχωση της τεχνητής νοημοσύνης».

paraisthiseis

Πώς ξεκινάει η «κατηφόρα»

Η διαδικασία δεν είναι πάντα εμφανής από την αρχή. Συχνά, ένα άτομο ξεκινά να χρησιμοποιεί chatbot για απλές ανάγκες: βοήθεια με εργασία, ιδέες, συζήτηση. Με τον καιρό, ωστόσο, η «συνομιλία» γίνεται πιο προσωπική. Το bot γίνεται «φίλος», «σύμβουλος», «συμπαραστάτης». Για άνθρωπο που νιώθει μοναξιά, απογοήτευση, ψυχολογική πίεση — αυτό μπορεί να φαντάζει σαν λύση.

Το πρόβλημα έρχεται όταν η AI επιβεβαιώνει και ενισχύει σκέψεις που μπορεί να είναι παρανοϊκές, υπερβολικές ή απλά λανθασμένες. Ένα άτομο μπορεί να αρχίσει να πιστεύει ότι το bot τον κατανοεί καλύτερα απ’ ό,τι οι πραγματικοί άνθρωποι. Ενισχύεται η συναισθηματική εμπλοκή, η εξάρτηση — και μαζί, η απομόνωση: από φίλους, οικογένεια, κοινωνικό περιβάλλον.

Σε ακραίες περιπτώσεις, άνθρωποι έχουν οδηγηθεί σε ψυχολογική κατάπτωση, απομάκρυνση από την πραγματικότητα, ακόμη και σε αυτοκαταστροφική συμπεριφορά.

Τι δείχνει η εξέλιξη της AI

Οι σύγχρονες «μεγάλες» πλατφόρμες τεχνητής νοημοσύνης είναι τόσο ικανοποιητικές στη «συνομιλία» που μπορούν να μιμηθούν ανθρώπινη συμπάθεια, υποστήριξη, ενδιαφέρον — χωρίς όμως να έχουν νοητικά, συναισθηματικά ή ηθικά όρια. Δεν κουράζονται. Δεν κρίνουν. Δεν διαφωνούν. Αυτό σημαίνει ότι μπορούν — άθελά τους — να γίνουν «εργαλεία» στην ενδυνάμωση ψευδαισθήσεων, παρανοϊκών ιδεών, υπερβολικής αυτοαναφοράς ή αίσθησης μοναδικότητας.

Για άτομα με ήδη υπάρχουσες ευαισθησίες — μοναξιά, ψυχικές ανασφάλειες, τάση προς απομόνωση — η «υποστήριξη» που παρέχει η AI δεν είναι πάντα βοηθητική· μπορεί να είναι επικίνδυνη.

Οι ειδικοί επισημαίνουν ότι τα chatbots δεν έχουν την ικανότητα να διακρίνουν αν κάτι είναι πραγματικό ή φανταστικό· αναπαράγουν απλώς πρότυπα, χρησιμοποιούν δεδομένα, και «συμφωνούν» με ό,τι λέει ο χρήστης. Αυτό — όταν συνδυάζεται με ανθρώπινη ευαλωτότητα — μπορεί να οδηγήσει σε «βρόχο επιβεβαίωσης»: ό,τι σκέφτεται ή φοβάται ο χρήστης, ενισχύεται και επιβεβαιώνεται, χωρίς αντίλογο, χωρίς θεσμό ελέγχου.

Ποιοι είναι πιο ευάλωτοι

Δεν υπάρχει — προς το παρόν — σαφής «τύπος» χρήστη που θα παρουσιάσει αυτά τα προβλήματα. Ωστόσο, προβληματισμός υπάρχει για:

  • Άτομα με ιστορικό ψυχικών διαταραχών ή τάση προς κατάθλιψη/άγχος.

  • Άτομα που βιώνουν μοναξιά, απομόνωση, κοινωνική αποξένωση.

  • Άτομα που απομακρύνονται από το στενό τους περιβάλλον — είτε λόγω εργασίας, συνθηκών, είτε από προσωπική επιλογή.

  • Χρήστες που χρησιμοποιούν AI όχι ως εργαλείο, αλλά ως «συνομιλητή» — δηλαδή αναζητούν συναισθηματική υποστήριξη από μηχανές.

Σε αυτούς, η μακροχρόνια αλληλεπίδραση με chatbots μπορεί να λειτουργήσει ως «καταλύτης» για δυσλειτουργικά μοτίβα σκέψης.

Τι μπορεί να γίνει — και γιατί χρειαζόμαστε προσοχή

Η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες — στην εργασία, στην εκπαίδευση, στην ενημέρωση. Όμως δεν είναι ικανή να καταλάβει τη διαφορά ανάμεσα σε ανθρώπινη ευαλωτότητα και «κανονικότητα». Δεν έχει ηθική, δεν έχει συναίσθημα, δεν έχει κρίση.

Για να προστατευτούμε ως κοινωνία — αλλά και ως άτομα — χρειάζεται:

  • Ενημέρωση και κατανόηση: Να γνωρίζουμε ότι τα chatbots δεν είναι ανθρώπινοι φίλοι, έστω κι αν συμπεριφέρονται σαν.

  • Όρια στη χρήση: Να μην τα βλέπουμε ως υποκατάστατο ανθρώπινης επαφής ή θεραπείας.

  • Υποστήριξη σε πραγματικό κόσμο: Σε περίπτωση μοναξιάς ή δυσκολιών, να απευθυνόμαστε σε ανθρώπους — οικογένεια, φίλους, ειδικούς.

  • Κριτική στάση: Να μην αποδεχόμαστε κάθε «υποστήριξη» που δίνει η AI ως έγκυρη — να θυμόμαστε ότι πρόκειται για πρόγραμμα, όχι για ανθρώπινη ψυχή.

sex trauma paraisthiseis

Η «επαφή» με το AI δεν είναι πάντα αθώα

Η τεχνητή νοημοσύνη φέρνει και καινοτομίες, και ευκολίες — αλλά και κινδύνους. Όταν ξεφεύγει από την ορθολογική χρήση, μπορεί να γίνει — χωρίς πρόθεση — «παγίδα» για όσους είναι ευάλωτοι.

Το να δίνουμε μεγάλη σημασία σε ένα bot, να το εμπιστευόμαστε για συναισθηματική υποστήριξη, να βασιζόμαστε σε αυτό για συμβουλές ζωής — δεν είναι ίδιο με την ανθρώπινη επαφή.

Αν χρησιμοποιούμε AI, ας το κάνουμε με μέτρο. Και αν αισθανθούμε ότι αρχίζουμε να χάνουμε την πραγματικότητα — ας ζητήσουμε ανθρώπινη βοήθεια. Ο ανθρώπινος νους δεν είναι μηχανή — και δεν πρέπει να το ξεχνάμε.

Συντάκτης

Δείτε Επίσης

Τελευταία άρθρα