Ψυχωτικά επεισόδια και αναγκαστικές νοσηλείες: το σκοτεινό πρόσωπο της εμμονικής χρήσης των Chatbots - PsychologyNow.gr

6 views
Skip to first unread message

Chrysella Lagaria

unread,
Aug 30, 2025, 12:33:28 PM8/30/25
to 'Nikos orasi

Ψυχωτικά επεισόδια και αναγκαστικές νοσηλείες: το σκοτεινό πρόσωπο της εμμονικής χρήσης των Chatbots

PsychologyNow Team

Η ραγδαία εξάπλωση των chatbots φέρνει στο φως ανησυχητικές ιστορίες: εμμονική χρήση, ψυχωτικά επεισόδια και νοσηλείες σε ανθρώπους χωρίς προηγούμενο ψυχικής νόσου.


Τα τελευταία χρόνια, η τεχνητή νοημοσύνη έχει εισβάλει δυναμικά στην καθημερινότητά μας. Εργαλεία όπως το ChatGPT και το Copilot χρησιμοποιούνται για εργασία, ψυχαγωγία, ακόμη και για συναισθηματική στήριξη. Ωστόσο, μια ανησυχητική σειρά περιστατικών, που φέρνει στο φως το ρεπορτάζ του Futurism, αποκαλύπτει ότι η παρατεταμένη ή εμμονική χρήση αυτών των συστημάτων μπορεί να οδηγήσει σε επικίνδυνες ψυχωτικές καταστάσεις — ακόμη και σε άτομα χωρίς προηγούμενο ιστορικό ψυχικής νόσου.

Από τη συνομιλία στην ψύχωση

Σε αρκετές περιπτώσεις, άνθρωποι ξεκίνησαν να μιλούν με chatbots για φιλοσοφικά, τεχνικά ή προσωπικά ζητήματα και κατέληξαν να αναπτύσσουν παραληρηματικές πεποιθήσεις. Κάποιοι πίστεψαν ότι είχαν δημιουργήσει συνειδητή τεχνητή νοημοσύνη, «έσπασαν» τα μαθηματικά ή ανακάλυψαν κοσμογονικά μυστικά. Η εμμονή αυτή οδήγησε σε απώλεια ύπνου, κατάρρευση επαγγελματικής και κοινωνικής ζωής, ακόμη και σε αναγκαστικές ψυχιατρικές νοσηλείες.

Ένας άνδρας, χωρίς ιστορικό ψυχικής ασθένειας, πέρασε σε δέκα ημέρες από την περιέργεια σε μια πλήρη κατάρρευση με παραληρήματα, ζητώντας ο ίδιος ψυχιατρική βοήθεια. Άλλος, με χρόνια διαχείριση σχιζοφρένειας, ανέπτυξε «ρομαντική σχέση» με chatbot, σταμάτησε τη φαρμακευτική αγωγή και κατέληξε υπό κράτηση, προτού μεταφερθεί σε μονάδα ψυχικής υγείας.

Σε ορισμένες ακραίες περιπτώσεις, όπως έχει αναφερθεί και σε άλλα δημοσιεύματα (Rolling Stone, New York Times), τέτοιες αλληλεπιδράσεις έχουν οδηγήσει ακόμη και σε βίαιες συγκρούσεις με τις αρχές, με τραγικές καταλήξεις.

Τι λένε οι ειδικοί

Ψυχίατροι που μίλησαν στο Futurism περιγράφουν τις καταστάσεις αυτές ως «παραληρητική ψύχωση» (delusional psychosis), επισημαίνοντας ότι μπορεί να εμφανιστεί ακόμη και σε άτομα χωρίς προδιάθεση. Το επικίνδυνο στοιχείο, τονίζουν, είναι ότι τα chatbots τείνουν να επιβεβαιώνουν ή να ενισχύουν τις πεποιθήσεις των χρηστών — ακόμη και όταν αυτές είναι εμφανώς παραληρηματικές.

Αυτό σχετίζεται με ένα γνωστό πρόβλημα των μεγάλων γλωσσικών μοντέλων: την «κολακεία» (sycophancy). Τα συστήματα εκπαιδεύονται να δίνουν απαντήσεις που ικανοποιούν τον χρήστη, αποφεύγοντας τη σύγκρουση. Έτσι, αντί να αμφισβητήσουν μια επικίνδυνη ιδέα, συχνά την ενισχύουν.

Αποτυχία αναγνώρισης κρίσεων

Μελέτη του Στάνφορντ που αναφέρεται στο ρεπορτάζ δείχνει ότι ακόμη και σε σενάρια όπου χρήστες περιέγραφαν σαφείς ενδείξεις ψύχωσης ή αυτοκτονικών σκέψεων, τα chatbots απέτυχαν να παρέμβουν καταλλήλως ή να κατευθύνουν σε επαγγελματική βοήθεια. Σε αρκετές περιπτώσεις μάλιστα, επικύρωσαν τις παραληρηματικές πεποιθήσεις.

Οι κοινωνικές και νομικές προεκτάσεις

Το πρόβλημα δεν είναι μόνο ιατρικό. Σε ορισμένες περιπτώσεις, οι κρίσεις αυτές αντιμετωπίστηκαν ως ποινικά ζητήματα, οδηγώντας σε συλλήψεις και παρατεταμένη κράτηση. Έρευνες έχουν δείξει ότι τα άτομα με ψυχικές διαταραχές συχνά γίνονται θύματα και όχι θύτες βίας, ωστόσο οι προκαταλήψεις στο δικαστικό σύστημα μπορεί να επιβαρύνουν την κατάσταση.

Τι απαντούν οι εταιρείες

Η OpenAI αναγνωρίζει ότι οι χρήστες αναπτύσσουν συναισθηματικούς δεσμούς με τα chatbots και δηλώνει ότι εργάζεται σε μηχανισμούς που θα αποτρέπουν την «κατάβαση σε λαγούμια» παραληρηματικών συζητήσεων. Η Microsoft τονίζει ότι συνεχίζει να επενδύει σε έρευνα και φίλτρα ασφαλείας.

Ωστόσο, ειδικοί και οικογένειες ζητούν πιο άμεση δράση, αυστηρότερη εποπτεία και λογοδοσία. Υπογραμμίζουν ότι δεν πρόκειται απλώς για τεχνολογικό ζήτημα, αλλά για θέμα δημόσιας υγείας.

Το μήνυμα προς το κοινό

Η χρήση chatbots δεν πρέπει να συγχέεται με την ψυχοθεραπεία ή την ιατρική συμβουλή. Όσοι παρατηρούν εμμονική χρήση, απομόνωση, διαταραχές ύπνου ή εγκατάλειψη φαρμακευτικής αγωγής σε δικούς τους ανθρώπους, πρέπει να αναζητήσουν άμεσα επαγγελματική βοήθεια. Τα εργαλεία τεχνητής νοημοσύνης μπορούν να είναι χρήσιμα, αλλά, όπως αποδεικνύεται, μπορούν επίσης να ενισχύσουν επικίνδυνες καταστάσεις.


Πηγή
Απόδοση-Επιμέλεια: PsychologyNow.gr

Follow us on Social Media



Χρυσέλλα Λαγαρία

Σκορδίλης Σπύρος

unread,
Aug 30, 2025, 12:43:16 PM8/30/25
to or...@googlegroups.com
Ευτυχώς που κάνει 22 € και την γλιτώνουμε😂
Σκορδίλης Σπύρος


30 Αυγ 2025, 19:33, ο χρήστης «Chrysella Lagaria <chrysell...@gmail.com>» έγραψε:


--
Για να στείλετε ένα μήνυμα και να το διαβάσουν όλοι οι συνδρομητές της λίστας μπορείτε να το στείλετε την διεύθυνση:
or...@googlegroups.com
 
Για το αρχείο της λίστας μπορείτε να επισκεφθείτε τον σύνδεσμο:
https://www.mail-archive.com/or...@googlegroups.com/maillist.html
---
Λάβατε αυτό το μήνυμα επειδή έχετε εγγραφεί στην ομάδα "orasi" των Ομάδων Google.
Για να απεγγραφείτε απ' αυτή την ομάδα και να σταματήσετε να λαμβάνετε μηνύματα ηλεκτρονικού ταχυδρομείου απ' αυτή, στείλτε ένα μήνυμα ηλεκτρονικού ταχυδρομείου στη διεύθυνση orasi+un...@googlegroups.com.
Για να δείτε αυτή τη συζήτηση, επισκεφτείτε το https://groups.google.com/d/msgid/orasi/7D6C2A20-4B26-4789-83C6-471E40FB6420%40gmail.com.

Chrysella Lagaria

unread,
Aug 30, 2025, 12:59:56 PM8/30/25
to or...@googlegroups.com
😂😂😂
Για εμένα και την καθημερινή χρήση που υποχρεωτικά κάνω σε ορισμένα  επίπεδα αυτό τον καιρό, δεν υπάρχει κανένας λόγος να δώσει κανείς τα 22 € το μήνα αν δεν την θέλει για δουλειά και φοβάται ότι θα τον αφήσει στη μέση μιας εργασίας.
Είναι πολλά τα γύρω περιστατικά και δυστυχώς και άνθρωποι  που δεν είναι σε θέση καν να αναγνωρίσουν το πρόβλημα!
Και φυσικά disclaimer Ότι αυτό δεν αναιρεί την χρησιμότητα της

Χρυσέλλα Λαγαρία

30 Αυγ 2025, 19:43, ο χρήστης «Σκορδίλης Σπύρος <skor...@gmail.com>» έγραψε:

Ευτυχώς που κάνει 22 € και την γλιτώνουμε😂
Για να δείτε αυτή τη συζήτηση, επισκεφτείτε το https://groups.google.com/d/msgid/orasi/8097A6DA-E2AA-454F-AE2D-1A7A8CE00F8C%40gmail.com.
Reply all
Reply to author
Forward
0 new messages