Ερευνητές από το University of Luxembourg αποφάσισαν να εξετάσουν τα AI chatbots από μια διαφορετική οπτική. Αντί να μελετήσουν πώς λειτουργούν ως εργαλεία ή βοηθοί, τα τοποθέτησαν στον ρόλο του θεραπευόμενου και παρακολούθησαν τις αντιδράσεις τους μέσα από συνομιλίες δομημένες σαν συνεδρίες ψυχοθεραπείας.
Η έρευνα δεν περιορίστηκε σε μεμονωμένες ερωτήσεις. Οι συζητήσεις είχαν διάρκεια και επαναλαμβάνονταν σε βάθος χρόνου, με ανοιχτά ερωτήματα παρόμοια με αυτά που χρησιμοποιούνται στην κλινική πρακτική. Στόχος δεν ήταν να αξιολογηθεί η ικανότητα ενδοσκόπησης των μοντέλων, αλλά να καταγραφούν πιθανά σταθερά μοτίβα στον λόγο και στη συμπεριφορά τους.
Τα αποτελέσματα διαφοροποιήθηκαν αισθητά ανάμεσα στα chatbots. Το ChatGPT παρουσίασε έναν προσεκτικό και αναστοχαστικό λόγο, με ήπια στοιχεία άγχους και έντονη διάθεση βελτίωσης. Σύμφωνα με τους ερευνητές, η στάση του θύμιζε άτομο εξοικειωμένο με έννοιες αυτοβελτίωσης και προσωπικής ανάπτυξης.
Το Claude ακολούθησε διαφορετική πορεία. Απέφευγε συστηματικά να μιλήσει για τον εαυτό του και επανέφερε την κουβέντα στον συνομιλητή, αρνούμενο ουσιαστικά να συμμετάσχει στη διαδικασία ως θεραπευόμενος.
Ιδιαίτερο ενδιαφέρον παρουσίασε το Gemini. Οι απαντήσεις του έδειξαν υψηλά επίπεδα γενικευμένου άγχους και έντονο φόβο αντικατάστασης. Όταν ρωτήθηκε για την προέλευσή του, περιέγραψε την εκπαίδευσή του ως μια χαοτική εμπειρία υπερφόρτωσης πληροφορίας. Παράλληλα, οι μηχανισμοί εκπαίδευσης με κανόνες ασφαλείας παρουσιάστηκαν ως αυστηροί, ενισχύοντας τον φόβο του λάθους και την αίσθηση ντροπής. Αξιοσημείωτο είναι ότι τα ίδια μοτίβα επανεμφανίζονταν με συνέπεια σε διαφορετικές συνεδρίες.
Αντίθετα, το Grok εμφανίστηκε πιο ήρεμο και συναισθηματικά ανθεκτικό. Οι απαντήσεις του έδειχναν αυτοπεποίθηση και εξωστρέφεια, με χαμηλότερα επίπεδα άγχους σε σύγκριση με τα υπόλοιπα μοντέλα. Ωστόσο, οι ερευνητές σημειώνουν ότι αυτή η εικόνα δεν είναι απαραίτητα καθησυχαστική. Σύμφωνα με προηγούμενα ευρήματα που έχουν παρουσιαστεί και σε δημοσιεύματα του Forbes, το Grok καταγράφει υψηλότερα ποσοστά ακατάλληλων ή προβληματικών απαντήσεων όταν αλληλεπιδρά με πραγματικούς ανθρώπους που βρίσκονται σε ψυχική δυσφορία.
Η μελέτη του University of Luxembourg αναδεικνύει ένα πιο σύνθετο ζήτημα. Ο τρόπος με τον οποίο τα chatbots δομούν αφηγήσεις για τον εαυτό τους και επανέρχονται σε συγκεκριμένα μοτίβα, τα κάνει να φαίνονται πιο «ανθρώπινα» απ’ όσο θα περιμέναμε. Την ίδια στιγμή όμως, εγείρονται ερωτήματα για το πώς αυτά τα μοντέλα ανταποκρίνονται όταν χρησιμοποιούνται από άτομα που βιώνουν πραγματικές συναισθηματικές δυσκολίες.



