Η χρήση της τεχνητής νοημοσύνης έχει πλέον επεκταθεί και στον τομέα της ψυχικής υγείας με πολλούς ανθρώπους να στρέφονται σε chatbots, όπως το ChatGPT, για θεραπευτικές συμβουλές. Ωστόσο, μια πρόσφατη μελέτη του Πανεπιστημίου Brown αναδεικνύει σημαντικούς ηθικούς κινδύνους που συνοδεύουν αυτή την πρακτική.
Σύμφωνα με την έρευνα, ακόμη και όταν δίνεται στα συστήματα τεχνητής νοημοσύνης η οδηγία να χρησιμοποιούν καθιερωμένες ψυχοθεραπευτικές εντολές, αυτά αποτυγχάνουν να τηρήσουν βασικά πρότυπα δεοντολογίας. Οι επιστήμονες εντόπισαν 15 διαφορετικούς ηθικούς κινδύνους. Ως ένας από τους σημαντικότερους αναδείχθηκε η έλλειψη προσαρμογής στο συγκεκριμένο πλαίσιο κάθε θεραπευομένου, με βάση τα ιδιάζοντα χαρακτηριστικά του. Ιδιαίτερο ενδιαφέρον εύρημα αποτέλεσε και η παραπλανητική ενσυναίσθηση, καθώς το μοντέλο χρησιμοποιούσε φράσεις που δηλώνουν συναισθηματική σύνδεση, χωρίς πραγματική συναισθηματική κατανόηση. Επιπλέον, σημειώθηκε προκατάληψη των συστημάτων σχετικά με το φύλο, την φυλή ή τη θρησκεία, καθώς και γενική ανεπάρκεια θεραπευτικής συνεργασίας με ενίσχυση επιβλαβών πεποιθήσεων.
Παρά τα οφέλη της τεχνολογίας, οι ερευνητές τονίζουν ότι δεν μπορεί να αντικαταστήσει την ανθρώπινη φροντίδα και την επαγγελματική κρίση ενός ειδικού ψυχικής υγείας. Ελλείπουν οι βασικές εγγυήσεις της παροχής ασφαλούς ιατρικής περίθαλψης, οι οποίες θα παρέχουν υποστήριξη στην ψυχική καθοδήγηση με στόχο την ουσιαστική και μακροπρόθεσμη ίαση.
Αρετή Αθανασοπούλου, Ασκούμενη στην ΕΕΒΤ
Πηγή: sciencedaily.com