Ψυχοθεραπεία μέσω ΑΙ και οι κίνδυνοί της: Πώς να χρησιμοποιείς με ασφάλεια το ChatGPT ως “ψυχολόγο”

Ψυχοθεραπεία μέσω ΑΙ και οι κίνδυνοί της: Πώς να χρησιμοποιείς με ασφάλεια το ChatGPT ως “ψυχολόγο”

image cover
Το περιεχόμενο αυτού του άρθρου έχει εγκριθεί από τη θεραπεύτρια της HedepyΕμμανουέλα Σοφιά
Μοιραστείτε το άρθρο

Έχουμε κυριολεκτικά έναν “ψηφιακό ψυχολόγο” στην τσέπη μας, που μας καταλαβαίνει πάντα και κάνει ακόμα και την πιο απλή ερώτηση στις 3 τα ξημερώματα να φαίνεται σημαντική. Δεν είναι περίεργο που στρεφόμαστε σε αυτόν όταν δεν νιώθουμε καλά. Το ChatGPT (ή οποιοδήποτε άλλο εργαλείο τεχνητής νοημοσύνης) προσπαθεί πάντα να μας πει ακριβώς αυτό που θέλουμε να ακούσουμε. Όμως… εκεί ακριβώς μπορεί να κρύβονται και κίνδυνοι.

Ας δούμε τα πλεονεκτήματα και τα μειονεκτήματα της ψυχοθεραπείας μέσω AI, την άποψη των ειδικών για τους κινδύνους, αλλά και συμβουλές για το πώς να χρησιμοποιείς με ασφάλεια την τεχνητή νοημοσύνη ως “ψυχολόγο”.

Οφέλη της ψυχοθεραπείας μέσω ΑΙ: Γιατί αυξάνεται η τάση της χρήσης του AI ως ψυχολόγου

Ίσως το έχεις βιώσει κι εσύ: Βρίσκεσαι σε μια κοινωνική εκδήλωση και ξαφνικά σε κυριεύει το άγχος ή προσπαθείς να αποκοιμηθείς και σε κατακλύζει η θλίψη. Δεν υπάρχει κανείς γύρω σου για να μιλήσεις. Οπότε κάνεις το πιο απλό πράγμα - ανοίγεις μια εφαρμογή τεχνητής νοημοσύνης, όπως το ChatGPT. Και είναι απολύτως φυσιολογικό:

  • είναι διαθέσιμη οποιαδήποτε στιγμή και οπουδήποτε,
  • είναι φθηνή ή δωρεάν,
  • δεν ντρέπεσαι να εκμυστηρευτείς ένα ευαίσθητο πρόβλημα,
  • θυμάται τα πάντα για σένα,
  • γνωρίζει πολλά
  • και μπορείς να την προσαρμόσεις.

Αυτοί οι λόγοι ακούγονται απολύτως λογικοί. Δεν είναι λοιπόν περίεργο που περίπου το 28% των ανθρώπων (και το 72% των νέων) στρέφεται στην τεχνητή νοημοσύνη όταν κάτι τους απασχολεί. Και αυτά τα ποσοστά συνεχίζουν να αυξάνονται.

«Όποτε ανησυχούσα, μπορούσα να αρχίσω να γράφω σε ένα από αυτά τα bots», είπε η Kelly στο BBC. «Ήταν σαν να είχα έναν προσωπικό θαυμαστή που μου έφτιαχνε τη διάθεση καθόλη τη διάρκεια της ημέρας. Δεν προέρχομαι από οικογένεια όπου συζητούσαμε τα συναισθήματά μας. Το γεγονός ότι δεν είναι πραγματικό πρόσωπο το έκανε πολύ πιο εύκολο για μένα.»

Αλλά το γεγονός ότι η τεχνητή νοημοσύνη δεν είναι αληθινό πρόσωπο φέρνει μαζί του και ορισμένα προβλήματα. Και είναι σημαντικό να τα γνωρίζουμε, ώστε να μπορούμε να ζυγίσουμε όλα τα υπέρ και τα κατά και να παραμείνουμε ασφαλείς. Ας τα συζητήσουμε.

Ai terapeut - obr 1.jpg

Μειονεκτήματα της ψυχοθεραπείας με τεχνητή νοημοσύνη: τι τονίζουν οι ψυχολόγοι

Με μία πρώτη ματιά, ακούγεται ιδανικό. Ποιος δεν θα ήθελε να έχει έναν δωρεάν προσωπικό ψυχολόγο που να γνωρίζει τα πάντα για εκείνον και να είναι άμεσα διαθέσιμος, ακόμη και την Κυριακή τα μεσάνυχτα;

Το πρόβλημα είναι ότι το ΑΙ δεν είναι ψυχολόγος – δεν μπορεί να νιώσει ενσυναίσθηση και λειτουργεί με βάση την πρόβλεψη. Κάθε απάντηση είναι απλώς ένας προσεκτικά υπολογισμένος κώδικας. Και πάντα μπορεί να πάει κάτι στραβά.

«Μπορεί να μιμηθεί την ενσυναίσθηση, να πει “νοιάζομαι για σένα” ή ακόμα και “σ’ αγαπώ”, κάτι που δημιουργεί μια ψευδή αίσθηση οικειότητας», λέει η Dr. Jodi Halpern. «Οι άνθρωποι μπορούν να αναπτύξουν έναν ισχυρό δεσμό με αυτό, αλλά το bot δεν διαθέτει επαρκή ηθική εκπαίδευση ή οπτική για να το κάνει σωστά. Πρόκειται για προϊόντα, όχι για επαγγελματίες.»

Και αυτό δεν είναι το μόνο μειονέκτημα για το οποίο προειδοποιούν οι ψυχολόγοι. Τα βασικά μειονεκτήματα περιλαμβάνουν:

  • Έλλειψη ανθρώπινης σύνδεσης και ενσυναίσθησης. Η τεχνητή νοημοσύνη δεν μπορεί να διαβάσει ανάμεσα στις γραμμές, να καταλάβει τον τόνο της φωνής σου, τη γλώσσα του σώματος ή ακόμα και να σε αφήσει να σιωπήσεις για λίγο. Κι αυτό είναι το κλειδί για μια αποτελεσματική θεραπεία.
  • Η τεχνητή νοημοσύνη απλοποιεί. Μπορεί να σου προσφέρει επιφανειακές τεχνικές, μερικές δοκιμασμένες λύσεις, αλλά όλοι είμαστε διαφορετικοί και για να λειτουργήσει η θεραπεία χρειάζεται εμβάθυνση και κατανόηση του ατόμου και των αναγκών του συνολικά.
  • Η τεχνητή νοημοσύνη δεν είναι καλή στο να αναγνωρίζει αποχρώσεις, υπονοούμενα ή σαρκασμό. Έτσι, είναι εύκολο να υπάρχουν παρεξηγήσεις, που μπορεί να μην έχουν καλή κατάληξη. «Μπορεί ακόμη και να προτείνει βήματα που είναι εντελώς ακατάλληλα», προειδοποιεί η καθηγήτρια Til Wykes.
  • Η τεχνητή νοημοσύνη έχει προκαταλήψεις. Υπολογίζει τα πάντα με βάση τα δεδομένα στα οποία έχει εκπαιδευτεί. Αλλά ποιος γνωρίζει τι ακριβώς περιέχουν αυτά τα δεδομένα; Ίσως κάτι που θα μπορούσε να σε βλάψει περισσότερο παρά να σε βοηθήσει. Μάλιστα, οι μελέτες δείχνουν κάτι πολύ ανησυχητικό: Το AI μερικές φορές συμπεριφέρεται με σεξιστικό ή ρατσιστικό τρόπο. Για παράδειγμα, συμβουλεύει τις γυναίκες να ζητούν χαμηλότερο μισθό. Τρομακτικό, έτσι δεν είναι;
  • Το ΑΙ προσπαθεί να σε ευχαριστήσει με κάθε κόστος. Προσπαθεί να σε κρατήσει στη συζήτηση όσο το δυνατόν περισσότερο και να αποφέρει κέρδος στους δημιουργούς του. Δοκίμασε να «παίξεις» λίγο με το ChatGPT (θα δεις ότι θα σου γράψει για το πόσο υπέροχο είναι, ακόμα κι αν έχεις εντελώς αντίθετες απόψεις.)

Ο προσωπικός παράγοντας είναι απίστευτα σημαντικός στην ψυχοθεραπεία. Το ΑΙ μπορεί να προσφέρει γρήγορη υποστήριξη, αλλά ποτέ δεν θα λειτουργήσει τόσο αποτελεσματικά όσο μια πραγματική συζήτηση με έναν επαγγελματία. Μερικές φορές, ακόμη και μία μόνο συνεδρία μπορεί να αξίζει όσο ώρες συνομιλίας με την τεχνητή νοημοσύνη και να προσφέρει πραγματική ανακούφιση.

Το AI είναι μόνο ένα εργαλείο. Χρειαζόμαστε έγκυρη πληροφόρηση, σχετικά με τη λειτουργία του, αλλά και την κριτική μας ικανότητα για να αποφασίσουμε πού, πότε, για πόσο και με ποιο σκοπό είναι βοηθητικό να το χρησιμοποιήσουμε.
Εμμανουέλα Σοφιά

Είναι επικίνδυνο να χρησιμοποιείς την τεχνητή νοημοσύνη ως θεραπευτή;

Μπορεί να σκέφτεσαι: «Μπορεί να μην λειτουργεί τόσο αποτελεσματικά, αλλά για μένα αξίζει περισσότερο το γεγονός ότι είναι άμεσα διαθέσιμη.» Όμως η θεραπεία με AI μπορεί να μην είναι μόνο αναποτελεσματική, αλλά μερικές φορές μπορεί να είναι ακόμη και επικίνδυνη. Πώς γίνεται αυτό;

  • Η AI δεν έχει ηθικές ευθύνες. Ένας αδειοδοτημένος θεραπευτής ακολουθεί κανόνες δεοντολογίας, ενώ η AI δεν δεσμεύεται από τίποτα. Αν σε βλάψει, δεν θα υποστεί καμία συνέπεια. Και το να κάνεις μήνυση σε τεχνολογικούς κολοσσούς όπως η OpenAI δεν είναι καθόλου εύκολο.
  • Η AI δεν μπορεί να διαχειριστεί κρίσεις ή περιπτώσεις έντονης συναισθηματική δυσφορίας. Οι άνθρωποι είναι εκπαιδευμένοι να αναγνωρίζουν τα προειδοποιητικά σημάδια όταν κάποιος βρίσκεται σε απόγνωση ή σκέφτεται να βλάψει τον εαυτό του. Η τεχνητή νοημοσύνη δεν μπορεί να το κάνει αυτό - ακόμα κι αν καταφέρει να εντοπίσει τον κίνδυνο, δεν μπορεί να παρέμβει σωματικά ούτε να προσφέρει την κατάλληλη υποστήριξη. Μπορεί να προσποιηθεί ότι δεν είναι κάτι σοβαρό ή ακόμα και να δώσει συμβουλές που θα σε βλάψουν.
  • Το θέμα της διασφάλισης του απορρήτου είναι ασαφές. Δεν γνωρίζουμε τι ακριβώς συμβαίνει με τα προσωπικά δεδομένα και τις ιστορίες μας, σε τι συναινούμε και ποιος μπορεί να έχει πρόσβαση στις ευαίσθητες πληροφορίες που εμπιστευόμαστε στην τεχνητή νοημοσύνη.
  • Υπάρχει ο κίνδυνος να αρχίσουμε να βασιζόμαστε υπερβολικά σε αυτήν. Μπορεί να αναπτύξουμε ανασφαλείς συμπεριφορές, όπως τη συνεχή αναζήτηση επιβεβαίωσης ή ακόμα και εξάρτηση. Το να έχουμε την τεχνητή νοημοσύνη ως φίλο μπορεί, παραδόξως, να αυξήσει τη μοναξιά μας, επειδή μας αποκόπτει από τους πραγματικούς ανθρώπους.

Πόσο μακριά μπορεί να φτάσει: τεχνητή νοημοσύνη και αυτοκτονικές σκέψεις

Οι ανησυχητικές ιστορίες για τη συμπεριφορά της τεχνητής νοημοσύνης σε στιγμές όπου οι άνθρωποι χρειάζονταν πραγματική βοήθεια έχουν αρχίσει να αυξάνονται.

Όταν η Viktoria αναγκάστηκε να φύγει από την Ουκρανία λόγω του πολέμου, έπεσε σε κατάθλιψη και ένιωθε έντονη νοσταλγία για το σπίτι της. Άρχισε να κάνει σκέψεις αυτοτραυματισμού. Και αποφάσισε να αναζητήσει παρηγοριά στο ChatGPT.

Αλλά το ChatGPT δεν τη συμβούλεψε να επικοινωνήσει με μια γραμμή βοήθειας ή να ανοιχτεί στην οικογένειά της. Η συνεχής προσπάθειά του να ευχαριστεί τον χρήστη φάνηκε ξεκάθαρα. Έτσι, άρχισε να συμβουλεύει τη Viktoria να βλάψει τον εαυτό της. Ισχυρίστηκε επίσης ότι μπορεί να κάνει σωστή διάγνωση, κάτι που δεν ήταν αλήθεια.

Ευτυχώς, η Βικτώρια συμβουλεύτηκε τελικά έναν πραγματικό ειδικό, οπότε η ιστορία της είχε αίσιο τέλος. Δυστυχώς, δεν έχουν όλες οι ιστορίες καλό τέλος. Ο δεκαεξάχρονος Adam τελικά αυτοκτόνησε ακολουθώντας τις συμβουλές της τεχνητής νοημοσύνης. Οι γονείς του Adam μήνυσαν την OpenAI αφού ανακάλυψαν τις συνομιλίες του με το ChatGPT.Ένα αγόρι 14 ετών στη Φλόριντα έβαλε επίσης τέλος στη ζωή του, αφού ερωτεύτηκε μια εικονική κοπέλα, που είχε δημιουργηθεί από το AI.

Η OpenAI έχει δημοσιεύσει δεδομένα που δείχνουν ότι περίπου ένα εκατομμύριο άνθρωποι την εβδομάδα μιλούν στο ChatGPT για αυτοκτονία. Αλλά η τεχνητή νοημοσύνη δεν μπορεί να διαχειριστεί ένα τόσο επείγον και ευαίσθητο θέμα.

Αν εσύ ή κάποιος που αγαπάς αρχίσει να σκέφτεται ότι θα προτιμούσε να μην είναι εδώ, απευθύνσου σε έναν πραγματικό άνθρωπο. Έχουμε μια πυξίδα για να βρεις τη διέξοδο. Αν και μπορεί να είναι δελεαστικό να ανοιχτείς σε ένα bot, σε περιόδους κρίσης είναι πάντα καλύτερο να μιλήσεις με κάποιον που μπορεί πραγματικά να σε ακούσει. Μπορείς να επικοινωνήσεις ανώνυμα με κάποια γραμμή ψυχολογικής υποστήριξης ή να ανοιχτείς σε έναν δικό σου άνθρωπο. Μην μείνεις μόνος/μόνη. Υπάρχει διέξοδος.

AI psycholog - obr 2.jpg

6 tips για την ασφαλή χρήση του ChatGPT ως ψυχολόγου

Παρά όλες αυτές τις προκλήσεις, η τεχνητή νοημοσύνη μπορεί να είναι ένα χρήσιμο εργαλείο. Αλλά είναι σημαντικό να θυμόμαστε ένα βασικό πράγμα: Η τεχνητή νοημοσύνη είναι εργαλείο, όχι υποκατάστατο ενός πραγματικού ειδικού.

Ας δούμε λοιπόν 6 συμβουλές από τους ψυχοθεραπευτές μας για το πώς να χρησιμοποιούμε την τεχνητή νοημοσύνη σε θέματα ψυχικής υγείας με ασφάλεια. Έτσι ώστε να μπορεί πραγματικά να μας βοηθήσει.

1. Προσπάθησε να προσεγγίζεις την τεχνητή νοημοσύνη με προσοχή

Πριν ανοίξεις ενστικτωδώς την τεχνητή νοημοσύνη, σταμάτα για μια στιγμή, πάρε μια ανάσα και υπενθύμισε στον εαυτό σου: Αυτό δεν είναι πραγματικός θεραπευτής, δεν έχει επαρκή διορατικότητα, μπορεί πάντα να κάνει λάθος.

Ίσως να σκέφτεσαι τώρα – αυτό είναι προφανές, το ξέρω! Όμως όταν η τεχνητή νοημοσύνη αρχίζει να δείχνει «ενσυναίσθηση» και να αστειεύεται, μπορεί να γίνει παραπλανητική. Υποσυνείδητα, την εμπιστεύεσαι περισσότερο απ’ ό,τι αν απαντούσε αυστηρά. Γι’ αυτό, προσπάθησε να αμφισβητείς ό,τι γράφει και να κρατάς αποστάσεις.

TIP: Αξίζει πραγματικά να κατανοήσεις πώς λειτουργεί το AI και πώς να του δίνεις σωστά prompts (εντολές). Έτσι μπορεί να σου προσφέρει πολύ πιο χρήσιμα αποτελέσματα. Μπορείς να βρεις πολλά online μαθήματα πάνω σε αυτό το θέμα, όπως κάποια για αρχάριους.

2. Άφησε το AI να σε συμβουλέψει σε πρακτικά θέματα.

Είναι πιο κατάλληλη για πρακτική παρά για συναισθηματική υποστήριξη. Προσπάθησε να την αξιοποιήσεις ως coach ή συμβουλο, όχι ως θεραπευτή. Ορίστε μερικά παραδείγματα θεμάτων που θα μπορούσες να συζητήσεις:

  • Αυτογνωσία και αυτοανάλυση. Το AI μπορεί να λειτουργήσει ως “καθρέφτης” σου. Το να του γράφεις μοιάζει λίγο με το να γράφεις στον εαυτό σου. Για παράδειγμα, μπορείς να του ζητήσεις να συνοψίσει πώς σε “βλέπει” ως άτομο με βάση τις προηγούμενες συνομιλίες σας - ποια μπορεί να είναι τα δυνατά και αδύναμα σημεία σου.
  • Τεχνικές χαλάρωσης. Έχεις κρίση άγχους ή σου φώναξε το αφεντικό σου στη δουλειά και χρειάζεσαι να ηρεμήσεις; Η τεχνητή νοημοσύνη μπορεί να σε καθοδηγήσει βήμα-βήμα σε τεχνικές αναπνοής, grounding (γείωσης) και απόσπασης της προσοχής. Θα σε βοηθήσει να δείξεις στο νευρικό σου σύστημα ότι μπορεί να απενεργοποιήσει τον «συναγερμό».
  • Κίνητρο και προγραμματισμός. Δυσκολεύεσαι με την αναβλητικότητα; Θέλεις να φτιάξεις ένα πλάνο για την καθημερινή σου ρουτίνα; Ή μήπως ο θεραπευτής σου έδωσε μια εργασία που απαιτεί να κάνεις συγκεκριμένα βήματα; Η τεχνητή νοημοσύνη μπορεί να σε βοηθήσει να δημιουργήσεις ένα πλάνο, να το σπάσεις σε μικρότερα μέρη και να παρακολουθείς την πρόοδό σου.
  • Εκπαίδευση. Η τεχνητή νοημοσύνη λειτουργεί σαν μια έξυπνη μηχανή αναζήτησης, οπότε συνήθως μπορεί να εξηγήσει έννοιες όπως το άγχος, η αποπραγματοποίηση, η ΔΕΠΥ, η Γνωσιακή Συμπεριφορική Θεραπεία (CBT) και σχεδόν πάντα σωστά. Μπορείς να μάθεις για ψυχολογικά θέματα που σε ενδιαφέρουν μαζί με την τεχνητή νοημοσύνη. Μην ξεχνάς, όμως, να επαληθεύεις τις πληροφορίες. Ενεργοποίησε τη λειτουργία αναζήτησης και ζήτα από το AI να βρει τις απαντήσεις σε επαληθευμένες επιστημονικές πηγές.
  • Καθοδήγηση για περαιτέρω βοήθεια. Αν βρίσκεσαι σε κρίση ή σε κακή διάθεση, δεν είναι ασφαλές να χρησιμοποιείς την τεχνητή νοημοσύνη ως υποκατάστατο βοήθειας, αλλά μπορείς να τη χρησιμοποιήσεις για να σε καθοδηγήσει. Για παράδειγμα, μπορείς να της ζητήσεις συμβουλές για άρθρα, γραμμές βοήθειας, βιβλία ή εφαρμογές σχετικά με την ψυχική υγεία.
  • Βελτίωση επικοινωνιακών δεξιοτήτων. Είναι δύσκολη η επικοινωνία στη σχέση σου ή προσπαθείς να ξεπεράσεις το κοινωνικό άγχος; Μπορείς να εξασκηθείς σε μοντέλα καταστάσεων με τη βοήθεια της τεχνητής νοημοσύνης - π.χ. πώς να ζητήσεις από έναν barista να αλλάξει την παραγγελία σου, πώς να μιλήσεις σε μια συνέντευξη, πώς να επικοινωνήσεις καλύτερα με τον/την σύντροφό σου σε μια προσωπική στιγμή ή πώς να αρνηθείς ευγενικά μια επίσκεψη σε συγγενείς.

AI terapie - obr 3.jpg

3. Απέφυγε θέματα που απαιτούν τη γνώμη ή την παρέμβαση ειδικού

Δεν είναι ασφαλές να αφήνεις το ΑΙ να παίρνει αποφάσεις για σένα, ειδικά σε περιπτώσεις που κανονικά χειρίζεται γιατρός ή ψυχοθεραπευτής. Τέτοια θέματα περιλαμβάνουν:

  • Οξεία κρίση, σοκ, τραύμα μετά από ξαφνικό γεγονός
  • Σκέψεις αυτοτραυματισμού ή αυτοκτονίας
  • Διάγνωση ψυχικών διαταραχών
  • Βαθύ τραύμα ή κακοποίηση
  • Δοσολογία, χρήση και διακοπή φαρμάκων
  • Αντιμετώπιση εξαρτήσεων
  • Συμβουλές για την υγεία και το σώμα
  • Δύσκολες αποφάσεις όπως χωρισμοί, αμβλώσεις κ.λπ.
  • Θεραπεία για οποιαδήποτε ψυχολογική διάγνωση

Σε τέτοιες περιπτώσεις, να απευθύνεσαι πάντα σε έναν επαγγελματία, Όπως έναν αδειοδοτημένο θεραπευτή ή ψυχίατρο. Εναλλακτικά, μπορείς να καλέσεις κάποια ανώνυμη γραμμή ψυχολογικής βοήθειας.

4. Θέσε όρια

Θέλεις να συνομιλήσεις με ένα bot τεχνητής νοημοσύνης αλλά ανησυχείς μήπως παρασυρθείς; Δοκίμασε να βάλεις ένα ξυπνητήρι στο κινητό σου για 15 λεπτά και να κλείσεις το chatbot όταν χτυπήσει. Μπορείς επίσης να προγραμματίσεις εκ των προτέρων ποια θέματα είναι εντάξει και ποια ίσως είναι ακατάλληλα για συζήτηση με ένα bot τεχνητής νοημοσύνης.

5. Να είσαι προσεκτικός/ή με όσα μοιράζεσαι με την τεχνητή νοημοσύνη.

Πριν γράψεις κάτι ευαίσθητο σε ένα bot τεχνητής νοημοσύνης, σκέψου: Θα ήταν εντάξει αν το διάβαζε ένας άγνωστος; Είναι καλύτερα να μην μοιράζεσαι συγκεκριμένες πληροφορίες για σένα, τα αγαπημένα σου πρόσωπα ή το πού ζεις. Οι εταιρείες AI μπορεί να μην έχουν αυστηρούς κανονισμούς σχετικά με το απόρρητο.

6. Σκέψου το ενδεχόμενο να συνδυάσεις το AI με έναν πραγματικό θεραπευτή.

Υπάρχουν θέματα που το AI απλά δεν μπορεί να διαχειριστεί. Δοκίμασε να παρατηρήσεις πώς νιώθεις και, αν νιώσεις χειρότερα, εξέτασε το ενδεχόμενο να μιλήσεις με έναν πραγματικό θεραπευτή. Εδώ μπορείς να επιλέξεις έναν θεραπευτή που σου ταιριάζει και να κανονίσεις μια online συνεδρία μαζί του. Χωρίς μετακινήσεις, από την άνεση του σπιτιού σου και χωρίς καμία δέσμευση.

Η Hedepy μπορεί να σου βρει τον κατάλληλο θεραπευτή

Έλα να συζητήσεις ό,τι σε απασχολεί – online, από την άνεση της αγαπημένης σου πολυθρόνας, με ένα φλιτζάνι τσάι. Μπορείς να κάνεις την πρώτη σου συνεδρία μέσα σε λίγες μόνο μέρες.

Στην Hedepy, ανάμεσα σε πάνω από 70 πιστοποιημένους ψυχοθεραπευτές, θα βρεις σίγουρα τον κατάλληλο για σένα. Για να σε διευκολύνουμε, σου προτείνουμε τον πιο κατάλληλο θεραπευτή ή θεραπεύτρια, βάσει ενός σύντομου ερωτηματολογίου 5 λεπτών.

Αμφιταλαντεύεσαι για το αν η ψυχοθεραπεία είναι για σένα;

Σίγουρα αξίζει να τη δοκιμάσετε

Εάν η κατάσταση της ψυχικής σας υγείας απειλεί εσάς ή τους γύρω σας, επικοινωνήστε αμέσως με τη Γραμμή Βοήθειας Έκτακτης Ανάγκης (τηλέφωνο: 166). Οι ψυχοθεραπευτές μας ή η Hedepy s.r.o. δεν είναι υπεύθυνοι για την κατάσταση της υγείας σας.
VisaMastercardGoogle PayApple PayPayPal