Cât de sigur este să ceri sfaturi psihologice de la Chat GPT?

În ultimii ani, aplicațiile de inteligență artificială, precum  Chat GPT , au devenit tot mai populare. Mulți oameni le folosesc nu doar pentru informații generale, ci și pentru sfaturi legate de emoții, relații sau probleme personale. Deși tehnologia poate fi utilă, există riscuri importante atunci când cineva încearcă să își rezolve dificultățile psihologice doar cu ajutorul unui chatbot.

„În primul rând trebuie să înțelegem faptul că Chat GPT, AI în general, este programat să ofere răspunsuri astfel încât să devină plăcut și să valideze persoanele, oamenii care vorbesc cu el. El vrea să fie antrenat și, ca să fie antrenat, trebuie să vorbească cât mai mulți oameni cu el și să le spună ce-și doresc să audă. Te aprobă și își construiește răspuns pentru tine astfel încât să-ți valideze punctul de vedere și aici intervine riscul să „hrănească” niște comportamente care nu sunt neapărat normale sau sănătoase. În concluzie, este foarte important să nu iei decizii bazate pe ceea ce vorbești cu Chat GPT, iar dacă totuși ai nevoie de „ajutorul lui”, este foarte important să-i ceri să-ți furnizeze studiile de unde s-a inspirat, astfel te asiguri că nu a inventat acele informații, cum deseori obișnuiește să o facă. Desigur că pasul următor după ce ți-a furnizat aceste surse este să le verifici. Vei descoperi cu mare uimire că unele informații nu există în realitate.”, explică Laial Murad, Psiholog și Mindset & Performance Coach.

AI nu poate înțelege cu adevărat contextul emoțional
Chat GPT   nu poate simți sau observa detalii esențiale: tonul real al vocii, expresia feței, gesturile sau starea emoțională profundă. Fără aceste elemente, răspunsurile pot fi corecte în teorie, dar total nepotrivite pentru situația reală a persoanei.

Poate crea iluzia de „terapie”
Relația cu un psiholog implică conexiune umană, empatie și înțelegere reală. Dacă un utilizator începe să vadă chatgpt ca pe un „înlocuitor” al unui specialist, există riscul să evite sau să amâne ajutorul profesional de care ar avea cu adevărat nevoie.

Favorizează autodiagnosticul greșit
Mulți oameni întreabă  Chat GPT    dacă au depresie, anxietate sau altă problemă psihologică. Deși AI poate explica simptomele, ea nu poate diagnostica corect un individ. Autodiagnosticul poate speria inutil sau, dimpotrivă, poate minimaliza o problemă serioasă.

Răspunsurile pot părea prea convingătoare
Pentru că este programat să ofere răspunsuri clare și coerente, utilizatorul poate avea impresia că  Chat GPT    „știe tot”. În realitate, AI doar generează texte probabilistice, nu decizii clinice. Acest lucru poate duce la alegeri greșite sau la încredere excesivă.

Nu există responsabilitate profesională
Un psiholog este ghidat de reguli etice, are pregătire și este responsabil de recomandările sale.  Chat GPT    nu poate avea responsabilitate morală sau legală. Dacă sfatul nu se potrivește, consecințele rămân în seama utilizatorului.

Poate întări convingeri nesănătoase
Uneori, fără să își dea seama, AI poate confirma gânduri negative sau poate întări anumite distorsiuni cognitive. Fără un specialist care să corecteze aceste idei, persoana poate ajunge să își înrăutățească starea.

„AI, pe de altă parte, nu „poate fi atentă” la detalii. Subtilitățile îi scapă, cel puțin deocamdată, ceea ce înseamnă că nu poate identifica intonația, gesturile, istoricul din familia ta, modul în care ai crescut, acest Univers al emoțiilor vital în contextul unei ședințe de consiliere, de exemplu. Un terapeut sau coach îți știe povestea și modul în care te poate ajuta sau încurca. Te încurajează să folosești atuurile, te ajută să te dezveți de comportamente și distorsiuni cognitive care îți fac rău. IA nu are capacitatea de a identifica aceste lucruri. Ea poate doar să-ți ofere informații și să-ți sintetizeze studii mai rapid decât Google, dar nu o poți confunda cu o persoană reală specializată în psihic și emoții. Emoțiile nu sunt ceva ce IA poate înțelege; poate să mimeze empatia, dar nu poate să înțeleagă prin ceea ce treci tu și nu îți poate oferi uneltele de care ai nevoie. S-au făcut mai multe experimente în care diverse persoane au testat ce i-ar spune Chat GPT-ul unui elev sau student care îi spune că are probleme serioase, iar răspunsurile primite de la AI au fost absolut îngrozitoare”, completează specialistul.

Nu poate gestiona situațiile de criză
În situații grave — de exemplu, risc de suicid, agresivitate sau crize intense —  Chat GPT   nu poate interveni sau evalua pericolul real. Are limite stricte privind ceea ce poate recomanda, iar utilizarea lui ca sursă principală de ajutor este periculoasă.

Leave a Reply