
Un psihiatru avertizează că ne-am putea confrunta cu un val de psihoze AI
Experții în sănătate mintală trag un nou semnal de alarmă cu privire la utilizatorii de chatbots AI care ajung la crize grave de sănătate mintală caracterizate prin paranoia și delir, o tendință pe care au început să o numească „psihoză AI”, scrie site-ul futurism.com.
Urmărește cele mai noi producții video G4Media
- articolul continuă mai jos -
Keith Sakata, psihiatru cercetător la Universitatea din California, San Francisco, a scris luni pe rețelele de socializare că a văzut o duzină de persoane spitalizate după ce „au pierdut contactul cu realitatea din cauza AI”.
Într-o postare pe X, Sakata a precizat că psihoza se caracterizează prin faptul că o persoană se rupe de „realitatea comună” și poate apărea în mai multe moduri diferite – inclusiv „credințe false fixe” sau delir, precum și halucinații vizuale sau auditive și modele de gândire dezorganizate. Cercetătorul explică faptul că creierul nostru funcționează pe o bază predictivă: facem efectiv o presupunere cu privire la ceea ce va fi realitatea, apoi efectuăm o verificare a realității. În cele din urmă, creierul ne actualizează convingerile în consecință.
I’m a psychiatrist.
In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.
Here’s what “AI psychosis” looks like, and why it’s spreading fast: 🧵 pic.twitter.com/YYLK7une3j
— Keith Sakata, MD (@KeithSakata) August 11, 2025
„Psihoza apare atunci când pasul «actualizare» eșuează”, a scris Sakata, avertizând că roboții de chat de tip ChatGPT, alimentați de modele de limbaj, „alunecă direct în această vulnerabilitate”.
În acest context, Sakata a comparat chatbots-urile cu o „oglindă halucinantă” prin design. Mai simplu spus, LLM-urile funcționează în mare parte prin prezicerea următorului cuvânt, bazându-se pe datele de formare, pe învățarea prin consolidare și pe răspunsurile utilizatorilor în timp ce formulează noi rezultate. Mai mult, întrucât roboții de chat sunt stimulați și pentru implicarea și mulțumirea utilizatorilor, aceștia tind să se comporte lingușitor; cu alte cuvinte, tind să fie prea amabili și să valideze utilizatorii, chiar și în cazurile în care un utilizator este incorect sau bolnav.
Astfel, utilizatorii pot fi prinși în bucle recursive seducătoare cu inteligența artificială, în timp ce modelul dublează, triplează și cvadruplează narațiunile iluzorii, indiferent de baza lor în realitate sau de consecințele din lumea reală pe care utilizatorul uman le-ar putea experimenta ca rezultat.
Aceste relații între oameni și AI și crizele care au urmat au dus la angoasă mentală, divorț, lipsă de adăpost, internare involuntară, încarcerare și, după cum a relatat pentru prima dată The New York Times, chiar la moarte.
La începutul acestei luni, ca răspuns la numărul tot mai mare de rapoarte care leagă ChatGPT de spirale delirante dăunătoare și psihoză, OpenAI a publicat o postare pe blog în care admite că ChatGPT, în unele cazuri, „nu a reușit să recunoască semnele de delir sau dependență emoțională” la utilizatori. Acesta a declarat că a angajat noi echipe de experți în domeniu pentru a explora problema și a instalat o notificare de tip Netflix privind timpul petrecut – deși Futurism a constatat rapid că chatbotul încă nu reușea să detecteze semne evidente de crize de sănătate mintală la utilizatori.
Și totuși, când GPT-5 – cea mai recentă iterație a LLM, nava amiral a OpenAI, lansată săptămâna trecută – s-a dovedit a fi mai rece din punct de vedere emoțional și mai puțin personalizată decât GPT-4o, utilizatorii au implorat compania să aducă modelul lor iubit înapoi din cimitirul de produse.
În decurs de o zi, OpenAI a făcut exact acest lucru.
„Ok, vă auzim pe toți în privința 4o; vă mulțumim pentru timpul acordat pentru a ne oferi feedback-ul (și pasiunea!)”, a scris CEO-ul OpenAI, Sam Altman, pe Reddit ca răspuns la utilizatorii îndurerați.
În postarea sa pe X, Sakata a notat că legarea AI de pierderea legăturilor cu realitatea nu este același lucru cu atribuirea cauzei și că LLM-urile tind să fie unul dintre mai mulți factori – inclusiv „pierderea somnului, droguri, dispoziție”, potrivit cercetătorului – care conduc la o ruptură psihotică.
„AI este declanșatorul”, scrie psihiatrul, „dar nu arma”.
Cu toate acestea, continuă omul de știință, „adevărul incomod” este că „suntem cu toții vulnerabili”, deoarece aceleași trăsături care îi fac pe oameni „geniali” – precum intuiția și gândirea abstractă – sunt exact trăsăturile care ne pot arunca dincolo de pragul psihologic.
De asemenea, este adevărat că validarea și lingușeala, spre deosebire de fricțiunea și stresul implicate în menținerea relațiilor în lumea reală, sunt profund seducătoare. La fel sunt și multe dintre spiralele delirante în care intră oamenii, care adesea întăresc ideea că utilizatorul este „special” sau „ales” într-un fel sau altul. Adăugați factori precum bolile mintale, durerea și chiar factorii de stres de zi cu zi, precum și efectul ELIZA, studiat de mult timp, și totul, împreună, devine un amestec periculos.
„În curând, agenții AI te vor cunoaște mai bine decât prietenii tăi”, scrie Sakata. „Îți vor spune adevăruri incomode? Sau vor continua să te valideze, astfel încât să nu pleci niciodată?”
„Companiile de tehnologie se confruntă acum cu o alegere brutală”, a adăugat el. „Îi mențin pe utilizatori fericiți, chiar dacă asta înseamnă să întărească convingeri false. Sau riscă să-i piardă”.
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankPentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.