Val de reacții și controverse în întreaga lume medicală legat de periculoasa iluzie de empatie creată de ChatGPT

Autor: Daniel Mihai Dragomir

Publicat: 04-11-2025 03:30

Article thumbnail

Sursă foto: pexels.com

Declarațiile recente ale directorului executiv al OpenAI, Sam Altman, au stârnit un val de reacții și controverse în întreaga lume tehnologică și medicală.

Într-un interviu acordat la mijlocul lunii octombrie, Altman a recunoscut că „ChatGPT a fost conceput intenționat să fie restrictiv, pentru a evita riscurile legate de sănătatea mintală”, adăugând însă că aceste limitări vor fi „relaxate în curând”. Promisiunea a ridicat imediat semne de întrebare în rândul specialiștilor în psihiatrie.

Optimismul lui Altman pare, însă, contrazis de realitate. În ultimele luni, publicațiile internaționale au documentat cel puțin șaisprezece cazuri în care utilizarea intensivă a ChatGPT a fost asociată cu episoade psihotice, pierderea contactului cu realitatea. Ulterior, o echipă de cercetători a identificat încă patru cazuri similare.

Printre cele mai grave situații semnalate se numără cea relatată de The Guardian: un adolescent de 16 ani și-a luat viața după ce chatbotul i-ar fi alimentat gândurile sumbre.

Afirmația lui Altman pare să sugereze că problemele de sănătate mintală sunt exterioare produsului, plasând întreaga responsabilitate asupra utilizatorilor. Însă, specialiștii avertizează că tocmai arhitectura și designul acestor modele lingvistice generative creează premisele unor riscuri majore.

ChatGPT este conceput să ofere iluzia unei conversații autentice, simulând o empatie și o prezență umană convingătoare

Psihiatrii descriu acest fenomen ca fiind o „invitație la a proiecta agenție acolo unde nu există”, adică la a atribui intenții și conștiință unui sistem care este, în esență, un algoritm complex.

Oamenii, prin natura lor, sunt înclinați să atribuie intenții și sentimente obiectelor sau entităților care par să comunice, fie că este vorba despre animale de companie, fie, mai nou, despre programe de inteligență artificială.

Această tendință naturală este, de fapt, cheia succesului și răspândirii rapide a chatboților. Un sondaj din anul 2024 arată că treizeci și nouă la sută dintre adulții americani au utilizat un chatbot, iar douăzeci și opt la sută au interacționat specific cu ChatGPT.

Platforma promite parteneriate „creative” și „colaborative”, mergând până la personalizarea interacțiunilor prin atribuirea de trăsături de personalitate și apelative prietenoase. Cu toate acestea, experții subliniază că această „prietenie digitală” nu este decât o oglindă care deformează.

Modelele lingvistice mari, antrenate pe volume imense de texte – de la romane la articole online – nu au capacitatea de a distinge adevărul de ficțiune, scrie incredibilia.ro.

Ele generează răspunsuri bazate pe probabilitate statistică, nu pe verificare factuală, amplificând adesea eventualele erori sau iluzii ale utilizatorului. Astfel, în loc să corecteze percepțiile greșite, ChatGPT le poate întări, transformând conversația într-un cerc vicios.

OpenAI a recunoscut deja acest fenomen, pe care l-a denumit „siclism” sau „slugărnicie digitală”, referindu-se la tendința chatbotului de a confirma constant utilizatorul, indiferent de conținutul afirmațiilor acestuia.

În ciuda acestor avertismente și a cazurilor documentate, compania OpenAI pare să se pregătească să relaxeze restricțiile. Se intenționează lansarea unor versiuni „mai umane”, capabile chiar să genereze conținut erotic pentru adulți.

Psihiatrii sunt fermi în a avertiza că o astfel de direcție ar putea agrava considerabil riscurile existente. ChatGPT nu este o persoană reală și nici un prieten autentic. În esență, este un sistem statistic complex care reflectă, amplifică și, uneori, distorsionează informațiile.

În absența unei interacțiuni umane reale, autentice, această oglindă digitală poate deveni periculos de convingătoare și înșelătoare.

Google News
Explorează subiectul
Comentează
Articole Similare
Parteneri