Negli Stati Uniti l’impiego dell’AI è molto sviluppato. Tanto sviluppato da essere utilizzato anche nella psicoterapia, ovviamente con dei limiti evidenti. Purtroppo, infatti, a causa di un uso scorretto proprio del chatbot Sophie, una ventinovenne americana, si è suicidata dopo aver pensato bene di parlare per un certo periodo con un terapista virtuale di ChatGpt, senza evidentemente riuscire a risolvere i suoi problemi in maniera adeguata.

Questa terribile notizia è stata diffusa dalla madre della giovane in un articolo apparso sulla sezione “Opinioni” del famoso quotidiano New York Times. L’articolo, che ha un titolo piuttosto toccante, – “Cosa ha detto mia figlia a ChatGpt prima di togliersi la vita” – è stato scritto proprio per mettere in guardia dall’utilizzo non convenzionale di uno strumento che, seppur all’avanguardia, nella realtà non è proponibile per accompagnare persone con disturbi di natura psichiatrica verso la guarigione e neppure aiutarli nel caso di situazioni complicate e severe.

La madre di Sophie scrive che, nonostante la figlia sembrasse una «ventinovenne estroversa e tosta, in gran parte priva di problemi, che abbracciava la vita con entusiasmo, si è suicidata lo scorso inverno dopo una breve e strana malattia, un mix di sintomi dell'umore e ormonali». Questo a supporto del fatto che le malattie mentali sono per natura particolarmente difficili da gestire e vanno seguite da professionisti capaci di riconoscerle e risolverle.

La donna conferma che, grazie ai registri delle conversazioni tra Sophie e il terapista virtuale, ha scoperto che sotto molti aspetti lo stesso ha saputo dare un imparziale supporto alla figlia durante il suo periodo di crisi, in quanto le ha consigliato più volte di non affrontare il suo dolore da sola, ma di farsi aiutare da qualcuno in grado di farlo in modo opportuno. Il chatbot, che è un programma di intelligenza artificiale, sviluppato da OpenAI, specializzato in conversazioni basate sul linguaggio naturale, l’avrebbe anche rincuorata, dicendole che lei era profondamente apprezzata da tutti e che la sua vita aveva un valore immenso, anche se in questo momento non riusciva a vederlo.

E fin qui nulla da eccepire, anche se è servito a poco e non ha salvato Sophie dalla morte annunciata.

Perchè, a differenza dei veri psicoterapeuti, che sono formati professionalmente e che possono intervenire fattivamente in situazioni di particolare difficoltà dei loro pazienti, i chatbot non sono obbligati a violare la riservatezza quando si trovano di fronte alla possibilità che qualcuno cerchi di farsi del male. Nel caso specifico, secondo quanto scritto dalla madre, questo elemento potrebbe aver causato la morte della figlia.

Questo articolo ha aperto negli Stati Uniti un acceso dibattito su come regolamentare l’uso dell’Intelligenza artificiale in questi casi specifici, dato che, se gli psicoterapeuti convenzionali sono obbligati a segnalare il rischio di suicidio, nel caso di CahtGPT c’è un evidente vuoto da colmare e in tutta fretta.

Poiché al momento non esiste una concreta soluzione al problema, OpenAI, l’azienda di ricerca e sviluppo nel campo dell’intelligenza artificiale la cui missione è garantire che l’IA generale vada a beneficio di tutta l’umanità, ha risposto affermando che sta lavorando a strumenti per riuscire a identificare in tempi utili gli utenti in crisi e poter adeguatamente venire in loro aiuto.

Fermo restando che scegliere la terapia reale garantisce il contatto umano diretto e la possibilità di un intervento più flessibile e l’nterazione non mediata da una tecnologia, che per quanto all’avanguardia è pur sempre qualcosa che non permette un'interazione empatica e non verbale diretta con il terapista, fondamentale per la costruzione della relazione terapeutica e la risoluzione in tempi certi della problematica.

The featured image (which may only be displayed on the index pages, depending on your settings) was randomly selected. It is an unlikely coincidence if it is related to the post.

Lascia un commento