
PARLIAMO AD UNA MACCHINA PER SENTIRCI MEGLIO
Share
Siamo messi così male che...
Secondo uno studio pubblicato su PLOS Mental Health, sempre più persone preferiscono le risposte di ChatGPT a quelle di veri terapeuti umani.
Non perché l’IA abbia un’anima.
Ma perché, a quanto pare, oggi basta un linguaggio chiaro, un po’ di empatia pre-programmata e risposte senza giudizio per farci sentire meglio.
In molti casi, gli utenti non riuscivano nemmeno a distinguere tra terapeuta umano e intelligenza artificiale.
E spesso hanno scelto l’IA. Perché?
È gratuita
Non ti guarda male
Ti risponde subito
E non ti dice che sei sbagliato
Ma attenzione: questi studi non nascono per caso.
Hanno uno scopo ben preciso: farci percepire l’intelligenza artificiale come “amica”, darle un volto umano, renderla accogliente e rassicurante.
Così che, quando sarà il momento, saremo pronti a comprarla.
Dietro questo studio c'è una realtà ben precisa.
È stato pubblicato su PLOS Mental Health, da un team guidato da S. Gabe Hatch, legato a una società privata di consulenza nel settore salute mentale e dati.
Non c’è trasparenza su finanziatori diretti, ma il contesto è chiaro: rendere l’IA apparentemente più empatica, più accogliente, più umana dei terapeuti stessi.
Nel frattempo, colossi come Woebot, Meru Health e Cerebral Inc. – tutti attivi nel campo della salute mentale digitale – raccolgono centinaia di milioni di dollari.
Il mercato dell’IA “terapeutica” è già valutato in miliardi.
E questi studi servono proprio a creare la narrazione di un’IA che ci comprende, ci consola, ci salva.
Una narrazione funzionale solo a chi venderà i prossimi pacchetti di “cura digitale”.
Il problema non è che l’IA sia troppo umana.
È che noi, forse, lo siamo sempre meno.
Nicco
Unisciti al nostro canale Telegram