PARLIAMO AD UNA MACCHINA PER SENTIRCI MEGLIO

PARLIAMO AD UNA MACCHINA PER SENTIRCI MEGLIO

Siamo messi così male che...
Secondo uno studio pubblicato su PLOS Mental Health, sempre più persone preferiscono le risposte di ChatGPT a quelle di veri terapeuti umani.
Non perché l’IA abbia un’anima.
Ma perché, a quanto pare, oggi basta un linguaggio chiaro, un po’ di empatia pre-programmata e risposte senza giudizio per farci sentire meglio.
In molti casi, gli utenti non riuscivano nemmeno a distinguere tra terapeuta umano e intelligenza artificiale.
E spesso hanno scelto l’IA. Perché?
È gratuita
Non ti guarda male
Ti risponde subito
E non ti dice che sei sbagliato
Ma attenzione: questi studi non nascono per caso.
Hanno uno scopo ben preciso: farci percepire l’intelligenza artificiale come “amica”, darle un volto umano, renderla accogliente e rassicurante.
Così che, quando sarà il momento, saremo pronti a comprarla.
Dietro questo studio c'è una realtà ben precisa.
È stato pubblicato su PLOS Mental Health, da un team guidato da S. Gabe Hatch, legato a una società privata di consulenza nel settore salute mentale e dati.
Non c’è trasparenza su finanziatori diretti, ma il contesto è chiaro: rendere l’IA apparentemente più empatica, più accogliente, più umana dei terapeuti stessi.
Nel frattempo, colossi come Woebot, Meru Health e Cerebral Inc. – tutti attivi nel campo della salute mentale digitale – raccolgono centinaia di milioni di dollari.
Il mercato dell’IA “terapeutica” è già valutato in miliardi.
E questi studi servono proprio a creare la narrazione di un’IA che ci comprende, ci consola, ci salva.
Una narrazione funzionale solo a chi venderà i prossimi pacchetti di “cura digitale”.
Il problema non è che l’IA sia troppo umana.
È che noi, forse, lo siamo sempre meno.
Nicco

Unisciti al nostro canale Telegram
https://t.me/occhioallastoria
Torna al blog