Un’app in grado di leggere le emozioni dalla voce per aiutare i professionisti nel coaching. E’ la sfida che abbiamo voluto raccogliere e che di fatto non si è risolta con un esito positivo, se si intende la disponibilità una soluzione pronta da scaricare da un’app store, ma ha offerto un percorso di scoperta per certi aspetti anche molto più interessante, che riproponiamo.

Quando l’AI mente (e non se ne vergogna)

Il primo passaggio è stato chiedere agli assistenti AI la soluzione. Un errore. ChatGpt ha proposto una lista di app che sembravano perfette: Speechify Emotion AI, Voicemo per sentiment analysis, EllipsisHealth consumer. Nomi credibili, funzioni dettagliate, persino spiegazioni tecniche convincenti. Peccato che non esistano.
Sono inventate di sana pianta con una disinvoltura che fa riflettere.

Primo pensiero: se l’AI “più intelligente del mondo” si inventa app inesistenti quando non sa qualcosa, forse dovremmo tutti essere più scettici anche su tutto quello che racconta riguardo l’emotional AI.
Seconda lezione: le app che esistono davvero sono o prototipi accademici o software enterprise che costano migliaia di euro al mese. Niente da scaricare dagli app store, niente “prova gratis per 30 giorni”. Il mercato consumer per l’emotional AI nel coaching è praticamente inesistente. Ma qui la storia si fa interessante.

La scoperta e le sorprese

L’emotional AI non è fantascienza. È scienza consolidata che esiste da più di trent’anni, nata nei laboratori del Mit con Rosalind Picard, docente di arti e scienze dei media.

Rosalind Picard
Rosalind Picard, docente di arti e scienze dei media presso il Mit

Solo che non è dove si potrebbe pensare sia. Abbiamo scoperto infatti che al Mit è stato costruito Mach – My Automated Conversation coacH – una piattaforma con avatar 3D che offre il feedback in tempo reale su come si parla, ci si muove, ci si esprime e sulle relative emozioni. Non è un’app consumer, è un progetto di ricerca. Ma funziona. Gli studenti del Mit che l’hanno usata hanno migliorato davvero le loro abilità sociali. Nel 2020 lo stesso gruppo ha vinto un Best Paper Award per uno studio su un coach-robot in grado di offrire consigli di psicologia positiva agli studenti universitari. Risultato? Benessere migliorato, stress ridotto. Progetto serio, validato, pubblicato. Poi ci sono le ricerche internazionali – Mit, Alberta, Maryland – che dimostrano come l’AI riesca ad identificare marker vocali di stati depressivi. Non parliamo di esiti del tipo “sembra triste”, parliamo di accuratezza clinicamente rilevante. L’algoritmo ascolta la voce del parlante e risponde: “Attenzione, potrebbero esserci segnali di depressione”.

I progetti delle startup (ma non sono app)

Cogito, spin-off del Mit, è in grado di elaborare la voice sentiment analysis per i call center. Collabora con il Department of Veterans Affairs e ospedali di Boston. I loro clienti migliorano le performance del 27% analizzando le emozioni degli utenti in tempo reale.
Beyond Verbal, startup israeliana è invece in grado di rilevare le emozioni in oltre 40 lingue. E poi ancora abbiamo individuato Emolyzr che si concentra su marketing e advertising. Sono tutte aziende vere, con tecnologie che funzionano, ma nessuna fa app per il coaching. Il pattern è chiaro: la scienza c’è, le applicazioni esistono, ma sono nel mondo b2b. Ospedali, call center, ricerca universitaria. Non utilizzabili con un semplice smartphone. E secondo noi è meglio così.

Cambio di prospettiva

Erik Brynjolfsson, docente alla Mit Sloan School of Management, propone una riflessione da non sottovalutare: “Riconoscere emozioni in volti afroamericani può essere difficile per macchine addestrate su volti caucasici.

Erik Brynjolfsson, docente alla Mit Sloan School of Management
Erik Brynjolfsson, docente alla Mit Sloan School of Management

E alcuni gesti o inflessioni vocali in una cultura possono avere un significato completamente diverso in un’altra”.
Ecco perché non esiste un’app miracolosa. L’emotional AI è complicata. I bias sono ovunque. La complessità culturale è enorme. Ma c’è qualcosa di più profondo. Rosalind Picard lo spiega bene: “Il paradigma non è umano contro macchina, ma macchina che aumenta l’umano. È quindi umano più macchina”.

L’AI può ben indicare che nella voce di un cliente è rilevabile lo stress. Ma non può spiegare perché. Può rilevare pattern, non può interpretarli. Può misurare, non può comprendere.

La lezione e come farne tesoro

Dalla nostra esplorazione emergono alcuni spunti che potremmo quasi definire principi, ma preferiamo chiamarle riflessioni pratiche.
Prima riflessione: l’AI offre spunti, non consegna verità. Se risponde “stress rilevato”, è necessario chiedere “cosa sta influendo?”. Il dato è l’inizio della conversazione, non la fine.
Seconda: trasparenza totale. Se si usa uno strumento AI con un cliente, è meglio sempre svelarlo. Questo offre ulteriori elementi di osservazione, ma quello che conta è cosa emergerà dal confronto. I dati emotivi sono sensibilissimi – trasparenza e consenso non sono negoziabili.
Terza: rispettare i tempi umani. L’AI lavora in millisecondi, le persone hanno ritmi diversi Non bombardare con insights, meglio rapportarsi secondo i tempi del cliente.
Quarta: sempre validare con l’esperienza. “Suona bene questa osservazione?”. È la persona che conferma o smentisce, mai l’algoritmo.
Quinta: amplificare, non sostituire. Il regista della sessione resta il professionista. L’AI è un sensore sofisticato, il professionista ne  è l’interprete.

Cosa fare nell’attesa

Mentre attendiamo che l‘emotional AI diventi davvero accessibile, meglio iniziare a pensare diversamente. E’ possibile quindi utilizzare strumenti di trascrizione con sentiment basic per rivedere le sessioni. Fre più attenzione ai cambi di tono dei clienti. Chiedere: “Hai notato come cambia la tua voce quando parli di questo?”
Sviluppiamo quella che è possibile chiamare emotional literacy aumentata: è la capacità di integrare insights tecnologici nel processo umano di comprensione. Non è rivoluzionaria, ma è un primo passo.

L’AI aiuta i coach a pensare meglio

L’empatia computazionale esiste davvero. È scientificamente validata, testata in contesti reali, usata da ospedali e aziende. Non sta sullo smartphone perché è tremendamente complessa. Ma forse è un bene. Dà tempo per prepararsi. Per capire come integrare queste tecnologie senza perdere quello che rende umano il coaching. Per sviluppare la saggezza necessaria a usare sensori emotivi sempre più precisi.
Il futuro del coaching non sarà determinato dall’AI che fa di più, ma dai coach che pensano meglio. In un mondo che promette macchine empatiche, il vero valore sarà saper rimanere profondamente umani mentre si usano strumenti sempre più intelligenti.
La prossima volta che è necessario cercare l’app perfetta per leggere le emozioni, meglio ricordarlo: esiste già. Si chiama curiosità umana, alimentata da scienza solida e amplificata dalla tecnologia giusta al momento giusto.

Laureato in ingegneria elettronica/sistemi informativi al Politecnico, Pierpaolo Muzzolon trascorre tutta la vita in aziende hi-tech e IT nel marketing e nella comunicazione, oggi è counselor in analisi transazionale, coach e trainer.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: