Metto insieme due studi letti in settimana che, neanche a dirlo, parlano di AI.
Uno è di Deloitte. Il report Global Human Capital Trends 2025 indica le priorità strategiche del management delle aziende per gestire la relazione complessa con i propri dipendenti nell’era dell’AI.
L’altro è di Apple. L’illusione del Pensare ridimensiona le aspettative sulla capacità di ragionamento dell’intelligenza artificiale generativa, dei Large Reasoning Model (Lrm), rispetto alle promesse degli sviluppatori.

Deloitte, non improvvisazione per l’AI

Partiamo da Deloitte, dalla ricerca Global Human Capital Trends 2025 sul futuro del lavoro. Per restare rilevanti, le aziende dovranno saper integrare AI e umanità, tecnologia e identità, stabilità e adattabilità. La necessità di evolvere i modelli organizzativi è sentita da oltre il 60% delle aziende che vuole ripensare ai propri ruoli manageriali, all’Employee Value Proposition e ai meccanismi di engagement.

Un processo per creare nuovi equilibri aziendali, impattare su produttività, ingaggiare nuovi talenti. Ma in Italia il 78% delle aziende segnala un disallineamento tra le competenze in azienda e quelle richieste dai nuovi trend 2025 legati all’AI. In questo scenario, la GenAI diventa leva per ridisegnare il lavoro “anche se al contempo può creare tensioni tra l’organizzazione e i dipendenti. In questo contesto, la leadership deve essere in grado di trasformare tali tensioni gestendole non come conflitti da risolvere ma come stimoli per innovare e crescere” precisa Matteo Zanza, Human Capital leader di Deloitte Central Mediterranean.

Ma come? Il manager dovrà essere in grado di integrare algoritmi e cultura, dati e relazioni. Per generare una gestione del lavoro più predittiva e personalizzata, diventando così orchestratore del cambiamento. Il 64% dei leader italiani (66% a livello globale) ritiene che i ruoli manageriali debbano essere ripensati in chiave strategica, meno focalizzati su attività amministrative e più sullo sviluppo delle persone, sulla valorizzazione delle loro competenze.

Non ci si improvvisa sull’AI. I lavoratori devono potere accedere a esperienze formative significative, per sanare quel 79% di divario tra domanda e offerta di skill. Spetta al manager orchestratore offrire strumenti validi, corsi, non improvvisazione, seguendo un approccio più flessibile e di apprendimento continuo, pensando a programmi di sviluppo anche personalizzati (micro formazione), che simulano esperienze reali e casi di studio, automatizzando compiti di basso valore per lasciar spazio all’apprendimento.

La motivazione personalizzata rimane una leva molto importante per l’ingaggio sull’AI: il 64% degli intervistati italiani ritiene che sia un tassello fondamentale per sbloccare la performance umana, migliorare l’engagement, la produttività e la retention. “La leadership del futuro dovrà essere in grado di ascoltare, interpretare e rispondere alle esigenze individuali in tempo reale. L’adozione di tecnologie generative, se guidata da un framework etico e trasparente, può rafforzare il senso di appartenenza e creare una relazione reciprocamente vantaggiosa tra azienda e persona” precisa la ricerca.

Un trend che porta a ridefinire la Employee Value Proposition (Evp) mantenendo l’uomo nel loop delle decisioni, anche in una collaborazione crescente tra persone e AI (il 64% degli intervistati italiani lo crede). Ma spetterà ad ogni singola azienda costruire una proposta coerente con il nuovo modo di lavorare (“ibrido, aumentato, dinamico”) non solo flessibile ma anche inclusivo con modelli di leadership condivisa.
Top management e ufficio delle risorse umane dovranno ridefinire nuovi modelli di governance del lavoro che sappiano offrire sicurezza psicologica e al tempo stesso favorire il cambiamento continuo, soprattutto nei settori ad alta intensità operativa come il retail e i servizi. Per costruire un business sostenibile nel lungo periodo è necessario un cambiamento culturale profondo di management e dipendenti. 

Apple, capacità di ragionamento degli Lrm in discussione

Il secondo studio di Apple mette in dubbio le promesse fatte sulla capacità di ragionamento dei Large Reasoning Model (Lrm), i modelli più evoluti dei Large Language Model (Llm) sui quali è nata l’AI generativa.
Nel titolo del paper la parolaillusione” la dice lunga: “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” (L’illusione di pensare: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi). 

Apple sostiene che gli Llm – alla base dei modelli di GenAI di Google, Meta, OpenAI, Microsoft – non ragionano, si muovono riconoscendo pattern e dando risposte plausibili, ma non sono in grado di dare risposte a problemi complessi.

La conclusione – a valle di esperimenti con puzzle di difficoltà crescente testati sui modelli di AI più avanzati – affermano che nel caso di problemi complessi, anche gli Lrm diventano inefficaci, si perdono in ragionamenti senza arrivare a una soluzione finale.

Le valutazioni attuali della GenAI si concentrano principalmente su benchmark matematici e di codifica consolidati, enfatizzando l’accuratezza della risposta finale. Ed è questo modo di procedere sbagliato. Così facendo l’AI non rivela la struttura del ragionamento: il vero valore di un sistema AI non sta nell’arrivare alla soluzione, ma nella logica del percorso seguito per raggiungerla, nella sua coerenza.

Ed è qui il punto di debolezza degli Llm e degli ultimi Lrm. “Dimostriamo che gli Lrm di frontiera subiscono un crollo completo dell’accuratezza oltre determinate complessità” precisano i ricercatori Apple: più la difficoltà cresce, più le risposte prodotte sono casuali, perché i modelli smettono di ragionare in modo logico. “In questo lavoro, indaghiamo sistematicamente queste lacune con l’ausilio di ambienti di puzzle controllabili che consentono una manipolazione precisa della complessità compositiva mantenendo strutture logiche coerenti” precisano.

Sono tre gli scenari identificati.

1 – Nei compiti semplici, gli Llm sono più efficaci dei più avanzati Lrm.
2 – Nei compiti di media complessità, gli Lrm danno risultati migliori perché riescono a portare avanti il ragionamento per più tempo.
3 – Nei compiti complessi, sia gli Llm sia gli Lrm crollano, non riescono a trovare soluzioni lineari e coerenti.

Ma il paper dà un altro ritorno importante. Quando l’AI ha a diposizione capacità computazionali sufficienti, il risultato delle risposte ai compiti non migliora ma peggiora, evidenziando come il limite non sia un tecnico ma concettuale (fenomeno anche detto dello scaling limit) .

Come interpretare questa ricerca? Tenendo conto del ritardo di Apple nello sviluppare la propria AI battezzata Apple Intelligence, alcuni osservatori trovano in questo documento uno strumento per giustificare la lentezza della casa di Cupertino. Ma l’attenzione alzata sulla capacità di ragionare degli Lrm abbraccia più pensieri e rimane strettamente legata alla domanda quanto sia prossima o lontana la tanto decantata Agi o intelligenza artificiale generale in grado di ragionare come l’uomo (per il ceo di OpenAI, “l’umanità è vicina a costruirla”).

La conclusione dei ricercatori di Apple è che siamo ancora lontani da una Agi in grado di comprendere e risolvere problemi complessi, in modo generalizzato. “Gli attuali approcci potrebbero aver raggiunto barriere insormontabili al ragionamento generalizzabile”, e la domanda nasce spontanea. Questi modelli saranno mai in grado di pensare in modo autonomo? Saranno mai più intelligenti dell’uomo?. Tra le teoria di un AI senziente e la pratica, al momento nessuna certezza.  

© RIPRODUZIONE RISERVATA

Condividi l'articolo: