Dove sta andando il mondo della ricerca sull’intelligenza artificiale? Dove approderemo tutti noi? Quando arriverà l’AI generale? Sarà in grado di ragionare?
La prospettiva non può che essere ampia parlando di intelligenza articiale con Silvio Savarese, vice presidente & chief scientist in Salesforce Research, fino al 2021 docente di robotica presso l’Università di Stanford con la quale collabora ancora oggi nel cuore della Silicon Valley. Tra i ricercatori più influenti nel mondo dell’intelligenza artificiale e oggi a capo della ricerca sull’AI dell’azienda guidata da Benioff. Una AI che sta attraversando nuove fasi e che ha come traguardo finale quello di diventare una AI generale, senziente, ragionante, autonoma, per tutti. Ma siamo ancora molto lontani.
Guardiamo tutti i passaggi, ora che dopo la fase della AI generativa è il momento magico degli Agenti AI (Salesforce li ha presentati nel corso del Dreamforce 2024 ma è un’arena nella quale tutti i vendor software sono scesi negli ultimi mesi). A che punto siamo con la ricerca?
Dalla GenAI agli Agenti AI
“Con l’avvento della generativa AI siamo passati dall’utilizzare l’intelligenza artificiale per fare predizioni e classificazioni a una AI in grado di generare contenuti – esordisce Savarese incontrato a San Francisco -. Da due anni, a partire dall’annuncio di ChatGpt, i vendor software si sono concentrati nello sviluppare tecnologie che potessero aiutare gli utenti a generare email, fare riassunti, preparare documenti di varia natura per servizi, sales, marketing, commerce. Questo è stato anche quello che abbiamo sviluppato in Salesforce con Einstein Gpt creando poi le fondamenta per introdurre il concetto di Copilot sei mesi fa. Si tratta di un assistente digitale, un co-pilota che aiuta gli addetti nello svolgere alcune operazioni. Ma ora si è passati dal generare contenuti ad effettuare azioni. Mi spiego: se devo prendere un appuntamento, non basta dire “prendi l’appuntamento”, serve saper fare tutti i passaggi richiesti per prendere l’appuntamento, verificare le disponibilità in agenda, incrociare le azioni”.
Come è stato possibile arrivare a fare compiere azioni all’AI? “Il passaggio è stato quello di creare un’infrastruttura che consentisse di passare dall’aspetto generativo all’azione. Copilot è stato il primo prodotto che ha in qualche modo implementato questa idea, ma ci siamo resi conto che lo sforzo da parte degli utenti nell’utilizzare Copilot era abbastanza considerevole: era un po’ come chiedere loro di cambiare l’abitudine nell’utilizzare questi strumenti e non era semplice. Da qui è nato il concetto di Agenti AI, proprio per l’esigenza di semplificare il passaggio dal dire al fare, e quindi dare agli utenti delle capacità “chiavi in mano”. Gli Agenti AI svolgono operazioni diverse, sono specializzati e pronti all’uso, una vera evoluzione del concetto di Copilot”.
Agenti AI con cuore e cervello
La ricerca ha equipaggiato gli Agenti AI con tre aspetti importanti.
Il primo è la memoria, dando agli Agenti la capacità di ricordare quello che è successo prima, il proprio incarico, il proprio scopo, le informazioni elaborate. “Solo avendo memoria di quello che è successo l’Agente può svolgere il proprio compito, recuperare documentazione, dati, best practice, policies. A livello di ricerca stiamo sviluppando delle tecniche nuove che consentono di estrarre da una memoria potenzialmente gigantesca solo le informazioni che possono essere utili per quell’Agente. Tirare fuori quello che serve non è banale, soprattutto perché estraiamo informazioni che sono le più accurate possibili. Per questo abbiamo progettato tecniche di Advanced Rag (Retrieval Augmented Generation), che consentono di estrarre informazioni da grossi archivi”.
Il secondo aspetto è il cervello, il “reasoning engine”, un motore applicativo che permette all’agente di ragionare, di definire un piano d’azione, una serie di operazioni che possano essere svolte per effettuare il task che l’agente deve compiere. “Il reasoning engine è molto importante perché se si tira fuori un piano sbagliato, l’Agente si comporta nel modo sbagliato”.
Ultimo aspetto è il contesto, dal momento che l’agente deve interfacciarsi rispetto all’ambiente circostante, che può essere non cooperativo: “se deve prendere un appuntamento in un orario in cui non è disponibile il dottore, cosa dovrà fare l’Agente AI? Come scegliere, come trovare un orario differente? Il contesto ha la sua rilevanza e l’Agente deve ripianificare in base alla disponibilità di un elemento esterno – continua Savarese -. Abbiamo per questo progettato un nuovo tipo di Llm più sofisticato, che si chiama Lam (Large Action Model), sul quale stiamo lavorando da un anno e mezzo e che verrà messo in produzione nelle prossime versioni di AgentForce. L’idea è quella di generare modelli su un numero più contenuto di dati rispetto agli Llm, per creare strumenti in grado di tenere conto del contesto, di interpretarlo in modo più appropriato. Ai Lam si affiancherà poi un ulteriore progetto (xLam), una famiglia di large action model in cui saranno racchiusi tutti i vari modelli di linguaggio”.
Quali attività possono essere svolte in autonomia dagli Agenti di Salesforce?
“Agentforce, il cui cervello si chiama Atlas Reasoning Engine, elenca tutte le varie operazioni che è possibile delegare ad un agente digitale (service, sales, commerce, marketing) e se si osserva bene sono tutte operazioni abbastanza limitate che aumentano la scalabilità delle azioni e aiutano l’organizzazione ad automatizzare alcuni processi e quindi a scalare. Ad esempio, nei customer services, automatizzare risposte nell’assistenza clienti delegando agli agenti alcuni operazioni può semplificare il lavoro. Ma c’è sempre bisogno di un orchestratore umano che in qualche modo gestisca, pianifichi l’utilizzo di questi agenti digitali. Il vantaggio è avere un portfolio di agenti digitali con differenti skills, capacità, ruoli, un marketplace di agenti a cui attingere, non solo i nostri ma anche di vendor esterni, dando vita a un ecosistema versatile di Agenti AI”.
Uomo e etica
Rispetto all’autonomia dei Agenti AI, c’è un aspetto rilevante da considera legato all’etica. “Nel momento in cui permetto che un software, un algoritmo, si intrometta nel lavoro della persona – quindi la monitori e capisca qual è il suo modo di lavorare, quali sono le sue abitudini sul lavoro – questa supervisione suona un po’ come un grande fratello – argomenta Savarese –. E’ in effetti questo un aspetto che viene spesso citato come un problema dell’AI. Senz’altro bisogna lavorare sulla fiducia in un prodotto che possa essere usato in maniera opportuna e che abbia tutti i margini di sicurezza. Ci stiamo concentrando nel costruire Agenti che lavorino all’interno di certi guardrail, di confini ben definiti dalle nostre policy. Il nostro vantaggio è che Salesforce lavora su queste policy da più di vent’anni, e i processi complessi gestiti ci hanno aiutano a definire le linee di guida negli anni”.
Ma c’è un ulteriore punto di attenzione. Anche se questi agenti operano all’interno di linee guida stabilite, è sempre necessario poter rendere accessibile all’operatore umano quali sono i motivi di certe decisioni, per rendere le decisioni trasparenti. “Serve offrire uno strumento di verifica che la decisione presa dall’Agente sia giusta, creando un livello di confidenza con l’operatore umano che può sempre intervenire nel merito di una decisione. E’ necessario rendere visibile, trasparente, cosa viene fatto dall’Agente digitale: se siamo a conoscenza delle informazioni che preleva e che personalizza riusciamo a capire meglio come si muove in autonomia, senza avere il consenso dell’essere umano. E’ cosi che il tema dell’etica si collega anche a stretto giro con il tema della sicurezza”.
Il prossimo step, la robotica
Oggi siamo passati dalla GenAI agli Agenti AI, il prossimo step è la robotica. “Esatto: ci siamo evoluti dalla AI generativa agli Agenti AI ma entrambi operano nello spazio digitale. Invece, il passaggio alla robotica non sarà immediato, anche se molte delle capacità che i futuri robot dovranno avere sono esattamente le stesse di quelle degli agenti digitali. Devono cioè avere una memoria, un cervello, devono essere in grado di adattarsi a circostanze diverse nell’ambiente in cui vivono, in cui operano”.
Esemplifica: “Ricordo che quando stavo a Stanford e lavoravo sulla robotica, ci occupavamo esattamente delle stesse questioni. Quindi se dovevamo progettare un robot per cucinare una omelette o fare un caffè dovevamo innanzitutto fare in modo che il robot ricordasse la ricetta (avere memoria) e il procedimento, tutte le azioni fisiche dal prendere la pentola, metterla sul fornello, ad aggiungere l’olio e gli ingredienti. Con la capacità di reagire all’ambiente circostante: se non trovi l’olio che fai, come puoi adattarti a queste situazioni? Quindi, in realtà, le tre componenti degli agenti digitali sono esattamente le stesse dei robot. Quello che cambia, e che ancora manca nell’adattarsi al contesto, è la capacità deduttiva, insomma, il ragionamento“.
Ma allora cosa differenzia i robot dagli agenti digitali? “Il fatto di agire in un mondo fisico richiede ai robot un equipaggiamento di sensori, per udito, vista, tatto, per rendere i robot in grado di interagire con gli oggetti a seconda delle circostanze. Questo si riassume nel nostro concetto di Embodied AI, una intelligenza artificiale generativa inserita in un corpo robotico capace di interagire fisicamente con l’ambiente circostante. Questo è a mio avviso l’aspetto che differenzia i veri robot da quelli attuali. Purtroppo, ci vorrà ancora del tempo perché l’hardware per costruire questi robot sia in grado di essere flessibile e adattabile al contesto. Ma ci arriveremo, passeremo a un certo punto dal costruire agenti digitali a agenti non digitali, e i due coopereranno in modo flessibile. Questa è la traiettoria tracciata”.
Quando una AI senziente?
Sull’AI senziente Savarese non ha cambiato idea negli ultimi anni, nonostante la ricerca universitaria viaggi a ritmo sostenuto. “È stato fatto un salto sostanziale con l’arrivo degli Agenti AI che operano in autonomia ma non ho cambiato idea sull’AI in grado di ragionare, continuo a ritenere che siamo abbastanza lontani a creare un’AI senziente e un’AI generale. L’AI può dare l’impressione di essere senziente, grazie alla capacità di ingerire una quantità di testi e di informazioni molto elevata, ma non è senziente, non può ragionare in maniera complessa”.
Quello che si sta verificando ora è la possiblilità di specializzare per task specifici i modelli di AI generativa. “Non è necessario creare un super cervello in grado di rispondere a tutte le questione, ma è molto più utile specializzare questo cervello in cervelli più piccoli che riescano a svolgere azioni e compiti molto più specifici, che possano quindi essere addestrati con meno dati, legati a uno specifico caso d’uso, quindi anche consumando meno risorse con un impiatto ambientale più ridotto. Per questo gli agenti digitali che stiamo introducendo sono agenti molto specializzati”.
In questa specificità i modelli riguardano anche specifici vertical di mercato. “Sì, non sono solo specializzati per casi uso, ma anche per domini”. Il mondo della sanità, del finance oppure all’automobile, sono tra loro domini molto diversi con necessità di risposte mirate.
© RIPRODUZIONE RISERVATA