La capacità di agire nella sfera dei processi digitali in modo autonomo e continuativo è di fatto il passaggio più importante offerto dall’evoluzione dell’AI generativa che alza l’asticella delle possibilità oltre la semplice produzione di contenuti. Si parla per questo di Agentic AI, in cui i modelli non si limitano a rispondere a richieste puntuali ma orchestrano task complessi, prendono decisioni, interagiscono con applicazioni e dati aziendali, si coordinano con altri agent e mantengono memoria nel tempo. Negli ultimi sei mesi questo cambio di paradigma è diventato esplicito nelle roadmap dei principali attori – OpenAI, Microsoft, Aws, Google, Meta AI tra questi– con proposte che tuttavia mostrano alcuni tratti distinti per architettura, casi d’uso e modello di governance.

Secondo il Computer science and artificial intelligence laboratory del Mit, l’Agentic AI si differenzia dalla GenAI lungo quattro direttrici: è focalizzata sull’azione e sul decision making, non richiede necessariamente prompt espliciti, è progettata per svolgere in autonomia processi articolati e soprattutto è dinamica, in grado di adattarsi all’ambiente e di apprendere dai propri errori. Si agganciano le previsioni Gartner secondo cui entro il 2028 un terzo delle applicazioni enterprise includerà componenti agentiche, rispetto a meno dell’1% nel 2024, con una quota crescente di decisioni operative delegata a sistemi autonomi. L’anno che si sta per chiudere poi, secondo Deloitte, ha già rappresentato il “tipping point” in cui le aziende si sono spostate dai primi esperimenti con la GenAI ai pilot agentici su processi core. In questo scenario, la differenza tra i grandi provider non è più solo la “potenza” del modello ma il modo in cui strutturano gli ecosistemi di agent.

OpenAI, dall’agente generalista alla piattaforma per i workflow

OpenAI è il player che più esplicitamente ha trasformato ChatGpt in un “agent” a tutti gli effetti. Con l’annuncio di ChatGpt Agent durante l’estate, l’assistente è diventato capace di eseguire task end-to-end usando una sorta di propria bussola virtuale: attraverso la navigazione Web, l’interazione con i form, l’esecuzione di codice, la combinazione di informazioni da più fonti fino alla restituzione di artefatti finiti come report, presentazioni, fogli di calcolo. È il punto di convergenza tra tre filoni già in sperimentazione: Operator (agente in grado di interagire con siti e servizi esterni), la funzione di deep research per la sintesi di contenuti lunghi e la capacità conversazionale dei modelli di ultima generazione.
Nel giro di pochi mesi questa logica è stata estesa su diversi piani.
Il primo è quello delle applicazioni verticali: in ambito commerce, OpenAI ha introdotto un Agentic Commerce Protocol, sviluppato con Stripe, che consente a ChatGpt di confrontare offerte, assemblare “carrelli” e completare transazioni senza uscire dalla conversazione (ne parla McKinsey nello studio Agentic commerce). Il secondo asse è quello della piattaforma per sviluppatori: con AgentKit, annunciato in ottobre, OpenAI propone un set completo di strumenti per disegnare, distribuire e osservare workflow agentici – dal canvas visuale Agent Builder per orchestrare più agent e tool, al Connector Registry per governare i connettori verso dati aziendali, fino alle nuove capacità di evaluation e alle Guardrails open source per costruire controlli di sicurezza e compliance fin dal design.

Come funziona Agentic Control Protocol
Come funziona Agentic Control Protocol

Il terzo asse è l’emergere di agent “specialisti”, esemplificato da Aardvark, proposto anche questo ad ottobre come agente di ricerca di vulnerabilità alimentato da Gpt-5. Aardvark analizza repository di codice, monitora le modifiche, identifica vulnerabilità potenziali, valuta l’exploitabilità e propone patch, lavorando come un security researcher automatizzato che sfrutta tool, test e ambienti di sandboxing per validare i risultati.

In pochi mesi, quindi, la proposta OpenAI si è mossa da un agente generalista integrato nell’interfaccia ChatGpt ad una proposta articolata: piattaforma developer, agent verticali e protocolli transazionali. Il filo conduttore è una forte integrazione tra ragionamento a lungo termine, tool use e capacità di agire direttamente su sistemi esterni, con un’enfasi crescente su controlli di sicurezza e governance integrati nella piattaforma. Senza contare poi che direttamente dai Gpts è possibile per chiunque fare tesoro della successione di richieste “omogenee” nel tempo fatte a ChatGpt per ritrovarsi formulato in pochi passaggi il codice per generare un agente su misura. 

Microsoft, Open Agentic Web e controllo centralizzato

Microsoft ha scelto una narrativa diversa, più centrata sull’impresa e sulla visione di un “Open Agentic Web”. In occasione di Build 2025 il tema degli AI agent è stato centrale, con alla base un ecosistema in cui Copilot, Azure AI Foundry, GitHub e Windows sono gli elementi costitutivi per costruire, orchestrare e governare agent. Sono già circa 230mila le organizzazioni che usano Copilot Studio per creare agent e automazioni, con Azure AI Foundry Agent Service per orchestrare più agent specializzati tramite Semantic Kernel e AutoGen, includendo supporto a protocolli aperti come il Model Context Protocol per connettere applicazioni e fonti dati eterogenee.
Negli ultimi sei mesi questa visione è stata rafforzata con un focus marcato sulla governance. Al centro degli annunci di Ignite 2025, infatti, c’è Agent 365, descritto come “control plane for agents”: come una sorta di registro centralizzato di tutti gli agent dell’organizzazione, con funzioni di inventory, controllo degli accessi, monitoraggio in tempo reale, analisi dei collegamenti tra agent, persone e dati, e gestione della conformità. In parallelo, l’introduzione di Windows 365 for Agents porta questa logica nell’infrastruttura client, con cloud pc progettati per eseguire carichi agentici in modo conforme alle policy enterprise, mentre un set di nuovi agent di sicurezza è stato integrato nei prodotti Defender, Entra, Intune e Purview per automatizzare detection e response sulle superfici di sicurezza Microsoft.

Microsoft Agent 365
Microsoft Agent 365, la consolle di utilizzo

Rispetto a OpenAI, l’evoluzione di Microsoft è meno incentrata sull’agente “singolo” e più su un mesh di agent che agiscono all’interno dei workflow aziendali: dal coding agent di GitHub Copilot, agli agent costruiti con Copilot Studio per funzioni specifiche, fino agli agent governati da Agent 365. L’elemento a nostro avviso distintivo degli ultimi mesi è la transizione dall’abilitare singoli casi d’uso alla costruzione di un’infrastruttura completa per gestire – tecnicamente e organizzativamente – centinaia o migliaia di agent in un’unica impresa, con proiezioni di scenario che secondo Idc arrivano a contare 1,3 miliardi di agent in produzione entro il 2028.

Aws Agents for Bedrock spina dorsale dell’ecosistema agentico

La strategia Aws rimane più infrastrutturale e meno “visibile” a livello di interfaccia utente, ma con un ruolo chiaro riservato ad Agents for Amazon Bedrock come spina dorsale dell’ecosistema agentico. E’ da oltre un anno che Aws ha definito il perimetro (annunci sono in corso al riguardo in occasione di re:invent 2025) attraverso agent gestiti che eseguono task multi-step su più sistemi e fonti dati, con capacità evolute di memory retention – per mantenere un contesto persistente per utente e sessione – e code interpretation, che permette di generare ed eseguire codice in sandbox per analisi dati, visualizzazioni e ottimizzazione. Gli agent orchestrano funzioni business implementate in Aws Lambda, componendo chiamate a Api interne ed esterne per automatizzare workflow come prenotazioni, gestione reclami o processi Aiops.

Panoramica della creazione di una risorsa IaaC con Amazon Bedrock
Panoramica della creazione di una risorsa IaaC con gli agenti di Amazon Bedrock

Negli ultimi sei mesi, mentre altri vendor hanno annunciato nuovi prodotti, Aws ha consolidato questa visione, con analisti e partner che descrivono Agents for Bedrock come il “cornerstone” dell’ecosistema agentico di Aws, pensato per essere serverless, integrato con l’intero portafoglio cloud e aperto a modelli di diversi provider, da Anthropic a Meta. In prospettiva agentica, Aws enfatizza tre aspetti: la capacità di integrare agent nelle architetture esistenti, sfruttando la prossimità ai dati e ai servizi già presenti in cloud; l’osservabilità tecnica, grazie a tracing dettagliato e logging nel perimetro DevOps Aws; e la sicurezza by design, con esecuzione isolata del codice, segmentazione dei contesti di memoria per utente e controlli granulari a livello di Iam.

La differenza rispetto a OpenAI e Microsoft è che Aws, storicamente meno “orientata” al front-end, si propone come livello infrastrutturale sul quale i partner – inclusi gli stessi hyperscaler concorrenti per la parte model – costruiscono applicazioni agentiche verticali. È un approccio che dialoga bene con le raccomandazioni del Mit Cisr sulla governance degli AI agent, che pongono l’accento sulla necessità di definire chiaramente diritti decisionali, meccanismi di supervisione e modalità di sperimentazione responsabile in ambienti low-code/no-code.

Google, agenti integrati nella Google AI Platform

Negli ultimi mesi Google ha ridefinito il proprio posizionamento nell’Agentic AI grazie a Gemini 3, presentato come il primo modello “interamente progettato per comportarsi come un agente”. La nuova generazione – in particolare nelle versioni Gemini 3 Pro e Ultra – introduce miglioramenti sostanziali rispetto alla serie precedente: una finestra di contesto ampia, capacità avanzate di pianificazione multi-passo, ragionamento multimodale esteso (testo, immagini, audio, video) e un’evoluzione dell’agentic coding che consente al modello di scomporre problemi complessi, eseguire azioni in sequenza e mantenere coerenza nel tempo. È un salto qualitativo che, nelle logiche di Google, rappresenta la base per applicazioni autonome orientate a processi più articolati rispetto alla generazione precedente.

Parallelamente al modello, Google da pochi giorni ha introdotto Antigravity, la piattaforma di sviluppo agentico che rende possibile definire obiettivi, strumenti, policy e controlli per agent personalizzati. Antigravity permette agli sviluppatori di strutturare agent configurabili, eseguibili tramite Api o integrazione low-code, con un sistema di orchestrazione che supervisiona i passaggi intermedi, le interazioni con servizi esterni, la gestione degli errori e l’allineamento ai vincoli operativi. È un approccio che porta Google a posizionarsi su un asse sempre più vicino al modello full-stack: il framework è integrato nativamente con i modelli Gemini, con Vertex AI e con la Google AI Platform, permettendo un flusso continuo tra progettazione, deployment ed esecuzione.

Sul fronte applicativo, Gemini 3 diventa un motore agentico anche nelle soluzioni consumer – dall’app Gemini alla Search con funzionalità AI –, questo riflette una strategia di integrazione progressiva della logica agentica nella quotidianità delle interazioni utente. Per le imprese, l’integrazione con Vertex AI Agent Builder consente di progettare agent che rispettano policy di sicurezza, audit trail e sistemi di monitoraggio dell’attività, elementi particolarmente rilevanti in contesti regolamentati. L’offerta include controlli di sicurezza, isolamento del contesto, gestione della persistenza delle sessioni e guardrail progettati per prevenire comportamenti inattesi. Infine, il lavoro di Google DeepMind prosegue sul piano della ricerca con progetti congiunti con università statunitensi e internazionali, focalizzati su multi-agent systems, dinamiche di coordinamento e valutazione della robustezza dei comportamenti emergenti.

La combinazione tra modello agent-first, piattaforma di orchestrazione e governance integrata, colloca oggi Google in una posizione che vede un ecosistema concentrato sull’autonomia dei modelli e sulla capacità di trasformare la multimodalità in azione, con un’attenzione particolare a sicurezza, controllo e qualità dell’esecuzione.

Meta, Llama Stack, open source e Meta AI

Meta si colloca in maniera peculiare, con una combinazione di modelli open source e distribuzione proprietaria. Le famiglie Llama 3.1 e 3.2 vengono descritte come modelli pensati anche per “applicazioni agentiche”, con il Llama Stack – un set di Api standardizzate – che fornisce componenti canonici per fine-tuning, generazione di dati sintetici e costruzione di applicazioni in grado di agire per conto dell’utente. L’obiettivo è fornire una base aperta, portabile tra diversi ambienti (inclusi Bedrock, Vertex AI e deployment on-premises), attorno alla quale l’ecosistema può costruire agent e sistemi multi-agent. Sul fronte consumer, Meta AI – l’assistente costruito su Llama 3 – è ormai integrato in Facebook, Instagram, WhatsApp e Messenger, dove supporta ricerca, raccomandazioni e interazioni multimodali. Negli ultimi mesi la strategia di distribuzione è diventata più aggressiva: le nuove condizioni di WhatsApp Business chiudono di fatto all’uso dell’Api per chatbot generativi di terze parti come ChatGpt e Copilot, di fatto spingendo le aziende verso l’uso della sola Meta AI all’interno della piattaforma. In Italia questa scelta ha già attirato l’attenzione dell’Agcm, che ha esteso un’indagine per possibile abuso di posizione dominante proprio in relazione agli strumenti AI su WhatsApp. Rispetto agli altri provider, l’evoluzione dell’offerta agentica di Meta negli ultimi sei mesi si gioca su due piani: da un lato il rafforzamento della Llama Stack come standard de facto per chi vuole costruire agent open source, dall’altro l’utilizzo della propria base utenti – centinaia di milioni di persone che interagiscono con Meta AI ogni mese – come leva di distribuzione per un assistente proprietario sempre più pervasivo. Ne risulta una proposizione agentica ibrida: open nella tecnologia di base, fortemente chiusa nei canali di delivery.

Ricerca e sviluppo, puntare su autonomia, trust e valutazione

In parallelo all’evoluzione dei vendor, anche il mondo accademico ha iniziato a formalizzare il concetto di Agentic AI. Sempre il Mit (divisione Professional Education) sottolinea l’importanza di progettare strategie enterprise che combinino Api cloud, piattaforme e governance per ottenere impatto reale sui processi ma sono in corso anche interessanti progetti per esempio per un AI Agent Index che cataloga sistemi agentici in produzione, analizzandone componenti tecniche, usi previsti e meccanismi di sicurezza.

Trust e affidabilità sono gli altri due temi che tengono banco nel dibattito in corso.Sulla base di un unico interrogativo: quanto possiamo fidarci di sistemi multi-agent basati su Llm, considerando che proprio le dinamiche di cooperazione e competizione intrinseche  possano generare comportamenti inattesi e difficili da controllare in scenari complessi? Vi è poi da considerare il problema della scalabilità di sistemi multi-agent, sulle metriche per valutare creatività e autonomia e sui rischi di fallimento dei sistemi multi-agente in contesti reali. Lo stesso World Economic Forum ha pubblicato per questo un report dedicato ai fondamentali per la valutazione e la governance degli AI agent, con linee guida su classificazione delle capacità, infrastrutture, rischi sistemici e requisiti di trasparenza. La sfida non è solo tecnologica ma organizzativa. Definire fino a che punto un agente può decidere da solo, come documentarne il comportamento, come integrare i controlli umani nei loop decisionali e come allineare gli agent a valori e regolamenti (in particolare in Europa, nell’interazione con AI Act, Gdpr e normative settoriali) diventa parte integrante della progettazione.

Per le imprese – italiane ed europee – che stanno iniziando ora a valutare progetti agentici, significa non solo scegliere “un modello”, ma soprattutto un approccio: per esempio partire con un agente generalista potenziato su cui costruire workflow e agent verticali, un tessuto aziendale di agent governati da un control plane e profondamente integrati con la produttività individuale, un layer infrastrutturale per orchestrare processi complessi in logica cloud-native o un ecosistema di modelli aperti e assistenti consumer-grade capillari. Nei prossimi mesi, mentre l’adozione di Agentic AI si allargherà dai pilot ai processi core, la capacità di leggere queste differenze e di tradurle in decisioni architetturali coerenti con regolazione europea, cultura aziendale e maturità digitale sarà il vero elemento distintivo per Ciso, Cio e Cdo.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: