L’intelligenza artificiale è sempre più presente nei progetti di sostenibilità aziendale. Ma se mal progettata, rischia di produrre solo efficienza apparente e rinforzare vecchi modelli. Per questo esploriamo il concetto di greenwashing algoritmico e proponiamo strumenti concreti per riconoscerlo e prevenirlo, valorizzando davvero l’AI come leva di cambiamento. Per sostenibilità non si intende solo tutela dell’ambiente, ma la capacità di un’organizzazione di operare nel lungo periodo generando valore per l’insieme degli stakeholder: ambiente, persone, comunità, con una migliore governance. È un equilibrio dinamico tra risultati economici e impatti sociali e ambientali.

L’equivoco dell’“E” nella sfera Esg

Negli ultimi anni, l’acronimo Esg è entrato con forza nei piani strategici delle imprese. Sta per Environmental, Social and Governance — tre dimensioni su cui si misura la sostenibilità di un’organizzazione. Ma nella pratica, la E di Environmental ha finito per dominare la scena, riducendo l’Esg a una questione esclusivamente ecologica: emissioni, consumi, compensazioni.
Il motivo è semplice: l’ambiente è più facile da quantificare e da comunicare. Un grafico sulle tonnellate di CO2 fa più effetto di una riflessione sul modello di governance o sulle disuguaglianze interne. Il rischio? Una visione ristretta della sostenibilità, centrata sulla performance ambientale di breve periodo, piuttosto che sulla trasformazione profonda dei modelli organizzativi. In questo scenario, anche l’uso dell’intelligenza artificiale rischia di diventare uno strumento per migliorare ciò che è già noto, non per mettere in discussione ciò che andrebbe cambiato. E così nasce un nuovo fenomeno, che possiamo definire greenwashing algoritmico: una forma emergente di auto-assoluzione tecnologica, in cui l’uso dell’AI migliora i numeri ma non la sostanza delle pratiche aziendali.

Greenwashing algoritmico: l’AI fa bella figura ma nulla cambia

Il greenwashing tradizionale consiste nel comunicare un impegno ambientale che, nei fatti, è superficiale o marginale. Il greenwashing algoritmico è più sottile: si ottiene quando l‘AI viene utilizzata per mostrare progressi, più che per abilitare veri cambiamenti.
Un esempio concreto: un’azienda del largo consumo introduce un sistema di AI per ottimizzare le rotte di consegna, riducendo del 6% i consumi di carburante. Un dato utile, certo. Ma se la logistica è costruita su una strategia di sovrapproduzione e promozioni continue, l’efficienza serve solo a mascherare un modello insostenibile. Non si tratta di una distorsione volontaria. Spesso sono proprio gli indicatori e gli strumenti di misurazione a guidare inconsapevolmente le scelte, premiando ciò che si può migliorare facilmente, e ignorando ciò che sarebbe più scomodo ripensare.
Qui entrano in gioco due bias cognitivi: il present bias e il bias dell’efficienza apparente.

Due trappole cognitive che l’AI non corregge (anzi, amplifica)

Il present bias è la tendenza a privilegiare benefici immediati rispetto a quelli futuri, anche quando questi ultimi avrebbero un impatto più significativo. Esempio: investire in sensori per ridurre il consumo energetico negli uffici, ma rimandare la riqualificazione energetica dell’intero edificio.

L’AI asseconda questo bias quando viene addestrata su obiettivi a breve termine o premiata in base a risultati trimestrali. Il rischio è che si adottino soluzioni smart che migliorano la superficie, lasciando intatte le fondamenta.“Obiettivi mal concepiti possono effettivamente incoraggiare comportamenti negativi. È fondamentale esaminare le conseguenze non intenzionali quando li si definisce”, dicono Max H. Bazerman e Ann E. Tenbrunsel in Ethical Breakdowns (Harvard Business Review, aprile 2011).

Il bias dell’efficienza apparente è invece la tendenza a preferire ciò che appare efficiente, anche se agisce su problemi secondari. Un algoritmo può ottimizzare i consumi di una stampante, ma non cambierà il fatto che quella stampante produce documenti superflui. In azienda, l’AI viene spesso impiegata per perfezionare microprocessi che non incidono sulla sostenibilità sistemica. Il risultato è una rappresentazione virtuosa, ma scollegata dalle trasformazioni necessarie.

Tabella Bias
Bias, le differenze tra present bias e bias dell’efficienza apparente e i relativi rischi

Come riconoscere (e disinnescare) il greenwashing algoritmico

Il greenwashing algoritmico si manifesta in modo sottile. Alcuni segnali:

  • L’AI ottimizza processi esistenti senza toccare decisioni strategiche.
  • I Kpi ambientali migliorano, ma le pratiche di business non cambiano.
  • L’impatto reale è trascurabile rispetto all’effetto comunicativo.
  • Nessuna funzione aziendale ha modificato in modo significativo i propri comportamenti.

Un esempio virtuoso arriva da Unilever, che ha applicato l’intelligenza artificiale nella supply chain dei suoi gelati, un segmento ad alta stagionalità. Analizzando dati meteorologici e di vendita, l’azienda ha migliorato la precisione delle previsioni di domanda del 10% in Svezia, riducendo gli sprechi. Inoltre, l’introduzione di freezer intelligenti ha aumentato gli ordini e le vendite fino al 30% in alcuni mercati (fonte: unilever.com).
Questo dimostra che l’AI può avere un impatto significativo, ma solo se integrata in una strategia aziendale consapevole e trasformativa.

Tre pratiche per evitarlo

  1. Ridefinire gli obiettivi prima dei Kpi: partire dall’impatto desiderato e poi costruire gli indicatori, non il contrario.
  2. Coinvolgere stakeholder esterni nei test: integrare nel design dei sistemi AI punti di vista diversi da quelli interni all’organizzazione.
  3. Revisionare periodicamente le metriche di successo: chiedersi con regolarità se stiamo ancora misurando ciò che conta davvero.

Non basta ottimizzare, serve ripensare

L’AI può essere una leva formidabile per la sostenibilità, ma solo se viene usata per riprogettare le scelte, non per giustificarle.
Il rischio più grande è convincersi di essere sulla strada giusta perché i numeri migliorano. Ma i numeri, da soli, non raccontano il cambiamento: lo certificano. Ed è proprio qui che serve più lucidità. Come sottolineano diversi esperti del settore, la tecnologia da sola non è una panacea: è l’uso che ne facciamo che determinerà se avrà un impatto positivo o negativo. L’interazione tra AI ed Esg richiede consapevolezza, responsabilità e un impegno concreto verso la costruzione di framework etici e normativi. Serve formazione, collaborazione interdisciplinare e un orientamento strategico che non si limiti a ottimizzare l’esistente, ma favorisca un vero sviluppo sostenibile. L’AI può essere una leva formidabile per la sostenibilità, ma solo se viene usata per riprogettare le scelte, non per giustificarle.
Il rischio più grande è convincersi di essere sulla strada giusta perché i numeri migliorano. Ma i numeri, da soli, non raccontano il cambiamento: lo certificano. Ed è proprio qui che serve più lucidità. La domanda non è: quanto abbiamo migliorato? Ma: stiamo andando nella direzione giusta?

* Laureato in ingegneria elettronica/sistemi informativi, Pierpaolo Muzzolon è counselor in analisi transazionale, coach e trainer. 

© RIPRODUZIONE RISERVATA

Condividi l'articolo: