Nel panorama sempre più affollato dell’innovazione, dove l’AI generativa guida la trasformazione del marketing e della comunicazione, Raffaello Luly, manager, docente e consulente in ambito MarTech e founder di Semplicissimo, propone un approccio che non si limita a osservare le evoluzioni dell’intelligenza artificiale: le interroga, le mette in discussione, le contestualizza in una cornice più ampia che chiama in causa etica, sostenibilità e responsabilità.
Lo incontriamo per parlare proprio dell’intreccio tra etica e AI, e ne emerge una visione lucida, a tratti inquieta, mai accomodante. “Mi sto occupando molto di roboetica, una materia che mi appassiona molto perché, anche se oggi parliamo molto della parte software – l’AI – penso che il vero passaggio sarà quando andremo ad agganciare la parte hardware, che è la parte di robotica, anche umanoide. Siamo solo all’antipasto”.
Un antipasto che però, avverte, già obbliga a porsi domande fondamentali: chi è responsabile delle decisioni prese da un sistema intelligente? Quanto la macchina condiziona le nostre scelte, i nostri apprendimenti, la nostra stessa percezione della realtà?

Una rivoluzione che tocca tutte le dimensioni del vivere

Luly parla della tecnologia come di una presenza ambivalente. Da un lato la utilizzo e ne vedo il potenziale, dall’altro ne vedo gli enormi rischi, a tutti i livelli”. Si tratta quindi, secondo Luly, di una rivoluzione che tocca ogni dimensione del vivere: economica, sociale, culturale e persino morale. Ed è un punto di vista che rompe con la narrativa rassicurante dell’AI come semplice strumento di efficienza e produttività. L’intelligenza artificiale – così come oggi si sta evolvendo – non è più neutra, né innocua: è un agente di trasformazione sistemica. Un esempio? Un’esperienza recente durante la Digital Week alla Iulm, dove Luly ha condiviso il palco con un avvocato che ha sviluppato una piattaforma AI per la consultazione giuridica. La domanda è inevitabile: preferiresti essere giudicato da un essere umano o da una macchina? Il giudice umano può sbagliare per pregiudizio, la macchina no… o forse sì, se è stata addestrata con dati distorti. È qui che l’etica diventa cruciale”.

Marketing, comunicazione e rischio percepito

Nel campo della comunicazione e del marketing, Luly è più sereno:Sulla pubblicità il rischio è minimo. Siamo cresciuti con spot ingannevoli, hamburger enormi che nella realtà erano grandi la metà, monetine che uscivano pulite da un detersivo. L’AI, rispetto a certe trovate del passato, non è nulla di nuovo”. Tuttavia, il nodo etico si stringe altrove: nei processi automatizzati della sanità, nella gestione finanziaria, nell’accesso alla formazione, nella pubblica amministrazione. In questi ambiti, decidere chi decide – e in base a quali valori – diventa un’urgenza democratica, oltre che tecnologica.

Lavoro, entry level e nuovi dilemmi morali

Tra i rischi sistemici che l’intelligenza artificiale porta con sé, uno dei più rilevanti è quello occupazionale. L’etica non è solo una questione di filosofia. Oggi l’AI mette in crisi soprattutto i ruoli entry level, quei lavori semplici che servivano a entrare nel mondo del lavoro”. Ruoli che, storicamente, costituivano un primo passaggio formativo, e che oggi rischiano di sparire sotto il peso della produttività automatizzata. Le aziende si trovano a scegliere se continuare ad assumere anche dove l’AI può sostituire l’uomo. È un dilemma etico concreto”. Non si tratta più solo di efficienza, ma di visione sociale. Le tecnologie che sostituiscono il lavoro umano non sono neutre: generano impatti reali sul tessuto occupazionale, sulla crescita professionale, sulla dignità delle persone.

L’altro costo nascosto: la sostenibilità ambientale

Un altro nodo ancora sottovalutato riguarda l’impatto ambientale dell’AI. “Paghiamo venti euro al mese per un software, ma il suo impatto ambientale è enorme e, lato sostenibilità, va preso in seria considerazione”.

Raffaello Luly
Raffaello Luly, founder di Semplicissimo

Nel discorso pubblico, l’AI è raccontata spesso come una tecnologia “immateriale”, invisibile. Ma è tutt’altro che leggera. Luly cita un esempio suggestivo: i progetti di Microsoft sul salvataggio dei dati nel Dna, che ridurrebbero drasticamente lo spazio fisico necessario allo storage.
Ma anche in questo caso, l’entusiasmo si accompagna a un dubbio etico: “Pensare a intelligenze artificiali sempre più potenti, robotica umanoide e dati conservati nel Dna… Non so se mi affascina o mi inquieta. A volte mi chiedo se qualcuno non stia davvero giocando a fare Dio”.

Regolamentazione e disparità geopolitica

In un mondo globalizzato, anche le regole dell’innovazione non sono uguali per tutti. “Le direttive europee stanno cercando di dare un quadro di regole, ma non c’è un’uniformità a livello globale. Negli Usa, infatti, le aziende sperimentano perché corrono, hanno capitali, e il mercato le spinge. In Cina sperimentano perché devono correre e seguire la direzione data dallo Stato. In Europa, invece, siamo molto più regolati e prudenti, a volte troppo”. Il risultato? Una disparità competitiva che penalizza le imprese europee e italiane. “Oggi puoi fare certe cose in America, altre in Cina, meno in Europa e ancora meno in Italia. È un problema serio”.

In un’epoca in cui la competizione si gioca sempre più sull’innovazione, l’asimmetria normativa rischia di creare uno squilibrio permanente tra i blocchi geopolitici. La risposta non può essere né un arretramento né una rincorsa cieca: serve una governance condivisa, capace di armonizzare etica e sviluppo.

Una bussola per orientarsi, l’etica come motore dell’innovazione

Nonostante tutto, Luly non è un catastrofista. La sua è una posizione critica, ma costruttiva. Ritiene, infatti, che serva rimanere ottimisti e che l’etica non debba essere un freno all’innovazione ma la sua bussola. Se impareremo a governare queste tecnologie e a capirne i limiti, potremo costruire un futuro più equilibrato. Ma se le subiamo passivamente, rischiamo di perdere il controllo non solo dei dati, ma di noi stessi. In un contesto dove l’adozione delle MarTech si intreccia con la sostenibilità e la responsabilità sociale, il messaggio è chiaro: l’AI non è il problema. Il problema è come la usiamo – e chi la controlla. È una chiamata alla consapevolezza, non alla rinuncia. Una sfida che riguarda tutti: aziende, istituzioni, cittadini.

Leggi tutti gli approfondimenti della Rubrica Sbarco su MarTech by Criet, MiHub e Inno3 


Raffaello Luly è consulente e docente nel campo del digitale applicato al turismo, all’ospitalità e alla comunicazione d’impresa. Fondatore di Semplicissimo, agenzia specializzata in trasformazione digitale, intelligenza artificiale applicata ai processi aziendali e progetti di innovazione per il settore travel, affianca aziende e organizzazioni nei percorsi di “restart digitale”, con particolare attenzione all’integrazione tra creatività, dati e automazione. È Cultore della materia presso l’Università Iulm di Milano, dove svolge attività didattica e di ricerca su temi legati ai dati, alle tendenze digitali, all’impatto dell’intelligenza artificiale e alle loro ricadute nella società contemporanea. Scrive saggi, coordina workshop e partecipa regolarmente come relatore a convegni e iniziative scientifiche dedicate all’evoluzione della comunicazione digitale. Collabora inoltre come relatore e formatore con diverse istituzioni accademiche, tra cui Università della Calabria, Università di Milano-Bicocca e Uet – Scuola Universitaria Europea per il Turismo, oltre che con enti di formazione professionale e realtà del settore turistico e alberghiero.

Emanuele Ghianda, PhD Student presso l’Università degli Studi di Milano-Bicocca e research consultant @Criet

© RIPRODUZIONE RISERVATA

Condividi l'articolo: