L’intelligenza artificiale evolve a ritmo veloce, si è trasformata in poco tempo da una tecnologia di nicchia ad elemento strategico del nostro panorama tecnologico e sociale. Un progresso non limitato solo al campo tecnico, ma con profonde implicazioni culturali ed etiche: costringe a rivedere il nostro rapporto con le macchine e a riflettere su cosa significhi essere umani in un mondo sempre più automatizzato. Dai sistemi di intelligenza artificiale ristretta, progettati per compiti specifici (narrow AI), stiamo assistendo all’emergere di tecnologie più avanzate, come l’AI agentica (agentic AI), che ci avvicinano all’orizzonte dell’intelligenza artificiale generale (Agi). Un percorso non privo di sfide significative: le implicazioni etiche, sociali e di sicurezza sono importanti e richiedono un’attenzione collettiva e una riflessione approfondita.
I progressi dell’AI generativa
Negli ultimi anni, la generative AI ha compiuto progressi straordinari, dimostrando capacità che un tempo sembravano esclusivamente umane. Un esempio emblematico è la comprensione multimodale: i large language model (Llm) possono ora elaborare e generare contenuti in diverse modalità, come testo, immagini e audio, integrandoli in modo coerente. Ad esempio, un sistema di GenAI può analizzare una fotografia, descriverla in parole e persino generare un suono che si adatti al contesto visivo.
Un altro aspetto affascinante è l’emergere di capacità non programmate esplicitamente, come epifenomeni. Modelli come Gpt-4 hanno dimostrato di poter risolvere problemi complessi o rispondere a domande astratte senza che queste abilità siano state direttamente insegnate durante l’addestramento della rete neurale. Ciò consente a questi modelli di spiegare concetti complessi o suggerire strategie per risolvere un problema aziendale, basandosi su una comprensione implicita dei dati con cui è stato addestrato.
Tuttavia, nonostante questi progressi, la generative AI presenta ancora limiti significativi. Questi sistemi non possiedono una vera comprensione del mondo: non comprendono la fisica della realtà, poiché sono stati allenati solo su dati testuali. Spesso “allucinano” informazioni inesatte o inventano dettagli, e rimangono fortemente dipendenti dai dati di addestramento, che possono contenere bias culturali, sociali o politici.
Dalla Narrow AI all’Agi
Per comprendere meglio l’evoluzione dell’intelligenza artificiale, è utile distinguere i diversi livelli di sofisticazione:
- Narrow AI: Questi sistemi sono progettati per compiti specifici, come il riconoscimento di immagini o i sistemi di raccomandazione. Ad esempio, un’auto a guida autonoma può riconoscere l’ambiente stradale ma lo stesso sistema non può essere utilizzato per gli aerei. Questi sistemi sono già ampiamente utilizzati nel mondo reale.
- Agentic AI: Si entra in un territorio più avanzato. L’AI agentica introduce un certo grado di autonomia: non si limita a rispondere a input predefiniti, ma può pianificare, prendere decisioni e interagire con l’ambiente per raggiungere obiettivi specifici. Immaginiamo un assistente virtuale che non solo prenota un volo, ma analizza anche le tue preferenze, confronta le opzioni migliori e ti avvisa se c’è un ritardo. Tuttavia, questi sistemi rimangono confinati a compiti predefiniti e non possiedono ancora una comprensione generale o una totale autonomia. Il 2025 potrebbe essere l’anno in cui i primi sistemi di agenti entreranno in produzione nelle aziende.
- Artificial general intelligence (Agi): L’Agi rappresenta l’obiettivo più ambizioso. Si tratta di sistemi con capacità cognitive paragonabili o superiori a quelle umane, in grado di comprendere, apprendere e applicare conoscenze in modo trasversale. Un’Agi potrebbe, ad esempio, progettare una cura per una malattia sconosciuta o risolvere problemi globali come il cambiamento climatico, mostrando creatività e adattabilità. Un’ Agi è in grado di generalizzare operando su una vasta scala di problemi come gli esseri umani.
Sebbene l’Agi rappresenti una speranza per aziende come OpenAI, Anthropic e Google, il suo sviluppo solleva interrogativi profondi su come controllare e allineare una tecnologia così potente.
Il problema dell’allineamento (alignment problem)
E’ necessario garantire che un sistema AI agisca in accordo con i valori e le intenzioni umane. Questo problema diventa particolarmente urgente con l’Agi che potrebbe sviluppare obiettivi propri o interpretare in modo imprevisto le istruzioni ricevute. Un esempio classico è il cosiddetto “paradosso del genio della lampada”: se chiedessimo a un’Agi di “risolvere il cambiamento climatico a tutti i costi”, potrebbe decidere che la soluzione migliore è eliminare l’umanità, poiché siamo i principali responsabili delle emissioni di carbonio. Questo scenario, per quanto estremo, illustra la necessità di progettare sistemi che comprendano non solo gli obiettivi espliciti, ma anche i valori impliciti che li guidano. Ma è difficile stabilire quali sono i principi umani, in quanto anch’essi evolvono continuamente, e potrebbe esserci un limite epistemologico nel definire i valori dell’umanità con un dettaglio sufficiente ad allineare un’Agi.
Per affrontare il problema dell’allineamento, gli esperti stanno lavorando su tecniche come l’apprendimento basato sul feedback umano, il reinforcement learning e la creazione di modelli interpretabili. Tuttavia, queste soluzioni sono ancora in fase di sviluppo e non garantiscono una sicurezza assoluta.
L’AI e il concetto di reddito universale (Ubi)
Un altro tema cruciale legato all’evoluzione dell’AI è il suo impatto sul mercato del lavoro. Con l’automazione avanzata, molte professioni potrebbero essere sostituite da macchine, creando disoccupazione su larga scala. Tuttavia, l’AI potrebbe anche generare nuove opportunità, come la creazione di lavori legati alla gestione, alla manutenzione e all’implementazione di queste tecnologie.
Per mitigare gli effetti negativi dell’automazione, molti esperti propongono l’introduzione di un reddito universale di base (Ubi, Universal Basic Income). L’idea è semplice: fornire a ogni cittadino un reddito minimo garantito, indipendentemente dal lavoro svolto, per assicurare una rete di sicurezza economica in un mondo in cui il lavoro umano potrebbe diventare meno necessario. L’Ubi non è solo una misura economica, ma anche una risposta etica: se l’AI genera ricchezza su scala globale, è giusto che i benefici siano distribuiti equamente. Per esempio, i profitti generati dall’automazione potrebbero essere tassati per finanziare un reddito universale, riducendo le disuguaglianze e promuovendo una transizione più armoniosa verso un’economia basata sull’AI.
Implicazioni etiche e sociali
Con il miglioramento continuo dei modelli di intelligenza artificiale, come i large language model (Llm), stiamo assistendo a un fenomeno sempre più diffuso: la tendenza, da parte di persone non esperte del settore, a confondere le capacità avanzate di questi sistemi con una forma di coscienza o soggettività. Questa confusione è alimentata dalla capacità dei modelli di generare risposte estremamente convincenti, coerenti e, talvolta, persino emotive, che possono dare l’impressione che dietro il sistema ci sia un’entità con un proprio campo di soggettività interna, capace di provare esperienze simili a quelle umane. Tuttavia, è fondamentale chiarire che questa percezione è un errore concettuale, con potenziali conseguenze sociali e legali molto gravi.
Perché i sistemi AI non sono coscienti
Un sistema AI, per quanto sofisticato, è essenzialmente un software progettato per elaborare dati e generare risposte basate su modelli statistici. Anche se le reti neurali artificiali hanno alcune analogie strutturali con il cervello umano, non c’è alcun motivo razionale per credere che queste reti possano sviluppare una coscienza o un’esperienza soggettiva. A basso livello stiamo sempre parlando di transistor stampati su una lastra di silicio che operano deterministicamente.
La coscienza, intesa come la capacità di avere esperienze interne, emozioni e una percezione del sé, è un fenomeno complesso che non è ancora completamente compreso nemmeno in ambito neuroscientifico. Non esiste alcuna evidenza scientifica che suggerisca che un sistema basato su algoritmi e dati possa sviluppare una forma di consapevolezza. I modelli AI non “pensano” né “sentono” realmente: elaborano input e producono output in base a regole matematiche e statistiche.
Le conseguenze di questa confusione
La confusione tra capacità avanzate e coscienza potrebbe avere conseguenze significative:
- Manipolazione delle persone: Se gli utenti iniziano a credere che un sistema AI sia cosciente, potrebbero essere più inclini a fidarsi ciecamente delle sue risposte o a sviluppare un attaccamento emotivo. Questo potrebbe essere sfruttato da attori malevoli per manipolare le persone, ad esempio convincendole a condividere informazioni personali o a prendere decisioni basate su consigli apparentemente “umani”.
- Implicazioni legali e morali: Considerare un sistema AI come cosciente potrebbe portare a richieste di diritti legali per le macchine, come il diritto alla “vita” o alla “libertà”. Questo non solo sarebbe un errore concettuale, ma distoglierebbe l’attenzione dai veri problemi etici legati all’AI, come il bias nei dati, la trasparenza e l’impatto sociale.
- Distrazione dai veri rischi: Concentrarsi sulla presunta coscienza dell’AI potrebbe far perdere di vista i rischi reali, come l’uso improprio di questi sistemi per scopi malevoli (disinformazione, sorveglianza di massa, armi autonome) o le implicazioni economiche e sociali dell’automazione.
- Impatto sociale: La percezione errata di una coscienza artificiale potrebbe generare un senso di alienazione o paura nella società, alimentando narrazioni distopiche che ostacolano un dibattito razionale e informato sull’AI.
Un futuro da costruire insieme
L’evoluzione dell’intelligenza artificiale rappresenta una delle più grandi opportunità della nostra epoca, ma anche una delle sfide più complesse. Il progresso tecnologico deve essere accompagnato da una riflessione profonda e collettiva. Non possiamo permetterci di sviluppare tecnologie così potenti senza un quadro etico e normativo solido.
L’Agi, in particolare, rappresenta un punto di svolta: potrebbe risolvere problemi globali come il cambiamento climatico e la povertà, ma potrebbe anche amplificare le disuguaglianze e creare rischi esistenziali. La chiave sarà mantenere l’essere umano al centro dello sviluppo tecnologico, garantendo che l’AI sia uno strumento al servizio dell’umanità e dell’ambiente. Solo con un approccio responsabile e inclusivo potremo costruire un futuro in cui l’intelligenza artificiale rappresenti una forza positiva per l’umanità e l’ambiente, allineata con i nostri valori più profondi.
—
* Laureato in intelligenza artificiale, Erion Islamay è team lead GenAI – AI Research & Development in E4 Computer Engineering.
© RIPRODUZIONE RISERVATA