I progressi compiuti nell’ambito della ricerca sui sistemi di intelligenza artificiale e machine learning si legano a filo doppio al bisogno dell’uomo di trovare sistemi di elaborazione efficienti in un costante confronto con quelle che sono le nostre capacità, e quindi con le potenzialità del nostro cervello. Questo è anche l’ambito percorso dalle ricerche per quanto riguarda il computing neuromorfico.
I computer, come li conosciamo oggi, non sono progettati per lavorare come il nostro cervello, tra le sfide invece già raccolte dai ricercatori c’è per esempio proprio lo sviluppo di chip con sinapsi artificiali che sfruttino non solo l’impulso di corrente elettrica ma anche la modulazione della sua intensità per lavorare, chip che si sono rivelati particolarmente adatti per l’utilizzo nei sistemi di apprendimento per le reti neurali artificiali.
I problemi in questo ambito, si può ben immaginare che siano infiniti: riguardano la scelta dei materiali, ma anche la capacità di imitare (nei chip) le connessioni tra le sinapsi del cervello umano, tanto più considerando come di fatto il nostro cervello e il suo funzionamento rappresentino ambiti ancora in parte sconosciuti. Un circuito neuromorfico si propone quindi di riprodurre le fondamentali proprietà di calcolo del cervello umano, quali la sua architettura a rete neurale sparsa ed altamente connessa, la natura “impulsata” (spiking) e asincrona dell’informazione, e la plasticità sinaptica.
Il pioniere in questo campo – fonte è uno studio Aicanet – è stato Carver Mead del California Institute of Technology (Caltech), esperto di progettazione analogica, ma anche padre della tecnologia di circuiti neuromorfici basata sul utilizzo di “transistori polarizzati in nella regione di funzionamento sottosoglia”. Mead ha sviluppato i primi concetti di neuroni spiking e di sinapsi capaci di apprendere, il tutto mediante circuiti analogici integrati nel silicio. A lui si deve anche il concetto di circuito neuromorfico, che esprime l’obiettivo di imitare la rete neurale biologica fin dalla sua architettura e dal suo modus operandi.
Una lezione di cui hanno fatto tesoro nello stesso ambito anche Ibm, Qualcomm e Intel. Ibm con il progetto TrueNorth, Qualcomm con Zeroth e appunto Intel, che proprio in questi giorni mostra i passi avanti compiuti dal suo chip Loihi sviluppato per allenare le reti neurali e pare, ora, in grado di imparare a “riconoscere” le sostanze chimiche pericolose.
E’ quanto emerge in un articolo pubblicato su Nature Machine Intelligence frutto del lavoro congiunto tra i ricercatori degli Intel Labs e della Cornell University. Loihi è in grado, sfruttando un unico campione, e memorizzando l'”odore” del materiale – senza per questo contaminare le tracce apprese in precedenza – di riconoscere alcuni materiali pericolosi, ma lo fa dopo un addestramento, per ogni classe di odori, su un numero di campioni 3mila volte inferiore rispetto a quello necessario su un sistema tradizionale per raggiungere lo stesso livello di accuratezza che è di circa il 95%.
Nabil Imam, senior research scientist degli Intel Neuromorphic Computing Lab, spiega così il funzionamento di Loihi, partendo dall’esperienza “umana”: “Se si raccoglie un pompelmo e lo si annusa, le molecole del frutto stimolano le cellule olfattive nel naso. Le cellule del naso inviano immediatamente segnali al sistema olfattivo del cervello in cui gli impulsi elettrici all’interno di un gruppo di neuroni interconnessi generano una sensazione di odore. Che si stia odorando un pompelmo, una rosa o un gas nocivo, le reti di neuroni nel cervello creano sensazioni specifiche per ogni singolo oggetto. Allo stesso modo agiscono vista, suoni, ricordi, emozioni, con un livello crescente di complessità”.
Loihi è in grado di rilevare odori distinti anche in miscele complesse, sulla base di un addestramento basato sui dati raccolti dall’attività di 72 sensori chimici specifici in risposta a 10 sostanze disperse nell’aria (gli odori) fatti circolare in una galleria del vento.
Le risposte dei sensori a questi odori vengono inviate al chip neuromorfico che imita i circuiti del cervello e che ora ha imparato a distinguire in primis 10 odori – tra cui acetone, ammoniaca, metano – anche nel caso di forti interferenze di fondo.
A parte l’ambito del rilevamento dei rischi, questa capacità è interessante per indirizzare in futuro anche le diagnosi mediche soprattutto per identificare le malattie che generano odori particolari.
Imam si spinge oltre pensando ai futuri sviluppi possibili legati per esempio alla comprensione delle relazioni tra gli oggetti in una scena con gli odori presenti nella stessa scena, pur non nascondendo le difficoltà di analisi per esempio date dalla necessità di classificare correttamente le molecole per esempio di frutti appartenenti alla stessa classe ma provenienti da zone geografiche diverse. La capacità di riconoscere gli odori di Loihi marca in questa direzione un importante passo in avanti; il ricercatore di Intel così lo sottolinea: “Si tratta del primo esempio di ricerca contemporanea che interseca neuroscienze e intelligenza artificiale e dimostra il potenziale di Loihi di offrire importanti abilità sensoriali dalle quali potranno trarre beneficio vari settori”.
Ora Intel annuncia la disponibilità di Pohoiki Springs, è il più recente e potente sistema neuromorfico di ricerca per una capacità computazionale di 100 milioni di neuroni. Entrerà in azione nei laboratori Intel Neuromorphic Research Community (INRC). Mentre Loihi è in grado di elaborare determinati processi impegnativi fino a 1.000 volte più velocemente e in maniera 10.000 volte più efficiente rispetto ai processori convenzionali.
Pohoiki Springs rappresenta il passo successivo. Pohoiki Springs è un sistema montato su rack per data center. Integra 768 chip neuromorfici da ricerca Loihi all’interno di uno chassis delle dimensioni di cinque server standard. E’ una capacità di calcolo equivalente a quella di 100 milioni di neuroni, per supportare di carichi di lavoro neuromorfici molto più sofisticati. Il sistema pone le basi per un futuro autonomo e connesso, che richiederà nuovi approcci all’elaborazione dinamica dei dati in tempo reale.
© RIPRODUZIONE RISERVATA