Ibm esce dal mercato delle tecnologie di riconoscimento facciale. Lo ha reso noto, con una lettera al Congresso degli Stati Uniti, il nuovo Ceo Arvin Krishna spiegando che l’azienda si oppone in questo modo “all’utilizzo delle tecnologie di AI applicate alla sorveglianza ed alla profilazione razziale, in violazione dei diritti umani e delle libertà fondamentali” e chiede “nuovi sforzi per perseguire giustizia ed equità razziale”. Soprattutto, il Ceo ha sollecitato l’avvio di “un dialogo su come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell’ordine nazionali”.

Il business alimentato dall’attività di riconoscimento facciale, secondo fonti autorevoli, non starebbe generando entrate significative per Ibm che continuerà comunque a supportare i clienti che le hanno già scelte, senza però proseguire nelle attività di vendita e di aggiornamento, mentre allo stesso tempo prosegue invece l’attività di business per quanto riguarda le soluzioni di rilevamento degli oggetti. E’ un dato di fatto, però, che la scelta del Ceo è comunque coraggiosa, considerato che l’amministrazione americana è tra i principali clienti di Ibm e che la concorrenza in questo ambito, da parte di Amazon (con il progetto Rekognition, già utilizzato per esempio dalla polizia locale in Florida e Oregon) e Microsoft, è agguerrita. Amazon in verità – l’aggiornamento è del 10 giugno – ha per il momento deciso di mettere a sua volta in stand-by Rekognition che non sarà disponibile per un anno per le forze di polizia Usa, e di seguire quindi, seppur parzialmente, l’esempio di Ibm.  

Arvind Krishna, Ceo di Ibm
Arvind Krishna, Ceo di Ibm

Krishna ha messo in evidenza l’uso distorto cui può essere piegata la tecnologia – e i relativi sistemi abilitati dall’AI – utilizzata per alimentare quelli che vengono definiti i “bias” (pregiudizi) di vari tipo (genere, razza, etc.). E non mancano richiami specifici e reiterati da parte anche di importanti istituti come il Mit Lab che, al riguardo, ha scoperto come la tecnologia si possa rivelare fallace nell’identificare i volti dalla pelle scura, il che potrebbe portare a errate identificazioni. 

Da una parte quindi la decisione di Ibm solleva una serie di questioni etiche sull’utilizzo di queste tecnologie tout court, dall’altra si concretizza nella rinuncia alla vendita ed alla ricerca delle sulle sue soluzioni se utilizzate contro le regole di fiducia e trasparenza che si è data l’azienda.

La riflessione su questi temi è di lunga data e non solo in casa Ibm. Se il caso Floyd ha riaperto il dibattito, è importante ricordare come i temi toccati da Krishna siano gli stessi al centro delle riflessioni di questo inverno durante l’incontro in Vaticano che ha visto Microsoft ed Ibm firmare con le istituzioni il documento Rome Call for AI Ethics.

In quell’occasione si era voluto spostare il baricentro dal tema delle “sfide” uomo/macchina a quello della “collaborazione” uomo/macchina ed all’utilizzo dell’AI che non può evidentemente essere strumentale al perseguimento di secondi fini mentre “potrebbe effettivamente essere di aiuto nella protezione delle comunità, senza promuovere però discriminazioni o ingiustizie”. Anche l’Unione Europea, da tempo, si è espressa in merito con il documento di aprile 2019 Orientamenti Etici per un’IA Affidabile.

Tra i veri problemi alla base di qualsiasi valutazione sull’affidabilità e sull’utilizzo dei sistemi AI che, come tutte le tecnologie, intrinsecamente non è né positiva né negativa, ci preme riconsiderare il seguente, ben messo in evidenza proprio nel documento appena citato. “L’AI è una tecnologia trasformativa e di rottura e la sua evoluzione negli ultimi  anni è stata agevolata dalla disponibilità di enormi quantità di dati digitali, dai grandi progressi tecnologici nella potenza di calcolo e nella capacità di memorizzazione e da una importante innovazione scientifica e ingegneristica nei metodi e negli strumenti di IA. I sistemi di AI continueranno ad  avere effetti sulla società e sui cittadini che non possiamo ancora immaginare”.

Il tema della concentrazione di grandi quantità di dati in mano a pochi attori di mercato è tra i rischi maggiori e potrebbe facilitare un utilizzo eticamente scorretto dell’AI. In questo ambito invece ci sembra che la riflessione abbia ancora compiuto ben pochi passi, certo meno rispetto a quelli che hanno fatto per esempio Google, Amazon, Facebook, Baidu e Microsoft nella capacità di valorizzarli e di renderli profittevoli. La cronaca ha già documentato come la mancanza di trasparenza possa portare ad utilizzi distorti e criminali delle informazioni. 

Soprattutto servirebbe riflettere sul fatto che l’Europa si trova, da questo punto di vista, in una posizione di assoluto svantaggio commerciale, rispetto agli Usa (ma non solo), ma allo stesso tempo ha già dimostrato, di essere in netto vantaggio per quanto riguarda l’analisi e le categorie di pensiero da mettere in gioco per un utilizzo corretto dell’AI e dei dati.

Oltre al documento Orientamenti Etici per un’IA Affidabile infatti possiamo ricordare anche la sottoscrizione dell’accordo tra gli stati membri Cooperation Agreement, la pubblicazione della comunicazione AI for Europe e il white paper On artificial Intelligence: A European approach to excellence and trust di febbraio.

© RIPRODUZIONE RISERVATA