Non c’è stata testata, sito, social network che nel weekend non abbia portato avanti commenti e tesi sulla sospensione di ChatGpt in Italia, voluta dal garante della privacy. Chi a favore, chi contro. Chi per una attenta gestione dei dati in mano ai potentissimi strumenti di AI, chi perplesso da un ban imposto, che mette l’Italia in una posizione unica per ora nel mondo occidentale, accanto a Cina e Russia. Alcuni osannano l’AI, altri la detestano. Il tema è complesso, tra etica e tecnologia, dibattuto da esperti, tecnologi, filosofi, giuristi…

Tre i fatti recenti.

1 – OpenAI, la società americana mamma di ChatGpt (con papà Microsoft visto che l’azienda di Redmond ci ha investito 10 miliardi di dollari negli scorsi mesi), ha rilasciato la versione 4 della propria intelligenza artificiale – Gpt-4 – affermando che sarà molto più potente della versione precedente. Una AI che già aveva alzato il dibattito su potenzialità dello strumento, correttezza di fonti e informazioni elaborate, gestione dei dati, capacità conversazionale, errori, lavoro a un dollaro l’ora per chi ha istruito il sistema…

2 – Nel mondo. Un migliaio di dirigenti della Silicon Valley, capitanati da Elon Musk (padron di Tesla e di Twitter), ha firmato un appello per chiedere a OpenAI lo stop al rilascio di ChatGpt-4 per dare agli stati il tempo necessario per elaborare regole di controllo, chiedendo a OpenAI di rendere la sua intelligenza artificiale generativa più sicura, accurata, affidabile.

3 – In Italia. Il 30 marzo, il garante della Privacy ha sospeso con effetto immediato ChatGpt con un provvedimento (qui la versione integrale) perché non rispetta la disciplina sulla privacy, fa raccolta illecita di dati personali, non verifica l’età di chi la utilizza mettendo a rischio i minori. La sospensione si basa non sulla certezza che ci sia un illecito ma sulla apparente fondatezza. Per addestrare i propri algoritmi OpenAI ha raccolto dati personali di miliardi di persone senza informali e senza averne il permesso (probabilmente), ha elaborato le conversazioni, ha generato contenuti distorti e inesatti che possono impattare sull’identità delle persone. OpenAI dovrà mettersi in regola entro 20 giorni, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato annuo.

ChatGPT disabled for users in Italy
Il messaggio che OpenAI ha inviato agli utenti italiani di ChatGpt 

Questi i fatti, ma la questione è complessa. 

Ci si può chiedere perché il provvedimento sulla gestione dei dati sia stato emanato solo nei confronti di OpenAI e non verso altri fornitori extra UE di contenuti, piattaforme social, motori di ricerca, non essendo OpenAI la sola a trattare i nostri dati al di fuori dei confini nazionali? Ci si può chiedere se altre piattaforme possono essere dannose, non attente alla nostra privacy? Ci si può chiedere come arginare la disinformazione imperante sul Web? Come tutelare i minori anche da altri social pervasivi? Di chi è la responsabilità? Se basta un disclaimer per essere in regola? Le domande sono molte.
Ma, seppure criticabile, la mossa maldestra del garante dimostra quando sia urgente trovare un coordinamento tra tutti i garanti europei a protezione della privacy, perché il problema è reale e va gestito, non frenando lo sviluppo della tecnologia.

Riporto i pareri di tre professori esperti di etica, che reputo illustri.

Il primo è di Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, Docente di Sostenibilità Digitale all’Università di Pavia, che ha commentato su Linkedin: “La lettera di #Musk è il migliore esempio di come, oggi, quando si parla di intelligenza artificiale, si finisce con il far leva sulle paure più recondite delle persone, allontanandosi dalla realtà e tracciando scenari fantascientifici degni del miglior Asimov. Il problema non è scagliarsi “pro” o “contro” l’#AI. Il tema è comprendere quali sono i rischi reali e concreti, al di là di quei sensazionalismi che fanno notizia, ma non rendono un buon servizio alla consapevolezza diffusa della realtà di questi strumenti”.

E aggiunge: “La cattiva informazione sull’intelligenza artificiale, oggi, fa forse più danni di quelli che potrebbe fare l’intelligenza artificiale stessa. O quella che ci affanniamo a definire tale… Una delle nostre più grandi responsabilità, oggi, è quella di cercare di costruire cultura e consapevolezza condivise su quelli che sono i reali rischi e le opportunità degli strumenti attuali di intelligenza artificiale…. Instillare il dubbio che si possa parlare di intelligenza artificiale generale, di singolarità, di algoritmi pensanti è sbagliato perché defocalizza, ed è fuorviante. Nella partita tra Autorità Garante per la protezione dei dati personali ed OpenAI chi ha ragione e chi ha torto? Purtroppo la questione non è così semplice, e non sempre la polarizzazione porta vantaggi o soluzioni concrete”.

Il secondo è di Paolo Benanti, Professore presso la Pontificia Università Gregoriana, che cita la frase di Papa Francesco ai partecipanti dei Minerva Dialogues del 27 marzo scorso: “Mi preoccupa il fatto che i dati finora raccolti sembrano suggerire che le tecnologie digitali siano servite ad aumentare le disuguaglianze nel mondo. Non solo le differenze di ricchezza materiale, che pure sono importanti, ma anche quelle di accesso all’influenza politica e sociale. Ci chiediamo: le nostre istituzioni nazionali e internazionali sono in grado di ritenere le aziende tecnologiche responsabili dell’impatto sociale e culturale dei loro prodotti?”

Ultimo è il commento del filosofo Luciano Floridi – docente ad Oxford e dalla prossima estate a capo del Center for Digital Ethics dell’Università di Yale – che in un’intervista all’Huffington Post (1 aprile) dichiara che strumenti come Gpt nelle sue varie versioni sono utilissimi e che i veri rischi sono disinformazione, manipolazione e potere di controllo. Servono regole. “Bloccare ChatGpt è una misura draconiana. Impariamo a usarlo e facciamo le leggi”.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: