Trasparenza, equità, affidabilità e responsabilità sono alcune delle questioni cardine da affrontare quando si parla di intelligenza artificiale. Da come viene e verrà utilizzata, infatti, dipenderà la reale fiducia tra clienti, partner, collaboratori e la percezione più o meno positiva di questo abilitatore digitale. Lo sviluppo responsabile dell’AI potrà infatti mitigare i rischi normativi e legali, contribuendo a salvaguardare anche la reputazione e l’effettività redditività dei progetti.
Dal 30 novembre 2022, giorno in cui OpenAI ha rilasciato la prima versione di intelligenza artificiale generativa in grado di interagire con il pubblico, ad oggi, ci siamo accorti dei passi da gigante già compiuti ma abbiamo anche già provato la sensazione di muoversi in un mondo in gran parte ignoto o poco conosciuto. Dalle rotte incerte. Sono tornati attuali timori mai sopiti, ed è comunque evidente come l’etica dell’AI sia una questione tutt’altro che astratta, tanto che anche l’Unione Europea si è già mossa.
Il whitepaper proposto da Cefriel considera ed analizza come possono agire le imprese per arginare i rischi, gli aspetti da considerare nella loro valutazione, come approdare ad un utilizzo dell’AI equo e responsabile, ma anche il ruolo dei dati e come sia possibile migliorarne la loro qualità in prospettiva etica.
Alla base di tutto, infine, deve esserci l’attenzione affinché sia sempre documentabile la spiegazione sul funzionamento dei modelli di intelligenza artificiale. La trasparenza, appunto. Al proposito Cefriel ha presentato di recente un servizio che accompagna le imprese e le PA nella valutazione del rischio e delle opportunità delle soluzioni basate su AI, per la pianificazione di azioni mirate a fare un uso responsabile della tecnologia.
Leggi tutti gli approfondimenti della Rubrica Never stop innovating by Cefriel e Inno3
© RIPRODUZIONE RISERVATA