Il dibattito che si è innescato sull’etica dell’AI a valle del rifiuto di Dario Amodei, Ceo di Anthropic, di assecondare le richieste del Pentagono per l’utilizzo del modello Claude a fini militari senza limiti, rimbomba in questi giorni di nuove guerre. Fomentato, a poche ora di distanza, dalla firma dell’accordo tra OpenAI e il Pentagono per l’utilizzo di ChatGpt per gli stessi fini.
Due fatti che portano in evidenza come l’AI oggi sia una arma a tutti gli effetti e la relazione sempre più stretta tra etica e business (per chi ancora avesse dubbi), sventolata da tutte le big tech ma con pathos diversi.
Mentre un’azienda viene bandita dal Pentagono (Anthropic), un’altra cerca di occupare lo spazio lasciato libero dalla prima (OpenAI). Logiche non solo di business.
Riporto i due fatti degli scorsi giorni.
Anthropic bandita dal Pentagono…
Il primo. Il Ceo di Anthropic, Dario Amodei, non ha assecondato la richiesta del capo del dipartimento della difesa americana (Pete Hegseth) di rimuovere le protezioni che limitano l’utilizzo della propria AI in ambito militare, come gli era stato imposto da un ultimatum del governo che scadeva venerdì 27 febbraio. Anthropic teme che il proprio modello di AI, già disponibile nei sistemi dell’esercito, venga utilizzato per sorveglianza interna e integrato in armi autonome senza il controllo umano, non rispettando i principi fondativi dell’azienda.
Una presa di posizione che non è stata gradita all’amministrazione statunitense che, di conseguenza, ha minacciato la rescissione del contratto in essere da 200 milioni di dollari con Anthropic e impartito l’ordine a tutte le agenzie federali di smettere di usare Claude entro sei mesi. Anthropic viene classificata come azienda “a rischio per la sicurezza nazionale”, pericolosa per l’intera supply chain, rendendo impossibile a tutte le aziende che usano tecnologia Anthropic lavorare con il ministero della difesa. Un ban mai imposto a realtà statunitensi fino ad oggi, pari al trattamento riservato ad aziende cinesi (Huawei). “Le minacce non cambiano la nostra posizione” precisa Amodei, non rendendo negoziabile la sicurezza del proprio modello per scopi politici.
Vedremo gli sviluppi ma una cosa è certa: l’ultimatum e il ricatto governativo aprono a uno scenario inquietante per tutte le aziende tecnologiche impegnate nello sviluppo dell’AI, considerata una arma strategica in una fase geopolitica allarmante. Se passa il principio per cui il governo americano può pretendere di cambiare gli statuti delle aziende tecnologiche, la preoccupazione non dovrebbe fare dormire tutte le aziende della Silicon Valley, anche i Ceo più affini all’attuale amministrazione (a partire da quelli seduti alla cena di gala alla Casa Bianca per l’insediamento di Trump, alla quale Amodei aveva deciso di non partecipare).
Ma si deve leggere la vicenda a tutto tondo, come ben spiega Stefano Epifani, docente di sostenibilità digitale, instillando dubbi per meglio capire. “Prima che parta la santificazione di Amodei di Anthropic per il rifiuto di piegarsi a Trump, facciamo una cosa semplice: guardiamo il business, così ci accorgiamo che alcuni atti eroici non sono altro che azioni di posizionamento strategico. Con il rifiuto a Trump, Amodei perde (per ora) 200 milioni di dollari ma: rafforza il brand “noi siamo quelli responsabili”, si differenzia dai competitor più apertamente schierati con Trump, si accredita ai tavoli regolatori (soprattutto europei) come attore affidabile, consolida il mercato enterprise ad alta compliance, aumenta attrattività verso talenti e investitori sensibili al tema sicurezza ed alla narrativa basata sull’etica. In questo mondo spesso l’etica non è morale, ma una leva competitiva. Quando una scelta aumenta reputazione, influenza e valore di lungo periodo, chiamarla eroismo è narrativa. Chiamarla calcolo è analisi. Chiamarla ipocrisia è un mio tarlo”.
… OpenAi si accorda con il Pentagono
Il secondo fatto. Venerdì 27, appena saltato il banco con Anthropic, OpenAI ha chiuso in poche ore un accordo con il Pentagono per l’uso dei suoi modelli di AI in ambienti classificati, confermando due punti fermi: ChatGpt non verrà usato per la sorveglianza di massa domestica e per lo sviluppo di sistemi d’arma autonomi letali, senza controllo umano. Ma non sono gli stessi “principi” negati ad Anthropic?
Sembra che abbia pagato l’approccio più pragmatico e la disponibilità di OpenAI a collaborare strettamente con il personale del Pentagono per garantire la sicurezza dell’AI e un accesso senza limiti per usi bellici classificati.
Certo ne è conseguito un contraccolpo reputazionale non indifferente per il Ceo di OpenAI Sam Altman – che ha visto nel weekend Claude superare ChatGpt – ma probabilmente giudicato meno interessate della raccolta di fondi record che OpenAI ha appena concluso: 110 miliardi di dollari, in parte da Aws (50 miliardi principalmente per l’utilizzo dell’infrastruttura), in parte da Softbank (30 miliardi) e Nvidia (30 miliardi).
Oggi l’esclusione di Anthropic dal Pentagono, perché mette a rischio la sicurezza nazionale, fa di OpenAI il primo partner AI per il governo americano. Anthropic andrà per vie legali. Noi cercheremo di capire.
© RIPRODUZIONE RISERVATA



































Touch Of Light





