È uno scontro che mette a nudo tutte le contraddizioni dell’intelligenza artificiale applicata alla difesa quello che si è consumato tra Anthropic e l’amministrazione Usa. Al centro del braccio di ferro Claude, il modello di IA sviluppato dalla startup guidata da Dario Amodei, e la richiesta del Pentagono di rimuovere le protezioni che ne limitano l’utilizzo in ambito militare. Il quartier generale dell’esercito aveva dato un ultimatum alla società con scadenza fissata per venerdì 27 febbraio alle 17 ora locale (le 23 in Italia). Poco prima della scadenza è intervenuto a gamba tesa lo stesso Donald Trump, annunciando su Truth di aver ordinato “a tutte le agenzie federali di smettere di usare” il suo modello di intelligenza artificiale. Perché “Gli Stati Uniti non permetteranno mai a un’azienda di sinistra e woke di dettare come il nostro grande esercito combatta e vinca le guerre! Questa decisione spetta al vostro comandante in capo e agli straordinari leader che nomino per guidare il nostro esercito”. Il presidente ha disposto un periodo di sei mesi per eliminare gradualmente l’utilizzo dei prodotti Anthropic nelle agenzie che già li impiegano, incluso il Dipartimento della Difesa. Ha inoltre avvertito l’azienda che, se non collaborerà durante la fase di uscita, userà “tutto il potere della presidenza” con possibili conseguenze civili e penali.
Anthropic, Claude e il contratto con il Pentagono
Anthropic è stata fondata dai fratelli Amodei, imprenditori tra i più influenti nel panorama globale dell’intelligenza artificiale. Dario Amodei, amministratore delegato, è il volto pubblico dell’azienda, che con Claude si è ritagliata uno spazio di primo piano nello sviluppo di modelli linguistici avanzati. Claude è oggi un asset strategico: secondo quanto riportato, è l’unico modello di IA disponibile nei sistemi più riservati dell’esercito statunitense ed è considerato quello con le migliori performance nelle attività di intelligence più delicate. Il Pentagono ha un contratto da 200 milioni di dollari con Anthropic.
Lo scontro
Il rapporto si è incrinato sulle barriere che l’azienda ha imposto al suo modello. Il Dipartimento della Difesa aveva chiesto di eliminare le restrizioni di ostacolo alle forze armate nell’utilizzare Claude per “ogni uso lecito” dopo lo scontro su quanto accaduto in Venezuela con l’operazione Absolute Resolve che ha portato alla cattura di Nicolas Maduro. Anthropic, però, non arretra su due punti dirimenti: l’utilizzo dell’IA in armi completamente autonome e la sorveglianza di massa. La società, infatti, sostiene che oggi l’intelligenza artificiale non sia sufficientemente affidabile per gestire le armi e che non esistano ancora leggi o regolamenti per disciplinare il suo impiego nel controllo civile. Da qui l’ultimatum del segretario alla Guerra Pete Hegseth che ha minacciato di inserire Anthropic in una lista nera governativa, etichettandola come un rischio per la catena di approvvigionamento. Una designazione che impedirebbe alle aziende con contratti militari di utilizzare i prodotti Anthropic in qualsiasi attività. Il principale portavoce del Pentagono, Sean Parnell, ha invece ribadito che le forze armate intendono utilizzare la tecnologia di Anthropic in modo legale e non permetteranno all’azienda di imporre limiti prima della scadenza fissata. “Il Pentagono non ha alcun interesse a utilizzare l’IA per condurre una sorveglianza di massa degli americani (il che è illegale), né vogliamo usare l’IA per sviluppare armi autonome che funzionino senza il coinvolgimento umano”, ha affermato Parnell.
La risposta di Amodei
La risposta di Dario Amodei è stata netta: “Le minacce non cambiano la nostra posizione”. Il ceo ha affermato che l’azienda “non può in tutta coscienza acconsentire” alle richieste del Pentagono di un uso più ampio della sua tecnologia. In una nota, Anthropic ha chiarito di non voler abbandonare i negoziati, ma ha sottolineato che la proposta del Dipartimento della Difesa non porta alcun progresso sui terreni di scontro.
Trump: “Errore disastroso. Non la useremo più”
“Quei casi umani di sinistra hanno fatto un errore disastroso”, ha scritto il presidente americano su Truth. “L’egoismo di Anthropic sta mettendo a rischio le vite degli americani e in pericolo i nostri soldati e la nostra sicurezza”, ha aggiunto. “Pertanto, ordino a tutte le agenzie federali del governo degli stati uniti di cessare immediatamente ogni utilizzo della tecnologia Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!”, ha concluso Trump.
OpenAi e il round da 110 miliardi
Nel pieno dello scontro è notizia di oggi che OpenAI, l’azienda guidata da Sam Altman, ha appena finalizzato una raccolta fondi record di 110 miliardi di dollari – 50 miliardi da Amazon, 30 da Softbank e 30 da Nvidia – a una valutazione di 730 miliardi. “Continuiamo a vedere la domanda crescere rapidamente”, ha dichiarato Altman, impegnato a mediare la crisi tra Anthropic e il Pentagono: secondo quanto riportato dal Wall Street Journal, in una comunicazione al suo staff ha spiegato che la società sta lavorando a un accordo che potrebbe contribuire a risolvere lo stallo e di sperare di mediare un’intesa fra le parti. “Vorremo contribuire a una de-escalation della situazione”, ha affermato.
Nessun commento:
Posta un commento