53,189FansMi piace
5,056FollowerSegui
7,515FollowerSegui
2,487IscrittiIscriviti

Le News della settimana

spot_img

Potrebbe interessarti

Il Pentagono vuole usare Claude AI anche per le armi e minaccia Anthropic

Lo scontro tra governo USA e aziende di intelligenza artificiale entra in una fase delicatissima.

Il Segretario alla Difesa Pete Hegseth avrebbe dato un ultimatum ad Anthropic, la società dietro il modello AI Claude: entro venerdì l’azienda deve alleggerire le restrizioni imposte al proprio sistema oppure rischia la rescissione del contratto con il Pentagono e, potenzialmente, l’ingresso in una sorta di blacklist governativa.

Al centro della disputa ci sono i cosiddetti guardrail, ovvero i limiti che Anthropic ha imposto all’utilizzo della propria IA.

Armi autonome e sorveglianza di massa

Il Pentagono, che ha un contratto da 200 milioni di dollari con Anthropic, vuole che Claude possa essere utilizzato per “tutti gli usi legali”. Tuttavia, secondo fonti vicine alla trattativa, l’azienda non sarebbe disposta a rimuovere due restrizioni fondamentali: l’utilizzo della IA per armi autonome e l’impiego per la sorveglianza di massa dei cittadini statunitensi.

Anthropic ritiene che il modello di Intelligenza Artificiale attuale non sia sufficientemente affidabile per gestire sistemi d’arma in autonomia e che, sul fronte della sorveglianza, manchino ancora quadri normativi chiari.

Il Pentagono, però, sostiene che la legalità sia responsabilità dell’utilizzatore finale, non del fornitore tecnologico. “Non si possono guidare operazioni tattiche per eccezioni”, avrebbe dichiarato un funzionario della difesa statunitense.

La minaccia: Defense Production Act e “supply chain risk”

Secondo quanto riportato, se Anthropic non dovesse accettare le condizioni entro le 17:01 di domani, 27 febbraio, il Dipartimento della Difesa potrebbe procedere con la rescissione del contratto,
invocare il Defense Production Act (DPA) — una legge che consente al governo di obbligare aziende private a collaborare per motivi di sicurezza nazionale — ed etichettare Anthropic come “supply chain risk”.

Quest’ultimo punto è particolarmente pesante perché l’inserimento in questa lista nera impedirebbe a tutte le aziende con contratti militari di utilizzare i prodotti Anthropic nei loro progetti legati alla difesa. Si tratta di una misura fortemente restrittiva solitamente riservata a entità considerate legate a potenze straniere avversarie come Russia o Cina.

Pentagono-Anthropic: un confronto teso ma cordiale

Secondo le fonti, l’incontro tra Hegseth e il CEO di Anthropic, Dario Amodei, sarebbe stato rispettoso e senza toni accesi. Hegseth avrebbe persino elogiato i prodotti dell’azienda, ribadendo la volontà di collaborare.

Amodei, però, avrebbe confermato le linee rosse della società su armi autonome e sorveglianza di massa e, al momento, Anthropic non sembra intenzionata a fare marcia indietro.

In una dichiarazione ufficiale, l’azienda ha parlato di un dialogo “in buona fede” e ha ribadito l’impegno a supportare la sicurezza nazionale “in linea con ciò che i modelli possono fare in modo affidabile e responsabile”.

Intelligenza Artificiale

Un’opportunità per la concorrenza?

Lo scontro tra Pentagono e Anthropic potrebbe aprire la porta ai rivali della società di Amodei. Secondo il Pentagono, xAI, compagnia di proprietà di Elon Musk, sarebbe già pronta a operare in ambienti classificati, mentre altre aziende sarebbero vicine all’approvazione.

Anthropic, nata da ex membri di OpenAI proprio per divergenze su sicurezza e direzione strategica, ha sempre costruito la propria identità attorno al concetto di “IA safety-first”. Recentemente ha anche annunciato una donazione da 20 milioni di dollari a un gruppo politico favorevole a una regolamentazione più stringente dell’intelligenza artificiale.

Va infatti ribadito che questa vicenda non riguarda solo un contratto da 200 milioni. È uno scontro che tocca questioni enormi. Chi decide come può essere usata un’Intelligenza Artificiale? Il produttore o l’utilizzatore?
Quanto controllo può esercitare lo Stato su un’azienda privata in nome della sicurezza nazionale? E fino a che punto l’IA è pronta per applicazioni militari critiche?

Il risultato di questo braccio di ferro potrebbe definire il rapporto tra IA commerciale e difesa militare per gli anni a venire.

fonte