Anthropic ha appena lanciato Claude Gov, una versione speciale dei suoi modelli AI, progettata esclusivamente per le agenzie di sicurezza nazionale americane. Quella che solo 18 mesi fa sembrava una linea invalicabile, OpenAI vietava qualsiasi uso militare dei suoi modelli, oggi è diventata una corsa all’oro.
Del resto, OpenAI ora lavora direttamente con Anduril per portare i suoi modelli sui campi di battaglia. Meta ha messo a disposizione Llama all’uso militare. Google sta perfezionando una versione di Gemini capace di funzionare in ambienti classificati. Claude Gov rappresenta qualcosa di diverso rispetto ai precedenti accordi di Anthropic con il governo. Prima l’azienda lavorava attraverso partnership con Palantir e AWS, essenzialmente come subappaltatore. Ora vende direttamente alle agenzie.
Come spiega Anthropic, i modelli Claude Gov sono stati sviluppati sulla base del feedback dei clienti governativi per “affrontare esigenze operative del mondo reale“. E le specifiche dicono parecchio. Questi modelli gestiscono meglio i materiali cosiddetti “classificati”, cioè riservati, e hanno meno paletti quando si confrontano con informazioni sensibili. Hanno una comprensione superiore dei documenti nei contesti di intelligence e difesa. Sono più abili con linguaggi e dialetti “critici per le operazioni di sicurezza nazionale“. Sanno interpretare dati di cybersecurity complessi per l’analisi intelligence.
Il paradosso della “Constitutional AI”
Anthropic ha costruito la sua reputazione sulla “Constitutional AI“, un approccio che integra principi etici direttamente nei modelli per renderli “utili, innocui e onesti“. La costituzione di Claude include riferimenti alla Dichiarazione Universale dei Diritti Umani del 1948 e ai termini di servizio di Apple.
Ma quando si tratta di Claude Gov, questa costituzione sembra molto più flessibile. Anthropic mantiene ancora alcuni divieti, niente gestione di operazioni sul campo di battaglia, niente progettazione di armi, niente operazioni cyber malevole. Ma le eccezioni per “analisi di intelligence estere legalmente autorizzate” e “fornire avvertimenti anticipati di potenziali attività militari” aprono spazi interpretativi ampi. Anthropic preferisce elencare cosa è vietato piuttosto che cosa è permesso, creando un quadro potenzialmente più permissivo.
I rischi dei modelli AI per la sicurezza nazionale
I contratti governativi del resto, sono una delle poche strade affidabili verso ricavi massivi che non si limitano alla vendita di abbonamenti chatbot. Ma la creazione di modelli AI specificamente progettati per operazioni di sicurezza nazionale solleva questioni che vanno oltre l’etica aziendale. Non sono più semplici strumenti di analisi di documenti, ma veri e propri partner operativi.
Il rischio non è solo la proliferazione di questi sistemi, ma della creazione di una classe separata di AI con standard etici diversi. Anthropic dice che i suoi modelli hanno superato gli stessi rigorosi controlli di sicurezza delle versioni pubbliche di Claude. Ma se questa versione “rifiuta meno“, cioè è meno propensa a non rispondere o a bloccare contenuti sensibili, in contesti dove le informazioni sono riservate, allora sorge un problema importante. Cosa succede quando quei confini diventano sfumati?