La presentazione del Project Glasswing e del modello Claude Mythos da parte di Anthropic rappresenta senza dubbio la novità più importante degli ultimi tempi in ambito AI. È uno strumento per la prevenzione degli attacchi informatici incredibilmente efficace oppure una potenziale arma pericolosa che rischia di finire nelle mani sbagliate? Anche il mondo delle banche e della finanza si sta ponendo la domanda.
Banche e finanza temono la potenza di Mythos
Già la scorsa settimana le autorità britanniche hanno chiesto agli addetti ai lavori di valutare la situazione. Oggi lanciano un appello molto simile la ASIC in Australia (Australian Securities and Investments Commission) e la FSS in Corea del Sud (Financial Supervisory Service). L’impressione è che si aggiungeranno presto realtà omologhe di altri paesi.
A finire sotto la lente di ingrandimento sono le abilità di Claude Mythos. I primi benchmark hanno rivelato un’efficacia fuori dal comune nell’identificazione delle vulnerabilità informatiche. Se da un lato questo permette di intervenire e risolverle, dall’altro potrebbe essere sfruttato in modo malevolo per realizzare exploit ed eseguire attacchi mirati, potenzialmente distruttivi.
Pro e contro nell’evoluzione dell’AI
Giungere a questo punto era quasi inevitabile. Nella corsa allo sviluppo dell’intelligenza artificiale, siamo arrivati al momento in cui è necessario valutare i pro e i contro della tecnologia, andando oltre la semplice analisi delle sue applicazioni. È giusto creare un sistema capace al tempo stesso di aiutare a proteggere e di mettere in ginocchio servizi, piattaforme e infrastrutture online? Oppure va imposto un limite?
L’opinione di Anthropic è chiara: l’azienda sostiene di esserci arrivata per prima con Claude Mythos, ma presto ci saranno altri modelli in grado di fare lo stesso. Tanto vale che ad anticiparli sia una realtà che opera secondo principi etici o comunque non espressamente con finalità malevole. Non a caso, proprio nei giorni scorsi si è discusso di un suo riavvicinamento alla Casa Bianca.