Nell’era dell’intelligenza artificiale, non saranno più i ricercatori a mettersi a caccia di bug e vulnerabilità, ma i modelli AI e gli algoritmi. Ne è convinta Anthropic, che ha appena presentato Project Glasswing proprio con questo obiettivo. Fa leva su un modello non destinato al pubblico chiamato Claude Mythos Preview capace di scovare migliaia di gravi falle, anche in alcuni dei più noti sistemi operativi e nei browser.
Project Glasswing di Anthropic per la cybersecurity
Un’arma molto efficace per la cybersecurity, ma al tempo stesso un potenziale disastro se mai dovesse finire nelle mani sbagliate. È per quello che il rollout non prevede l’accesso da parte di tutti, ma solo di alcune realtà selezionate. I primi partner coinvolti nell’iniziativa sono Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks. L’elenco si allungherà presto con l’inclusione di oltre 40 organizzazioni che realizzano o gestiscono infrastrutture software di importanza critica.
Claude Mythos Preview: vulnerabilità ed exploit
Anthropic sa di avere tra le mani un modello AI diverso da tutti gli altri ed è consapevole dei rischi che questo comporta. Ecco perché ha dichiarato di collaborare con il governo USA per condividere informazioni a proposito del suo eventuale utilizzo per finalità malevole e sulle possibili implicazioni per la sicurezza nazionale.
Un esempio? È stato in grado di creare un exploit capace di concatenare quattro vulnerabilità diverse e compromettere l’integrità di un browser. Secondo i test, è in grado di farlo per oltre il 72% delle falle identificate.
Prevenire è meglio che curare (cit.)
A questo punto, è lecito domandarsi se Project Glasswing e Claude Mythos Preview siano una manifestazione buona o cattiva dell’intelligenza artificiale. Anthropic è convinta del suo potenziale positivo e la sua distribuzione controllata serve proprio per far sì che le realtà coinvolte possano intervenire sulle criticità dei loro software, prima che altri modelli e altre AI possano consentire lo stesso tipo di attacchi a malintenzionati e cybercriminali. Insomma, una sorta di azione preventiva.