OpenAI ha annunciato il nuovo modello GPT-5.4-Cyber. Come si deduce dal nome è una variante di GPT-5.4 ottimizzata per individuare eventuali vulnerabilità nel software. È in pratica la risposta a Claude Mythos di Anthropic. Non sarà accessibile a tutti, ma solo ad un numero limitato di clienti (aziende e ricercatori) che partecipano al programma Trusted Access for Cyber (TAC).
GPT-5.4-Cyber per scopi difensivi
Il programma Trusted Access for Cyber (TAC) era stato introdotto all’inizio di febbraio per l’accesso al modello GPT-5.3-Codex. I singoli utenti devono verificare l’identità sul sito dedicato, mentre le aziende devono contattare direttamente OpenAI compilando un modulo online. Lo scopo è permette l’uso del modello solo a professionisti del settore.
Gli stessi utenti possono ora chiedere l’accesso a GPT-5.4-Cyber che offre maggiori capacità e meno restrizioni. In pratica sono stati ridotti i “filtri” di GPT-5.4, quindi specifici prompt relativi alla sicurezza non vengono rifiutati. Il nuovo modello può essere ad esempio sfruttato per effettuare il reverse engineering dei software, analizzare il codice compilato e cercare eventuali vulnerabilità.
Come Claude Mythos, GPT-5.4-Cyber è un modello troppo potente e diventerebbe molto pericoloso se finisse nelle mani dei cybercriminali. OpenAI vuole garantire l’accesso a tutti, ma solo se gli utenti soddisfano rigidi criteri, tra cui la verifica dell’identità. Lo stesso modello può essere infatti usato come strumento difensivo e come arma digitale.
Alcuni esperti di sicurezza affermano che questo approccio è sbagliato, in quanto poche aziende possono difendersi utilizzando modelli AI più avanzati. OpenAI ritiene invece che una diffusione più ampia potrebbe incrementare l’abuso delle capacità del modello. GPT-5.4-Cyber è tuttavia accessibile a migliaia di singoli ricercatori e centinaia di aziende. Claude Mythos viene invece testato da circa 40 organizzazioni tramite Project Glasswing.