Secondo le fonti del Financial Times, almeno due interruzioni dei servizi cloud di Amazon, avvenuti a dicembre 2025, sarebbero stati causati da Kiro e Q Developer, due tool che consentono di scrivere codice sfruttando l’intelligenza artificiale. L’azienda di Seattle ha dichiarato che la responsabilità è stata attribuita ad errori umani. Le conseguenze sono state tuttavia meno gravi rispetto a quelle di ottobre 2025.
Errore umano, non errore AI
Secondo quattro fonti del Financial Timese, un’interruzione di metà dicembre 2025 (durata circa 13 ore) su un sistema di Amazon Web Services usato dai clienti sarebbe usato causato da Kiro. Gli ingegneri avrebbero consentito all’agente AI (disponibile proprio da dicembre 2025) di scrivere il codice necessario per alcune modifiche. Il tool ha stabilito che la soluzione migliore fosse “eliminare e ricreare l’ambiente“.
Diversi dipendenti hanno dichiarato al Financial Times che questa è stata la seconda volta negli ultimi mesi in cui uno degli strumenti di intelligenza artificiale di Amazon è stato al centro di un’interruzione del servizio. Un dipendente senior ha dichiarato:
Abbiamo già assistito ad almeno due interruzioni di produzione negli ultimi mesi. Gli ingegneri hanno lasciato che l’agente AI risolvesse un problema senza intervenire. Le interruzioni erano di lieve entità, ma del tutto prevedibili.
L’incidente di dicembre ha interessato un solo servizio in alcune parti della Cina continentale, mentre un secondo incidente (sempre a dicembre) non ha avuto ripercussioni sui servizi AWS usati dai clienti.
Alcuni dipendenti hanno affermato che i tool AI sono considerati “estensioni” di un operatore e ricevono le stesse autorizzazioni. In questi due casi, gli ingegneri non avevano bisogno dell’approvazione di una seconda persona prima di apportare modifiche, come normalmente accade. Amazon ha smentito l’uso di Kiro senza autorizzazione.
La causa principale è stata un errore umano, in particolare un tecnico che ha utilizzato permessi più ampi del previsto, e non un problema di autonomia dell’AI. In seguito all’incidente di dicembre, AWS ha implementato numerose misure di sicurezza.
Indipendentemente dai permessi è evidente che un agente AI può commettere errori piuttosto gravi. Forse sarebbe meglio ritornare al controllo umano, invece di fare affidamento su questi strumenti che dovrebbero velocizzare il lavoro.