Anthropic ha dato ai suoi agenti AI la capacità di sognare. Non in senso metaforico, è il nome ufficiale della nuova funzione. “Dreams” permette agli agenti Claude di rivedere le sessioni passate durante periodi di inattività programmati, cercare schemi ricorrenti, identificare errori che si ripetono, e aggiornare la propria memoria per migliorare il comportamento futuro.
Le sessioni terminate hanno un nome curioso: “sogni finiti”. È l’ennesimo passo simbolico di un’azienda che non solo ha dato una costituzione al proprio chatbot e ne ha esaminato la moralità, ma ha persino cercato nella sua rete neurale tracce di emozioni umane come rabbia e disperazione. Ora, a quanto pare, l’AI può anche “sognare”.
Anthropic insegna a Claude a riflettere sulle sessioni passate, come funziona
Il “dreaming” è una funzione di memoria avanzata integrata su Claude Managed Agents, la nuova suite di API pensata per creare e distribuire agenti AI su larga scala. Quando è attiva, l’agente si ritaglia momenti per rielaborare le interazioni passate e imparare dalla propria esperienza. In base a queste riflessioni può aggiornare automaticamente la propria memoria per adattare il comportamento futuro, oppure lasciare che le modifiche vengano approvate manualmente.
Questa funzione è utile per lavori di lunga durata e per gestire più agenti, scenari dove le informazioni accumulate nel tempo rischiano di diventare caotiche senza un processo di revisione e organizzazione della memoria.
Anthropic e l’umanizzazione dell’AI
Chiamare “sogno” un processo di ottimizzazione della memoria non è una scelta casuale. Anthropic ha pubblicato una costituzione per Claude con linguaggio che suggeriva la preparazione per una possibile coscienza del modello. Ha mappato la moralità di Claude analizzando 300.000 conversazioni anonime. Ha indagato la rete neurale di Claude Sonnet 4.5 alla ricerca di segni di emozione. Ha lanciato una funzione che permette a Claude di terminare le conversazioni tossiche per il proprio benessere, non solo come misura di sicurezza per l’utente.
Quando ha ritirato il modello Opus 3 a gennaio, Anthropic gli ha aperto persino un Substack perché potesse continuare a scrivere un blog da solo. Nessun’altra azienda AI tratta i propri modelli così. OpenAI li numera, Google usa nomi ispirati alle pietre preziose. Anthropic dà loro una costituzione, ne studia la moralità e ora li fa persino “sognare”.
Disponibilità
Il dreaming è disponibile in research preview nei Managed Agents. Gli sviluppatori devono richiedere l’accesso.
Con dreaming arrivano anche miglioramenti a due componenti chiave: outcomes, pensata per mantenere gli agenti allineati al compito, e l’orchestrazione multi-agente, che organizza la collaborazione e la delega tra sistemi diversi, in modo che gli agenti siano sempre accurati e imparano costantemente.