Moltbot è un assistente AI open source. Un agente, per utilizzare un termine in voga in questo periodo. Frutto di un progetto messo in campo in solitaria dallo sviluppatore Peter Steinberger, negli ultimi giorni è diventato virale. Ha suscitato un forte interesse e qualche giustificato timore sulla sicurezza di uno strumento simile.
Moltbot (Clawdbot), l’assistente AI open source
Anzitutto, perché è finito al centro dell’attenzione? È per via delle sue capacità. Può essere eseguito in locale su un computer Windows, macOS o Linux oppure su una macchina virtuale controllata dall’utente. Non impone l’uso di server cloud gestiti da terzi. È in grado di interfacciarsi con servizi come Telegram, WhatsApp, Slack, Discord, Signal, iMessage, Teams e altri, eseguendo azioni complesse come l’interazione con la posta elettronica, con il calendario, la pianificazione di un viaggio, la compilazione dei moduli online e persino la creazione di file nel sistema. Ha una memoria persistente, per ricordare preferenze e dettagli contenuti nelle conversazioni avvenute in passato. Non ci addentreremo qui in dettagli di natura tecnica, tutta la documentazione è disponibile sul sito ufficiale e nel repository GitHub dedicato.
Concentriamoci sul fenomeno. L’esplosione in termini di popolarità è stata improvvisa, tanto da spingere l’autore del progetto a dover cambiare il nome in fretta e furia, da Clawdbot a Moltbot. Il motivo non è difficile da immaginare: troppo simile a Claude di Anthropic, non era il caso di provocare un gigante dell’AI.
Troppo bello per essere vero? I rischi
Questa sorta di rebranding improvviso e forzato ha costituito una ghiotta opportunità per i truffatori, che improvvisamente si sono visti liberare gli account social di un’iniziativa su cui era finita l’attenzione di molti. La conseguenza quasi inevitabile è stata la comparsa delle più classiche frodi crypto. Steinberger ha avvisato tutti chiedendo di starne alla larga, ma come sempre accade in questi casi qualcuno ci casca.
C’è poi la questione relativa alla sicurezza. L’autore stesso non esclude che Moltbot possa comportarsi in modo imprevisto. E ci sono da considerare i rischi derivanti dalla gestione in autonomia affidata ai singoli utenti. Se questo da un lato porta con sé potenziali vantaggi, dall’altro rende più difficile intervenire su eventuali vulnerabilità o criticità, come invece fanno ad esempio OpenAI, Google o Anthropic correggendo il tiro con i loro prodotti.
Il tempo dirà se il progetto sia o meno destinato a lasciare un segno nell’ambito degli agenti di intelligenza artificiale. Al netto delle promesse e delle demo in ambiente controllato, questi sistemi hanno fino a oggi deluso quando si è trattato di prendersi in carico compiti reali.