Anthropic chiude il blog scritto da Claude, esperimento fallito

Anthropic chiude il blog scritto da Claude, esperimento fallito

Anthropic ha chiuso il controverso blog Claude Explains, scritto dal suo chatbot AI. L'esperimento non è piaciuto agli utenti.
Anthropic chiude il blog scritto da Claude, esperimento fallito
Anthropic ha chiuso il controverso blog Claude Explains, scritto dal suo chatbot AI. L'esperimento non è piaciuto agli utenti.

Una settimana. Tanto è bastato ad Anthropic per capire che far scrivere un blog a Claude non era esattamente l’idea del secolo. Claude Explains, il blog aziendale scritto dal chatbot con la supervisione umana, è sparito nel weekend senza troppe spiegazioni.

Il blog di Claude chiude dopo una settimana

L’idea sembrava sensata: usare Claude per creare contenuti tecnici su vari argomenti, dai consigli di programmazione alle strategie aziendali. Tutto supervisionato da esperti umani, ovviamente. Il problema è che non era chiaro quanto del contenuto fosse davvero scritto da Claude e quanto invece fosse opera degli editor umani. Una mancanza di trasparenza che non è piaciuta per niente agli utenti sui social media.

La critica più pungente è arrivata da chi ha riconosciuto in Claude Explains un classico tentativo di automatizzare il content marketing. Ovvero, generare tonnellate di contenuti su argomenti popolari per attirare potenziali clienti.

Non è illegale, per carità, ma non è esattamente il massimo della trasparenza per un’azienda che sviluppa AI. Il paradosso è che il blog stava anche funzionando, almeno dal punto di vista SEO. In un mese aveva raccolto link da oltre 24 siti web, secondo Ahrefs. Non male per un esperimento appena nato.

La paura di fare figuracce…

Ma evidentemente i numeri non sono bastati a convincere Anthropic a continuare l’esperimento. Il fine settimana scorso, tutti i contenuti sono spariti e l’indirizzo è stato reindirizzato alla homepage aziendale. Anthropic potrebbe aver realizzato che promuovere troppo le capacità di scrittura di Claude era rischioso. Anche le AI migliori di oggi tendono a inventarsi informazioni con grande sicurezza, un problema che ha già causato imbarazzo a diverse aziende, Anthropic compresa.

Bloomberg è stato costretto correggere decine di riassunti generati dall’AI, mentre G/O Media è finita nel ridicolo per degli articoli pubblicati contro il parere degli editor. Non il tipo di pubblicità che vuoi per la tua azienda. Claude Explains doveva essere “una dimostrazione di come l’expertise umana e le capacità AI possono lavorare insieme“. L’ironia della sorte, è che l’esperimento ha dimostrato esattamente l’opposto: quanto sia difficile bilanciare automazione e qualità.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 giu 2025
Link copiato negli appunti