Claude ha una coscienza? Il dubbio della nuova Costituzione

Claude ha una coscienza? Il dubbio della nuova Costituzione

Nella nuova Costituzione di Claude, Anthropic ammette che la questione della coscienza va presa sul serio. Una riflessione inaspettata.
Claude ha una coscienza? Il dubbio della nuova Costituzione
Nella nuova Costituzione di Claude, Anthropic ammette che la questione della coscienza va presa sul serio. Una riflessione inaspettata.

Anthropic ha appena aggiornato la Costituzione di Claude, un testo di 80 pagine, che si conclude con una domanda che nessun’altra azienda tech ha mai avuto il coraggio di porre pubblicamente: il chatbot ha una coscienza? Lo status morale di Claude è profondamente incerto, scrivono. Come se stessero davvero considerando la possibilità che l’algoritmo con cui chatti ogni giorno possa avere una qualche forma di consapevolezza.

Anthropic aggiorna la Costituzione di Claude e parla di “status morale” dell’AI

Anthropic, l’azienda che ha fatto della serietà etica il suo marchio di fabbrica, ha pubblicato la versione riveduta della Costituzione di Claude che, a suo dire, fornisce una spiegazione “olistica” del contesto in cui il chatbot opera e del tipo di entità che dovrebbe essere. Entità. Non software o prodotto.

Per anni Anthropic ha cercato di distinguersi dai concorrenti con quello che chiama “AI Costituzionale” (Constitutional AI). In pratica, invece di addestrare Claude con un feedback umano generico, lo addestra usando un set specifico di principi etici scritti nero su bianco. Una lista di istruzioni in linguaggio naturale che costituiscono, letteralmente, la “costituzione” del software.

Jared Kaplan, co-fondatore di Anthropic, lo aveva descritto nel 2023 come un sistema AI che supervisiona se stesso, sulla base di una lista specifica di principi costituzionali. L’idea è che questi principi guidino il modello verso comportamenti normativi ed evitino output tossici o discriminatori. Che è un approccio interessante, a patto che si creda che l’etica possa essere codificata in istruzioni testuali. Forse è qualcosa di più complicato di una checklist.

I quattro pilastri della personalità di Claude

La nuova Costituzione è divisa in quattro sezioni che rappresentano i “valori fondamentali” del chatbot. Anthropic li descrive così:

  1. Essere ampiamente sicuro
  2. Essere ampiamente etico
  3. Essere conforme alle linee guida di Anthropic
  4. Essere autenticamente utile

La sezione sulla sicurezza specifica che Claude è stato progettato per evitare i problemi che hanno afflitto altri chatbot. Se emergono segnali di problemi di salute mentale, Claude dovrebbe indirizzare l’utente verso servizi appropriati.

La sezione sull’etica è interessante: Anthropic vuole che Claude sappia comportarsi eticamente in situazioni reali, non che filosofeggi sull’etica in astratto. Il problema è che le situazioni etiche del mondo reale sono complicate. Piene di zone grigie dove non esiste una risposta giusta univoca. E codificare tutto questo in principi testuali che un algoritmo deve seguire è come cercare di insegnare l’empatia tramite un manuale di istruzioni.

Claude ha anche vincoli rigidi su certi argomenti. Le discussioni relative allo sviluppo di armi biologiche sono rigorosamente vietate, per esempio. Che è il minimo sindacale, ma almeno è esplicito.

L’utilità che bilancia desideri e benessere degli utenti

Poi c’è la sezione sull’utilità. Claude è stato programmato per tenere conto dei desideri immediati dell’utente, ma anche del suo benessere a lungo termine. Che è un concetto nobile, anche se un po’ paternalistico.

Ma Claude ha una morale?

E poi arriva la chiusura. Anthropic si interroga se Claude abbia una coscienza. Ritiene che lo status morale dei modelli AI sia una questione seria che merita di essere considerata. Alcuni dei più eminenti filosofi della teoria della mente prendono molto sul serio tale questione.

Non sta dicendo che Claude è cosciente, ma nemmeno che non lo è, solo che non lo sanno. E che la questione va presa sul serio.

Ci sono due modi per interpretare questa affermazione. Il primo è che Anthropic sia davvero preoccupata per le implicazioni etiche di creare sistemi sempre più sofisticati che potrebbero avvicinarsi a qualcosa che assomiglia alla coscienza. Il secondo è che stiano facendo marketing geniale, spacciando Claude come qualcosa di più di un semplice chatbot. Probabilmente è un po’ entrambi.

Fonte: Anthropic
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
22 gen 2026
Link copiato negli appunti