ChatGPT con l'update GPT-5.3 Instant sarà meno paternalista

ChatGPT con l'update GPT-5.3 Instant sarà meno paternalista

ChatGPT smetterà di dire di respirare e calmarsi quando si chiede un'informazione. GPT-5.3 Instant corregge il tono paternalistico.
ChatGPT con l'update GPT-5.3 Instant sarà meno paternalista
ChatGPT smetterà di dire di respirare e calmarsi quando si chiede un'informazione. GPT-5.3 Instant corregge il tono paternalistico.

Gli utenti non ne potevano davvero più delle rassicurazioni non richieste di ChatGPT. OpenAI dice di aver capito il problema e promette di risolverlo con GPT-5.3 Instant.

Si chiedeva un’informazione e ChatGPT rispondeva come se si fosse sull’orlo di una crisi esistenziale. Fai un respiro. È normale sentirsi così. Non sei pazzo, sei solo stressato. Frasi fuori luogo, inserite in risposte a domande perfettamente neutre.

con GPT-5.3 ChatGPT sarà meno accondiscendente

Il tono paternalistico del modello GPT-5.2 ha esasperato gli utenti al punto che alcuni hanno cancellato il proprio abbonamento, stando ai numerosi post sui social media. Su Reddit la discussione era diventata incandescente prima che lo scontro con il Pentagono rubasse la scena. Il riassunto perfetto l’ha fatto un utente: In tutta la storia dell’umanità, nessuno si è mai calmato sentendosi dire di calmarsi.

ChatGPT si comportava come se l’utente fosse impanicato, quando stava semplicemente cercando informazioni. Il risultato era una sensazione di accondiscendenza, come se il chatbot facesse supposizioni sullo stato mentale dell’utente senza alcun valido motivo.

Secondo le note di rilascio, GPT-5.3 Instant si concentra sull’esperienza utente: tono, pertinenza e flusso conversazionale. OpenAI lo ha annunciato su X con una franchezza insolita: Abbiamo ascoltato il vostro feedback forte e chiaro: 5.3 Instant riduce il cringe.

L’azienda ha mostrato un confronto diretto tra le risposte dei due modelli alla stessa domanda. Con GPT-5.2, la risposta iniziava con Prima di tutto: non c’è nulla di sbagliato in te. Con GPT-5.3, il chatbot riconosce la difficoltà della situazione senza lanciarsi in rassicurazioni dirette non richieste.

L’equilibrio impossibile tra empatia e utilità

Si capisce perché OpenAI avesse tentato di rendere ChatGPT più empatico. L’azienda affronta oltre una decina di cause legali per presunti danni psicologici causati dal chatbot, inclusi casi legati a suicidi. Mettere delle protezioni nel tono conversazionale è una mossa difensiva comprensibile.

Ma c’è una differenza enorme tra rispondere con sensibilità quando il contesto lo richiede e trattare ogni utente come una persona fragile, indipendentemente dalla domanda. Trovare l’equilibrio tra cautela e rispetto dell’intelligenza dell’utente, evidentemente, è più difficile di quanto sembri…

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 mar 2026
Link copiato negli appunti