OpenAI ha recentemente pubblicato la guida “Prompt Engineering” per GPT-4. Questo documento fornisce una panoramica dettagliata su come ottimizzare l’efficienza dei modelli linguistici (LLM).
La guida presenta diverse strategie che possono essere combinate per ottenere una maggiore efficienza, e include esempi di prompt. In particolare, vengono proposte 6 tecniche chiave per aiutare gli utenti a massimizzare l’efficienza del modello.
Guida OpenaAI al Prompt Engineering per GPT-4
Nella sua guida Prompt Engineering per GPT-4, OpenAI fornisce informazioni dettagliate sui modi per migliorare l’efficienza di ChatGPT, in particolare del suo ultimo modello, GPT-4. Ecco le 6 tecniche per ottenere risultati migliori:
1. Dare istruzioni chiare
I modelli LLM mancano di intuizione. Per sfruttare al meglio le potenzialità di GPT-4, OpenAI consiglia di essere chiari e specifici. Se si desiderano risposte brevi, si dovrebbero richiedere esplicitamente. Se si aspira a una scrittura più sofisticata, si dovrebbe chiedere una qualità di livello esperto. Se si vuole un formato particolare, si dovrebbe mostrare un esempio di come dovrebbe essere. Più si forniscono indicazioni precise al modello, più si ottiene ciò che si cerca.
2. Fornire testi di riferimento
I modelli linguistici possono generare risposte imprecise, soprattutto su argomenti poco chiari o quando vengono richieste citazioni e URL. Allo stesso modo in cui gli appunti aiutano uno studente, fornire un testo di riferimento può migliorare l’accuratezza del modello. Gli utenti possono chiedere al modello di rispondere utilizzando un testo di riferimento o fornendo citazioni da esso.
3. Dividere i compiti complessi in sotto-compiti più semplici
Per ottimizzare le prestazioni, si raccomanda di suddividere un sistema complesso in moduli indipendenti. La complessità aumenta il rischio di errori, mentre la semplicità lo riduce. Inoltre, si possono semplificare le attività complesse trasformandole in sequenze di attività più elementari, che si basano sui risultati delle fasi precedenti.
4. Dare al modello il tempo di “pensare”
I modelli LLM sono più inclini agli errori di ragionamento quando forniscono risposte immediate. Chiedere una “catena di pensiero” prima di ricevere una risposta può aiutare il modello a ragionare meglio e a dare risposte più affidabili e precise.
5. Utilizzare strumenti esterni
Un modo per compensare le debolezze del modello è integrarlo con i risultati di altri strumenti. Ad esempio, un sistema di recupero del testo, noto anche come RAG (Retrieval Augmented Generation), può fornire al modello informazioni dai documenti rilevanti. Inoltre, un motore di esecuzione del codice come il Code Interpreter di OpenAI può aiutare il modello a effettuare calcoli e ad eseguire codice. In questo modo, si possono mitigare le limitazioni del modello e ottenere risultati ottimali combinando le capacità di diversi strumenti.
6. Testare sistematicamente le modifiche
Migliorare le prestazioni diventa più semplice quando è possibile misurarle in modo accurato. Talvolta, apportare una modifica al prompt può portare a un miglioramento delle prestazioni su alcuni esempi specifici, ma potrebbe comportare una diminuzione delle prestazioni su un set di esempi più rappresentativo. Pertanto, per garantire che una modifica produca un miglioramento netto delle prestazioni, è necessario definire una serie completa di test che copra diversi scenari.