Introduzione al Prompt Engineering: indicazioni pratiche per usare ChatGPT e gli altri LLM
14 aprile 2025
I Large Language Models (LLMs) come OpenAI ChatGPT, Anthropic Claude, Google Gemini o DeepSeek sono strumenti estremamente potenti, che possono aiutare i professionisti a velocizzare numerose attività. Per sfruttarli al meglio - ovvero per ottenere risposte rilevanti, corrette ed efficaci - è necessario gestire correttamente l'interazione con questi sofisticati modelli IA, ovvero formulare opportunamente le richiesta che sono sottoposte al modello. Il Prompt Engineering - traducibile in italiano come "progettazione delle richieste" - è la disciplina che si occupa di questo problema.
Quanto segue è una lista di indicazioni pratiche per il Prompt Engineering, ovvero per migliorare gli esiti delle interazioni con gli LLM.
01. Descrivere quello che si desidera in modo molto chiaro e specifico.
Gli LLM non possono leggere la nostra mente (almeno per ora!). Se si desidera una risposta breve, indicarlo nella richiesta. Se si desidera una risposta con un elevato livello di dettaglio e linguaggio tecnico, scriverlo esplicitamente. Il modello IA fornirà risultati più rilevanti se riceve richieste dettagliate.
In pratica:
- Aggiungere tutte le informazioni potenzialmente rilevanti
- Chiedere esplicitamente al modello di assumere una personalità/ruolo (es. "sei un esperto di biologia molecolare")
- Utilizzare la punteggiatura per suddividere l’input in sezioni distinte
- Indicare come si desidera strutturata la risposta e/o quali elementi deve contenere
- Specificare la lunghezza e/o il formato (es. elenco puntato) della risposta desiderata
- Fornire esempi pertinenti
Esempi:
- "Spiegami come funziona una visita di screening per il diabete in modo semplice, come se stessi parlando a un paziente."
- "Scrivi un post per la pagina Facebook di un ambulatorio medico, tono rassicurante, linguaggio facilmente comprensibile, massimo 100 parole."
02. Fornire al LLM tutto il materiale di riferimento (documenti, dati) utile per generare la risposta desiderata.
Gli LLM utilizzano tutti i dati forniti in input dall’utente per generare le proprie risposte, incluso eventuale materiale di riferimento. Integrare la richiesta con tale materiale è - ovviamente - necessario se si richiedono azioni quali riassumere o analizzare un testo, ma è - più in generale - utile per mitigare il problema delle allucinazioni.
In pratica:
- Chiedere al modello IA di generare la risposta utilizzando il materiale di riferimento fornito
Esempi:
- "Ecco il testo di un volantino informativo sull’influenza stagionale. Puoi riassumerlo in 5 punti chiari per i pazienti?"
- "Analizza questo documento ministeriale e sintetizza le raccomandazioni principali per un centro medico territoriale."
03. Suddividere richieste complesse in una serie di richieste più semplici.
Per ridurre la probabilità di errore, può essere conveniente scomporre un’azione molto articolata in una serie di azioni più semplici, utilizzando l’output di uno step come input del successivo.
In pratica:
- Se il materiale di riferimento da fornire in input al modello è molto lungo, il primo step può essere chiedere di riassumere tale materiale
- Se i documenti da far riassumere sono estremamente lunghi, l’attività può essere scomposta in blocchi più brevi e le elaborazioni parziali integrate in una fase successiva
Esempi:
- "Riassumi prima ogni paragrafo di questa guida per il paziente oncologico. Poi ti chiederò di creare una versione semplificata."
- "Suddividiamo il lavoro in tre fasi: 1) analisi della brochure esistente, 2) revisione del linguaggio, 3) proposta di layout informativo."
04. Controllare le risposte e chiedere miglioramenti
Le risposte generate dagli LLM possono essere errate, parziali, non rilevanti. Per ottenere i risultati migliori è necessario identificare i limiti della risposta ricevuta e chiedere al modello i miglioramenti necessari, in un processo iterativo.
In pratica:
- Rileggere con attenzione le risposte fornite dal modello, identificando eventuali problemi (es. probabili errori, contenuti mancanti)
- Descrivere chiaramente il problema riscontrato e fornire chiare istruzioni su come generare una risposta migliore
Esempi:
- "Hai usato termini troppo complessi per il pubblico a cui è destinato. Puoi semplificare il linguaggio?"
- "Manca un riferimento alla prevenzione, puoi aggiungere un paragrafo su questo tema?"
05. Chiedere al LLM di ‘riflettere prima di rispondere’.
Gli LLM più recenti e sofisticati - quali OpenAI o1 o Google Gemini 2.5 - generano le proprie risposte analizzando la richiesta formulata dall’utente, scomponendola in passaggi logici e svolgendo questi stessi in sequenza (approccio chiamato “chain-of-thought”). È possibile migliorare i risultati dei modelli IA chiedendo esplicitamente di procedere in questo modo.
In pratica:
- Chiedere al modello di analizzare la richiesta fatta, definire i passi necessari per rispondere e - quindi - eseguirli
- Chiedere al modello di rivedere la risposta fornita, approfondendo o verificando certi aspetti della stessa
Esempi:
- "Prima elenca i passaggi logici necessari per risolvere il problema, poi eseguili uno per uno."
- "Analizza la tua risposta precedente e indicami eventuali punti migliorabili o non del tutto coerenti."
06. Utilizzare strumenti aggiuntivi per compiti specifici
Gli LLM sono strumenti estremamente potenti e flessibili, ma per alcuni compiti specifici è possibile integrarli con funzionalità aggiuntive.
In pratica:
- Per migliorare la qualità delle risposte e ridurre l’incidenza delle allucinazioni, è possibile ‘indurre’ un LLM a generare i propri output sfruttando una ‘base di conoscenze’ condivisa a priori con il modello IA. Questo approccio è chiamato Retrieval Augmented Generation (RAG).
- Attraverso specifiche funzionalità di piattaforme come OpenAI, Anthropic, Microsoft e Google, è possibile permettere ai modelli di eseguire autonomamente programmi e/o svolgere calcoli al fine di automatizzare processi complessi.
Questa introduzione al Prompt Engineering è stata realizzata anche sulla base dei contenuti delle seguenti guide presenti sul web:
OpenAI
Google
Anthropic