Salta al contenuto
Prompti.it

Prompt Design

10 errori comuni nei prompt e come evitarli (2026)

I 10 errori più frequenti nei prompt aziendali e come correggerli. Esempi prima/dopo, framework RTCFE, casi reali ChatGPT/Claude/Gemini.

Pubblicato il 2 maggio 2026 · Aggiornato il 2 maggio 2026

In tre anni di lavoro su prompt aziendali italiani vediamo ricorrere gli stessi 10 errori. La maggior parte non dipende da modello scelto (GPT-5, Claude Opus 4.x, Gemini 2.5 producono output buono se istruiti bene) ma da come viene scritto il prompt. Qui li mappiamo con esempio prima/dopo per ognuno, in modo che possiate verificare i vostri prompt aziendali contro questa checklist.

Errore 1 — Mancata definizione del ruolo

Senza un ruolo esplicito il modello sceglie un tono di default che spesso non è quello che serve. È l’errore più frequente che vediamo nei prompt scritti dai team operativi.

Prima:

Scrivi un'email di follow-up dopo un meeting commerciale.

Dopo:

RUOLO: Sei un sales executive di una software house italiana, esperto B2B mid-market.

TASK: Scrivi email di follow-up dopo demo prodotto, rivolta a un buyer COO che ha mostrato interesse moderato. Tono professionale ma diretto, niente formule troppo formali.

Il primo prompt produce email vaghe applicabili ovunque. Il secondo produce email contestuali subito utilizzabili.

Errore 2 — Istruzioni vaghe (“scrivi bene”, “in modo professionale”)

Termini soggettivi non comunicano niente al modello. Devono essere tradotti in criteri operativi.

Prima: “Scrivi un testo professionale e ben strutturato.”

Dopo: “Lunghezza 200-250 parole. Tre paragrafi separati da riga vuota. Frasi sotto le 25 parole. Niente avverbi superflui (assolutamente, fondamentalmente, particolarmente). Uso del ‘noi’ aziendale, mai del ‘tu’.”

Il secondo è verificabile e produce risultati riproducibili.

Errore 3 — Niente contesto sulla situazione

I modelli non hanno memoria persistente cross-sessione. Senza contesto producono risposte generiche.

Prima: “Aiutami a rispondere a questo cliente arrabbiato.”

Dopo: “Contesto: cliente B2B fidelizzato dal 2023, ordini medi €15k/mese, primo reclamo formale ricevuto. Lamenta ritardo consegna 4 giorni causa sciopero corriere documentato. La nostra policy non prevede rimborsi totali per cause di forza maggiore ma ammette voucher fino al 10% dell’ordine. Cliente è strategico per il 2026, da non perdere.”

Il modello adesso ha gli elementi per scrivere una risposta calibrata.

Errore 4 — Formato output non specificato

“Generami un’analisi” produce paragrafi liberi. Se serve struttura, va dichiarata.

Prima: “Analizza questi dati di vendita Q1 2026.”

Dopo:

FORMATO OUTPUT:
- Sezione 1: Top 3 insight in bullet (max 25 parole ciascuno)
- Sezione 2: Tabella markdown con colonne: prodotto | fatturato Q1 | delta vs Q4 | trend
- Sezione 3: 3 raccomandazioni operative numerate
- Sezione 4: Una metrica di rischio da monitorare per Q2

Lunghezza totale: 400-500 parole. Niente preamboli del tipo "Ecco l'analisi richiesta".

Il secondo è subito copy-paste in un report aziendale.

Errore 5 — Few-shot mancante per task complessi

Per task non banali (classificazione, estrazione dati, scrittura su brand voice specifico), un esempio risolto vale più di tre paragrafi di istruzioni.

Prima: “Classifica questi ticket di customer service per priorità.”

Dopo:

TASK: Classifica ticket per priorità (P1 critica, P2 alta, P3 media, P4 bassa).

ESEMPI:
- "Sito non si apre da 30 minuti" → P1
- "Errore al checkout su browser specifico" → P2
- "Domanda su modalità pagamento" → P3
- "Apprezzamento per il prodotto" → P4

Adesso classifica i seguenti ticket: [lista]

I few-shot fanno la differenza tra accuratezza 60% (errori frequenti) e 90%+ (operativo).

Errore 6 — Inserire dati personali nel prompt

Errore frequente nelle PMI. Inserire nomi, email, codici fiscali, dati sanitari nei prompt verso ChatGPT consumer crea problemi GDPR e rischio data leak.

Prima: “Riassumi questa email del cliente Mario Rossi (mario.rossi@azienda.com, CF RSSMRO80A01H501Z) in cui chiede info sul prodotto X.”

Dopo: pseudonimizzare prima di inviare al modello.

"Riassumi questa email del cliente [CLIENTE] in cui chiede info sul prodotto X."

I dati personali vengono ricostruiti lato applicazione dopo la generazione. Per i dettagli sulla policy d’uso aziendale conforme vedi il nostro servizio prompt engineering.

Errore 7 — Prompt troppo lunghi senza struttura

Prompt da 2000 parole in un blocco unico funzionano peggio di prompt strutturati di 800 parole con sezioni separate. I modelli leggono meglio testo organizzato.

Soluzione: strutturate sempre con sezioni etichettate (RUOLO / CONTESTO / TASK / VINCOLI / FORMATO / ESEMPI), separate da righe vuote o markdown headers.

Errore 8 — Niente vincoli su cosa NON fare

I modelli sono allenati a essere helpful — possono inventare informazioni se non glielo proibite esplicitamente.

Prima: “Riassumi i punti chiave della normativa AI Act articolo 9.”

Dopo:

TASK: Riassumi i punti chiave della normativa AI Act articolo 9.

VINCOLI:
- Se non sei sicuro di un dato, dichiara "informazione da verificare con fonte ufficiale" invece di inventare numeri
- Non citare articoli del Regolamento se non puoi verificarne il numero
- Se mancano informazioni cita "documento eur-lex.europa.eu/eli/reg/2024/1689" come fonte da consultare

Vincoli espliciti riducono allucinazioni di un fattore 3-5x sui task fact-heavy.

Errore 9 — Non testare su input edge case

Un prompt che funziona su 5 esempi tipici può fallire su input atipici (testi multilingua, abbreviazioni, ironia, errori di battitura). Testare solo casi standard è una falsa sicurezza.

Soluzione operativa: prima di mettere in produzione un prompt, testarlo su:

  • Input molto corti (1-2 frasi)
  • Input molto lunghi (al limite del contesto)
  • Input con errori grammaticali
  • Input multilingua se rilevante
  • Input ambigui o ironici
  • Input che potrebbero attivare guardrail di sicurezza

Errore 10 — Mancanza di versioning

In azienda i prompt si modificano nel tempo. Senza versioning si perde traccia di cosa funzionava prima e perché un cambio ha peggiorato l’output.

Soluzione: prompt aziendali vanno gestiti come codice. Repository Git, versioning semantico (v1.0 → v1.1 → v2.0 per breaking changes), changelog con motivazione modifiche, A/B testing prima del rollout. Vedi il nostro servizio prompt design per come strutturiamo prompt libraries aziendali.

Domande frequenti

Quale errore è più dannoso?

Per qualità output l’errore 5 (mancanza few-shot per task complessi) — può portare accuratezza dal 60% al 90%. Per compliance e rischio aziendale l’errore 6 (dati personali nei prompt) — può causare violazioni GDPR. Per scalabilità l’errore 10 (mancanza versioning) — diventa debito tecnico crescente.

Come faccio audit dei prompt aziendali esistenti?

Consigliamo audit su 4 livelli: (1) inventario dei prompt attivi, (2) classificazione per criticità (chi vede l’output? quali dati tratta?), (3) test contro questa checklist 10 errori, (4) priorità di refactoring. Tipicamente in PMI con 50-200 dipendenti emergono 30-80 prompt informalmente in uso, di cui 20-30% da rifare per qualità o compliance.

Posso riusare gli stessi prompt su modelli diversi?

Quasi sempre con piccoli adattamenti. GPT-5 e Claude Opus 4.x rispondono bene allo stesso prompt strutturato. Gemini 2.5 a volte beneficia di few-shot più espliciti. I prompt molto lunghi (oltre 4-5K parole) vanno talvolta riformulati per ottimizzare costi diversi tra provider.

Approfondimenti

Per approfondire:

Volete parlarne con noi?

Prima call €240, compensata se accettate il preventivo. Una conversazione di un'ora per capire le vostre priorità.

Richiedi una consulenza
IT