Workflow Chunking: smetti di cercare il prompt perfetto, spezza il processo
Perché il 'singolo prompt magico' è il mito che ti frena. Il metodo del Workflow Chunking con esempi operativi per il professionista legale.
Uno dei primi errori che vedo commettere dai professionisti che si avvicinano all'AI è la caccia al prompt perfetto: l'istruzione unica e onnicomprensiva che dovrebbe produrre, in una singola interazione, un parere legale completo, formattato e referenziato.
Non esiste. E per un motivo strutturale.
Perché il prompt unico non può funzionare
Un LLM non è un avvocato che "lavora di più se gli dai più informazioni". È un modello probabilistico che, più lungo e articolato è l'input, più rischia di:
- Diluire l'attenzione sui vincoli (il modello "dimentica" le regole date all'inizio)
- Confondere i task (se gli chiedi di analizzare e scrivere e citare e sintetizzare, i compiti interferiscono)
- Generare allucinazioni composte (un errore in fase di analisi propaga errori in fase di redazione)
La soluzione non è trovare il prompt migliore. È smettere di cercarlo.
Il Workflow Chunking
Il principio è semplice e arriva direttamente dall'ingegneria del software: la modularità. Un processo complesso non si risolve con un blocco monolitico, si scompone in micro-task specializzati, ciascuno con:
- Un obiettivo specifico
- Uno strumento ottimale
- Un prompt dedicato e mirato
- Un output verificabile
Il workflow di un caso legale diventa così una catena di blocchi, non un singolo prompt.
Non esiste un singolo prompt perfetto. Esiste un'architettura di passaggi sequenziali in cui ogni pezzo fa una cosa sola e la fa bene.
Esempio concreto: parere su videosorveglianza condominiale
Invece di un unico prompt da 3.000 caratteri che fa tutto, scomponi così:
Blocco 1 — Ingestione e pulizia (Agente autonomo)
Task: convertire 30 PDF di sentenze in file .txt puliti, senza metadati, intestazioni, numeri di pagina.
Strumento: agente come Manus
Output: 30 file .txt strutturati
Blocco 2 — Mappa delle fonti (Agente + template)
Task: per ogni file, estrarre tribunale, anno, argomento giuridico, orientamento (restrittivo/permissivo).
Strumento: agente autonomo + template Markdown
Output: una "Mappa delle Fonti" in formato .md
Blocco 3 — Analisi comparativa (NotebookLM)
Task: identificare convergenze, divergenze, orientamenti prevalenti. Strumento: NotebookLM con tutte le fonti caricate + mappa come documento guida Output: report analitico con citazioni puntuali
Blocco 4 — Analisi dei non detti (NotebookLM)
Task: estrarre i pattern impliciti, le omissioni, i criteri decisionali non esplicitati. Strumento: NotebookLM (stesso taccuino del blocco 3) Output: seconda analisi orientata ai gap
Blocco 5 — Redazione del parere (Claude)
Task: trasformare l'analisi in parere legale nel mio DNA Voice, con struttura professionale. Strumento: Claude (specializzato in scrittura testuale) con profilo stilistico pre-caricato Output: parere legale formattato
Blocco 6 — Revisione umana
Task: validazione critica, correzione di errori materiali, assunzione di responsabilità professionale. Strumento: io. Output: documento firmabile.
Ogni blocco è atomico e verificabile. Se qualcosa va storto al blocco 4, non devo rifare tutto: riprendo da lì. Se trovo un tool migliore per il blocco 3, lo sostituisco senza toccare il resto.
Il permesso di dire "non lo so"
Dentro questa architettura, esiste un'istruzione che fa più di qualunque altra per ridurre le allucinazioni: il permesso esplicito di dire non lo so.
Il modello, per come è addestrato (via RLHF — Reinforcement Learning from Human Feedback), tende a voler compiacere l'utente. Di fronte a una domanda la cui risposta non è nelle fonti disponibili, la sua inclinazione default non è ammettere l'ignoranza: è produrre una risposta plausibile.
Il risultato è la classica allucinazione giuridica: una citazione di articolo che non esiste, una sentenza inventata con Tribunale e numero verosimili ma inesistenti, un orientamento "pacifico" che non è mai stato espresso.
La contromisura è chirurgica. In ogni prompt di lavoro, inserisci:
Se non trovi le informazioni necessarie nelle fonti fornite,
dichiara esplicitamente: "Non ho sufficienti informazioni per
rispondere". Non integrare con la tua conoscenza generale, non
generare riferimenti plausibili ma non verificati.
Nelle migliaia di ore di sessioni che ho supervisionato, questa singola istruzione ha eliminato il 70-80% delle allucinazioni osservate nei workflow strutturati. Non azzera il rischio — nessun metodo lo fa — ma lo riporta a un livello gestibile dall'human-in-the-loop.
Igiene del sistema operativo locale
C'è un livello sotto il workflow AI che spesso viene ignorato: come è organizzato il tuo PC.
Gli agenti autonomi accedono a cartelle, file, nomenclature. Se il tuo desktop è un caos di file chiamati parere_finale_v3_rev_def_2.pdf, copia di copia di sentenza.pdf, Nuova cartella (3), l'agente fatica — e sbaglia.
L'igiene di base che richiedo quando avvio un percorso:
- Struttura a cartelle per cliente:
/Clienti/[Cognome]/[AnnoMeseCaso]/[Categoria documentale] - Nomenclature parlanti:
2026-03-15_Tribunale-Milano_sentenza_15478.pdfnonsentenza buona.pdf - Un'unica cartella "Sources" per ogni pratica con i documenti da dare in pasto all'AI
- Separazione tra originali PDF e versioni
.txtpulite (mai mischiare)
Non è zelo di ordine maniacale. È una precondizione tecnica: l'AI lavora bene solo se il filesystem su cui opera è leggibile. Un'Information Architecture minima sul tuo desktop diventa parte integrante del tuo vantaggio competitivo.
Il cambio di mindset: da operatore a supervisore
Il Workflow Chunking non è solo una tecnica: è un cambio di ruolo.
- L'operatore fa i singoli task personalmente
- Il supervisore progetta la catena, sceglie gli strumenti per ciascun blocco, definisce i vincoli, valida gli output
Il valore professionale — e quindi l'onorario — si sposta dalla esecuzione alla progettazione del processo. Questo è il motivo per cui insisto sul passaggio dal billing by hour al billing by value: se fatturi per le ore passate a fare task che l'agente può fare in minuti, stai scalando verso il basso. Se fatturi per l'architettura di processo che consegni al cliente, stai scalando verso l'alto.
Il test di maturità
Come capire se il tuo workflow è davvero "chunked"? Rispondi a queste tre domande:
- Se un tool dell'ecosistema cambia/scompare domani, quanto del tuo lavoro salta? Risposta sana: solo il blocco che lo usava.
- Il tuo junior può rieseguire il workflow seguendo la tua documentazione? Risposta sana: sì.
- Puoi scalare un nuovo caso simile al precedente in metà tempo? Risposta sana: sì, perché riusi i blocchi già validati.
Se rispondi "no" a una di queste, stai ancora lavorando con prompt monolitici mascherati da workflow.
Vuoi strutturare il tuo primo workflow chunked su un caso reale? Scrivimi.