Salta al contenuto principale
Professionisti AI
Strumenti AI

Costruire il tuo plugin Claude: il caso 'Pratica Lampo' per giuristi italiani

Da utente di Claude a progettista: come trasformarlo in un assistente verticale per il tuo studio. Skill, plugin, reverse prompting e privacy, con il prompt completo per costruire 'Pratica Lampo' da zero.

Alessandro Carenza28 aprile 20269 min

Quando un avvocato apre Claude e gli scrive "riassumimi questo fascicolo", il risultato è quasi sempre lo stesso: un riassunto generico, scritto bene, ma che non sa nulla del tuo studio, del tuo cliente, dei termini che hai segnato sul calendario, dei documenti che ti mancano.

Claude — fuori dalla scatola — è un assistente generalista. Per farlo diventare il tuo assistente devi smettere di considerarlo un'app e iniziare a considerarlo una piattaforma da configurare.

In questa guida ti porto dentro il caso di un plugin verticale per giuristi italiani che ho costruito di recente, Pratica Lampo, e di cui voglio mostrarti l'architettura riga per riga. Lungo la strada incontriamo cinque concetti che cambiano il modo in cui userai l'IA da domani: la SaaS Apocalypse, le tre stanze di Claude, la differenza tra skill e plugin, il reverse prompting e il problema della privacy.

Il cambio di paradigma

Per anni il software ha funzionato in un modo: apri un programma, clicchi pulsanti, riempi campi. L'interfaccia decide cosa puoi fare e tu ti adatti.

Con i modelli come Claude è diverso. Il software diventa destrutturato: apri una conversazione, dici cosa vuoi in italiano, e l'IA legge file nelle tue cartelle, scrive nuovi documenti, organizza la tua scrivania digitale. Qualcuno ha chiamato questo passaggio SaaS Apocalypse — non perché i software ad abbonamento spariscano, ma perché smettono di essere il punto di ingresso. Il punto di ingresso diventa il linguaggio naturale.

Le tre stanze, e la differenza tra skill e plugin

Per costruire qualcosa di serio devi capire dove vivi. Claude si divide in tre ambienti, ognuno con permessi diversi:

  • Chat — conversazione classica, online, isolata. Non vede nulla del tuo computer. Brainstorming, riformulazioni.
  • Cowork — l'app desktop con accesso ai file. Claude legge le cartelle che gli autorizzi, scrive documenti, modifica file. È dove vivono i plugin e dove succede il lavoro vero.
  • Code — Claude come collega di sviluppo: terminale, comandi, codice. Riservato a chi sviluppa.

Dentro il Cowork due oggetti vanno distinti subito. Una skill è una singola competenza preconfezionata: una macro che esegue un task ripetitivo (formatta un atto, calcola una scadenza) senza che tu debba spiegargliela ogni volta. Un plugin è un contenitore che raggruppa più skill, ottiene il permesso di leggere e scrivere in cartelle precise, e si collega a strumenti esterni (Gmail, Calendar, Slack) tramite API.

In pratica: la skill è una funzione, il plugin è il modulo che la importa, le dà accesso al filesystem e la espone all'utente. La skill ti fa risparmiare tre minuti, il plugin ti riprogetta una giornata di lavoro.

Caso pratico: costruire 'Pratica Lampo'

L'obiettivo: ogni volta che apri una nuova pratica, Claude scansiona la cartella, legge i documenti, e ti restituisce un fascicolo strutturato — parti, riassunto, timeline, documenti mancanti, scadenze, checklist.

Fase 1 — Localizzare un plugin esistente

Claude offre alcuni plugin di default. Quello Legal è pensato per il common law statunitense: clausole, riferimenti normativi e prassi sono tutti orientati agli USA. Per un avvocato italiano vale poco così com'è. Si parte adattandolo:

Mi piace molto il plugin Legal che hai di default. Vorrei però personalizzarlo perché sono un avvocato italiano: clausole, riferimenti normativi e formule devono essere coerenti con il diritto italiano e con la prassi forense.

Claude apre il plugin, ne legge la struttura, e produce una versione localizzata. Hai già un plugin tuo.

Fase 2 — Progettare un plugin nuovo da zero

Quando vuoi qualcosa di completamente personalizzato non parti da un default: scrivi tu l'architettura. Ecco il prompt che descrive Pratica Lampo per intero — vale la pena studiarlo riga per riga:

Voglio creare un plugin chiamato "Pratica Lampo" per giuristi italiani. Deve avere due skill.

Nuova pratica: tutte le volte che ti dirò che ho un nuovo fascicolo, dovrai scansionare la cartella di lavoro, leggere i documenti all'interno, e produrmi un fascicolo strutturato con: le parti, il riassunto della questione, una timeline, l'elenco dei documenti presenti con i richiami, i documenti mancanti, quello che devo chiedere al cliente, scadenze e termini, checklist delle azioni. Tutto questo me lo metti ordinato in un file .docx che salvi nella cartella.

Aggiorna pratica: potrei avere un fascicolo già avviato. Se ti aggancio a un fascicolo esistente e ti do l'avvio, dovrai fare un confronto fra i documenti, segnalarmi i documenti nuovi, aggiornare la timeline, prepararmi nuove checklist.

Non inventare mai i riferimenti, segui le mie indicazioni. E prima di iniziare, fammi un'intervista per raccogliere più informazioni e contesto.

Tre cose qui sono notevoli:

  1. Architettura esplicita: due skill distinte, compiti separati.
  2. Vincoli operativi: cosa leggere, cosa scrivere, dove salvare, in che formato.
  3. L'ultima riga è la più potente: "prima di iniziare, fammi un'intervista". È reverse prompting — torno tra un attimo sul perché cambia tutto.

Fase 3 — Il trigger

Una volta installata, la skill Nuova pratica si attiva con uno slash command:

/nuova pratica

Lo digiti, Claude scansiona la cartella attiva, applica la skill e restituisce il file. È lo stesso pattern delle scorciatoie degli IDE moderni: un trigger testuale che dà il via a una routine pre-addestrata.

La tecnica chiave: il reverse prompting

Nella maggior parte dei prompt che scrivi, il flusso è: tu chiedi → IA risponde. Il reverse prompting inverte i ruoli: prima di rispondere, l'IA ti intervista finché non ha capito.

Sembra una sfumatura. Non lo è.

Quando alla fine del prompt aggiungi "prima di iniziare, fammi un'intervista per raccogliere più informazioni", costringi il modello a non sparare la prima soluzione che gli passa per i pesi. Lo obblighi a chiedersi: cosa mi manca per fare un buon lavoro qui? E quel "cosa mi manca" — espresso come domande all'utente — diventa, di fatto, un documento di analisi dei requisiti. Senza che tu l'abbia chiesto.

È il modo più semplice che conosco per evitare l'output mediocre dell'IA: non scrivere prompt più lunghi, ma scrivere prompt che la costringono a chiedere.

Quando il plugin smette di funzionare

Capita. Aggiorni l'app, rinomini una cartella, e all'improvviso /nuova pratica risponde "Competenza sconosciuta". La UI non vede più i file di configurazione. Procedura:

  1. Nelle impostazioni del plugin scarica la cartella .zip con la sua configurazione.
  2. Verifica che i file di istruzione (in Markdown) siano integri.
  3. Ricarica il plugin manualmente.
  4. Riavvia l'app desktop.

Tienilo a mente: i plugin non sono magia, sono cartelle di file di testo. Se sai dove vivono, sai come ripararli.

Un plugin gigante o tanti piccoli?

La tentazione, quando funziona, è buttare tutto in un plugin onnisciente. Sbagliato. Più contesto carichi insieme, più aumentano le allucinazioni; più skill includi, più alti sono i costi in token anche per task che non stai usando; e ogni modifica diventa una manutenzione complicata.

Regola pratica: un plugin per ogni flusso di lavoro distinto. Pratica Lampo fa una cosa. Lettura PEC ne fa un'altra. Verticali, sottili, sostituibili.

Il punto cieco: la privacy

Affrontalo prima di mettere in produzione qualcosa del genere, perché qui dentro finiscono dati di clienti reali.

Tre livelli, in ordine di rischio:

  1. Account consumer (claude.ai standard) — i prompt possono finire nel training, salvo opt-out. Per dati di studio: non è un'opzione.
  2. Account business / enterprise — un Trust Portal e una policy che, di default, non usa i tuoi dati per addestramento. Per la maggior parte dei professionisti è il livello giusto.
  3. Modelli locali (SLM) — quando un dato non può uscire dal tuo computer. LM Studio ti permette di installare modelli open source come Gemma o Phi-3 che girano interamente offline. Meno potenti, ma per anonimizzare un contratto prima di mandarlo a Claude (sostituire nomi, IBAN, indirizzi con placeholder) sono perfetti.

Il pattern più sano è ibrido: anonimizzazione in locale con un SLM, ragionamento complesso in cloud con Claude su account business. Verifica sempre la policy in vigore: cambiano spesso, e quello che vale oggi potrebbe non valere domani.

Cosa manca ancora

Onestà: questi plugin non sono ancora autonomi. Hanno bisogno di un innesco umano — tu apri l'app, tu digiti lo slash command, tu autorizzi la cartella.

Quello che manca sono i trigger event-driven: quando arriva una PEC parte una skill, quando il calendario segna una scadenza il plugin prepara il dossier. Si può cucire a mano con webhook e tool come Zapier o n8n. In modo nativo, non ancora. È il prossimo passo.

La lezione da portare a casa

Smetti di trattare l'IA come un'app. Inizia a trattarla come una piattaforma da configurare per il tuo lavoro. La differenza tra un professionista che usa Claude e uno che ne trae valore è tutta qui: i secondi si sono costruiti i loro plugin.

Se non sai da dove iniziare, parti dal prompt di Pratica Lampo e adattalo al tuo flusso. Il primo plugin lo costruisci in un pomeriggio. Il decimo, durante una pausa caffè.


Vuoi che vediamo insieme come adattare 'Pratica Lampo' al tuo studio? Scrivimi.