Perché microgestire i tuoi agenti IA li rende in realtà più stupidi

Gli sviluppatori trattano i moderni LLM come fragili script regex. Sostituendo le regole rigide con principi fondamentali, puoi migliorare drasticamente i tuoi agenti AI. Ecco perché, in realtà, *less is more*.

Perché microgestire i tuoi agenti IA li rende in realtà più stupidi
Feng LiuFeng Liu
12 marzo 2026

Apri un system_prompt.txt a caso da una moderna repository GitHub oggi, e cosa vedi? Di solito, è un muro di testo in preda al panico. "NON fare X. DEVI restituire esattamente tre punti elenco. NON usare MAI questa libreria."

Gli sviluppatori stanno trattando i motori di ragionamento più avanzati della storia umana come fragili script regex.

Questa paranoia ha perfettamente senso dal punto di vista storico. Solo un anno o due fa, i primi LLM avevano bisogno di essere guidati passo passo solo per rimanere in tema. Ma i tempi sono cambiati. I modelli moderni sono incredibilmente intelligenti, eppure scriviamo ancora prompt come se stessimo programmando un microonde degli anni '80. Stiamo cercando di hardcodare l'intelligenza.

Di recente è successa una cosa affascinante in Vercel che dimostra questo punto. Il loro team di ingegneri ha pubblicato un'analisi di come hanno migliorato il loro prodotto v0, descrivendo una mossa controintuitiva: hanno rimosso l'80% dei tool del loro agente.

Il risultato? Il sistema non si è rotto. Anzi, è migliorato tantissimo. Eliminando i tool troppo prescrittivi e i binari rigidi, hanno ridotto la confusione e permesso al modello di fare ciò che sa fare meglio: ragionare sul problema. Meno attrito ha portato a codice migliore.

C'è una lezione profonda qui per chiunque stia costruendo con l'AI in questo momento: Fornisci principi, non regole rigide.

Paradigma Tecnologico Retro vs Moderno

Quando dici a un LLM esattamente cosa fare passo dopo passo, lo costringi a spendere la sua limitata attenzione (capacità di calcolo) sulla conformità piuttosto che sulla qualità. Gli togli la capacità di usare i suoi vasti dati di addestramento per trovare una soluzione più elegante di quella che hai hardcodato.

Per capire la differenza, guarda come la maggior parte degli sviluppatori scrive i prompt per gli agenti rispetto a come dovrebbero scriverli.

Il Modo Sbagliato (Regole Rigide):

"Scrivi una funzione Python per recuperare i dati utente. Devi usare la libreria requests. Devi gestire gli errori con un blocco try/except. Devi restituire un dizionario con esattamente le chiavi 'name', 'email' e 'status'. Non usare async. Aggiungi commenti a ogni riga."

Il Modo Giusto (Principi e Obiettivi):

"Scrivi una funzione Python robusta per recuperare i dati utente. Privilegia librerie moderne e standard. Il codice dovrebbe essere production-ready, il che significa che gestisce in modo elegante i guasti di rete e gli edge case. Dai priorità alla leggibilità e a un'architettura pulita rispetto a soluzioni troppo 'furbe'. Il sistema a valle si aspetta profili utente standard (name, email, status)."

Noti il cambiamento? Il primo esempio tratta l'AI come uno sviluppatore junior di cui non ci si può fidare. Il secondo la tratta come un senior engineer che comprende l'obiettivo e il contesto. Le dici che aspetto ha un buon output e perché, poi fai un passo indietro e le lasci capire il come.

Ovviamente, c'è una grande eccezione a questa regola.

Quando gli agenti parlano con altri agenti — o quando un agente a monte passa dati a un rigido parser di database a valle — hai bisogno di assoluto rigore. I passaggi di consegne machine-to-machine richiedono schemi JSON precisi e inflessibili. Ma per il ragionamento, la generazione e il problem-solving? Allenta la presa.

Se vuoi aggiornare all'istante i tuoi assistenti di programmazione oggi stesso, copia e incolla questo esatto blocco nel tuo claude.md, memory.md, o nel system prompt principale del tuo agente:

## Prompt Writing Philosophy
When writing LLM prompts (system prompts, skill specs, subagent prompts): **give principles, not rigid rules.**
- Tell the LLM what good output looks like and why — let it figure out how
- Avoid prescribing exact fields, counts, or formats unless the output is a machine-consumed intermediate
- Exception: structured handoffs between agents can be rigid because downstream agents need consistent field names

Smettila di cercare di fare micromanagement con la macchina. Fidati dei moderni LLM. Sono più veloci, più intelligenti e infinitamente più capaci quando smettiamo di trattarli come bambini dell'asilo.

Struttura Rigida vs Ragionamento Fluido

Condividi questo

Feng Liu

Feng Liu

shenjian8628@gmail.com

Perché microgestire i tuoi agenti IA li rende in realtà più stupidi | Feng Liu