Vuoi portare AI dentro i tuoi workflow senza scrivere infrastrutture complesse? Con il nodo AI n8n puoi creare assistenti interni, riassumere email e documenti, estrarre dati strutturati, arricchire CRM e orchestrare automazioni multicanale. In questa guida pratica vedrai come impostare i nodi di intelligenza artificiale in n8n: dal collegamento dei modelli (OpenAI) al montaggio di agenti con strumenti (Tools Agent), fino a embeddings e memoria vettoriale per contesti più “smart”. Troverai configurazioni esatte di nodo, prompt template e output parser in n8n, consigli di controllo costi e token nei workflow AI, gestione di latenza e rate limit con provider AI, oltre a debug e monitoraggio dei workflow AI in n8n. Partiremo con le basi per poi mostrare un template chatbot (WhatsApp) e alternative all’agente AI quando serve più controllo. Obiettivo: un percorso chiaro e ripetibile, perfetto per marketer che vogliono risultati rapidi senza sacrificare qualità, governance e privacy.
[IMG: Panoramica workflow AI: Trigger → Normalizza → AI Agent (Tools) → Parser → Slack/WhatsApp → Log]
Requisiti e versioni: cosa ti serve prima di iniziare
Per usare i nodi AI in n8n ti servono:
- Un ambiente n8n (cloud o self‑hosted) e credenziali dei provider modello (es. OpenAI) inserite in “Credentials”.
- Dati di test realistici: email, ticket, messaggi o documenti su cui misurare qualità e tempi di risposta.
- Policy di sicurezza: variabili d’ambiente per chiavi API, regole di minimizzazione dati, retention dei log.
Aggiornamenti rilevanti per i nodi AI
- L’AI Agent di n8n (node type: n8n-nodes-langchain.agent) supporta modalità agente diverse; tra queste il Tools Agent è presentato come Default nella configurazione agent-based. Questo profilo è pensato per “agenti con strumenti” (web search, calcolatrici, chiamate API) e rappresenta un buon punto di partenza per agenti operativi.
Che differenza c’è tra “chiamata diretta al modello” e “agente con strumenti”?
- Chiamata diretta (nodo modello): massima prevedibilità e costi sotto controllo; ottimo per riassunti, classificazioni, estrazioni con output JSON.
- Agente (Tools Agent): decide quando e come usare tool sub-nodes per cercare info o compiere azioni. Ideale per assistenti che devono consultare risorse esterne, ma richiede più attenzione a guardrail e parsing dell’output.
Best practice iniziali
- Definisci limiti di costo/quote e regole di sampling (temperature) prima di aprire ai team.
- Prepara prompt “system” chiari e schemi di output validabili.
- Attiva un log sintetico (richiesta/risposta, tempi, token) per audit e tuning.
Configurare i provider modello: OpenAI e alternative
OpenAI (Chat) — nodo e parametri esatti
- Display name: ChatGPT
- Node type: n8n-nodes-langchain.lmChatOpenAi
- Parametri tipici:
- model: “gpt-3.5-turbo” (o GPT‑4, a seconda dell’account)
- temperature: 0.7
- maxTokens: 500
- systemPrompt: “You are a helpful assistant.”
- userPrompt: testo dinamico (es. ={{ $json.text }})
- Esempio di configurazione
{
"name": "ChatGPT",
"type": "n8n-nodes-langchain.lmChatOpenAi",
"parameters": {
"model": "gpt-3.5-turbo",
"temperature": 0.7,
"maxTokens": 500,
"systemPrompt": "You are a helpful assistant.",
"userPrompt": "Hello! How can I automate tasks with n8n?"
},
"credentials": {
"openAiApi": { "id": "OPENAI_CREDENTIAL_ID" }
}
}
Alternative e interoperabilità
- Anthropic Claude su n8n e Google Gemini in workflow n8n: se non disponi di un nodo dedicato nella tua versione, puoi comunque orchestrare via HTTP Request (API dirette), mantenendo la stessa disciplina di prompt template e output parser in n8n.
- Suggerimento operativo: quando usi provider multipli, astrarre i parametri in Set/Code per switchare modello senza cambiare la logica a valle.
Sicurezza, costi e limiti
- Conserva chiavi in credenziali/variabili d’ambiente; non inserirle hardcoded nei nodi.
- Imposta maxTokens adeguato e temperature più basse per task deterministici (estrazioni/dati strutturati).
- Rispetta rate limit; prevedi retry con backoff e circuit breaker leggero per fallback (risposta cache o template statico).
[IMG: Credenziali OpenAI in n8n con variabili d’ambiente e mascheramento attivo]
AI Agent e Tools sub-nodes: il Tools Agent (Default) passo‑passo
Nodo agente
- Node type: n8n-nodes-langchain.agent
- Modalità: “Tools Agent (Default)” per agenti che usano strumenti.
- Parametri chiave: agent, model, systemMessage, memory, verbose, tools.
Esempio minimo (Tools Agent) con OpenAI
{
"name": "AI Agent (Tools)",
"type": "n8n-nodes-langchain.agent",
"parameters": {
"agent": "tools",
"model": {
"provider": "openai",
"model": "gpt-4",
"temperature": 0.7
},
"systemMessage": "You are a helpful assistant that uses tools to find information and accomplish tasks.",
"memory": true,
"verbose": true,
"tools": [
{ "name": "googleSearch", "input": "What is n8n?" }
]
}
}
Aggiungere tool sub-nodes
- Collega al nodo agente i tool necessari (es. un “googleSearch” tool node) e configura le credenziali (API key).
- Nel parametro tools dichiari il nome del tool (name) coerente con il sub-node. L’agente deciderà quando invocarlo in base al prompt e al contesto.
Suggerimenti pro
- Parti con pochi tool ben scelti; evita di “armare” l’agente con strumenti inutili.
- Specifica nel systemMessage quando usare i tool e come formattare l’output per il parsing a valle.
- Se serve audit, abilita verbose e logga le chiamate ai tool (chi/quanto/spesso).
[IMG: Nodo AI Agent con sub-node “googleSearch” collegato e credenziali configurate]
Memoria, embeddings e knowledge base: contesto che scala
Embeddings e memoria vettoriale in n8n
- Nodo embeddings OpenAI: EmbeddingsOpenAi (modello tipico: text-embedding-ada-002).
- Pipeline: testo → EmbeddingsOpenAi → Vector Store (Pinecone/Weaviate) → ricerca semantica → passa i “top-k” documenti al modello/agent.
Esempio — generare embeddings
{
"name": "Text To Vector",
"type": "EmbeddingsOpenAi",
"parameters": {
"model": "text-embedding-ada-002",
"text": "={{ $json[\"content\"] }}"
},
"credentials": { "openAiApi": { "id": "OPENAI_CREDENTIAL_ID" } }
}
Memoria conversazionale
- Memory Buffer Window (memoryBufferWindow): mantiene uno “storico” recente per modelli conversazionali in n8n, alimentando risposte contestuali.
- Pattern: Chat/Agent → Memory Buffer Window → Agent/Model. Usa memory: true nel Tools Agent quando vuoi contesto persistente.
Linee guida pratiche
- Mantieni il contesto breve e rilevante: costi e latenza crescono con token superflui.
- Per RAG, concatena solo i passaggi pertinenti (top‑k) ed evidenzia nel prompt cosa può/ non può fare il modello.
[IMG: Flow RAG: Query → Embeddings → Vector Store Search → Compose Context → AI Agent/Model]
Chatbot e automazioni: template WhatsApp con Tools Agent
Obiettivo: rispondere su WhatsApp a domande prodotto/assistenza con un agente che può cercare info.
Step‑by‑step
1) Ingresso
- Aggiungi un trigger chat/HTTP per ricevere messaggi (dal tuo connettore WhatsApp, es. Twilio).
- Estrai testo, numero mittente e metadati.
2) AI Agent (Tools)
- Configura n8n-nodes-langchain.agent con agent=”tools”, model OpenAI e systemMessage che spiega quando usare strumenti (es. googleSearch) e formato atteso dell’output.
3) Memoria (opzionale)
- Inserisci Memory Buffer Window per mantenere contesto breve (ultime N interazioni).
4) Risposta e invio
- Parsa l’output e invia via Twilio (WhatsApp). Aggiungi fallback su template statici se l’agente non è confidente.
Esempio di configurazione agente (estratto)
{
"type": "n8n-nodes-langchain.agent",
"parameters": {
"agent": "tools",
"model": { "provider": "openai", "model": "gpt-4", "temperature": 0.7 },
"systemMessage": "Assistente WhatsApp. Rispondi in italiano, usa googleSearch solo se non sei sicuro. Output in JSON: {\"answer\": string}",
"memory": true,
"tools": [{ "name": "googleSearch", "input": "={{ $json.text }}" }]
}
}
Note operative
- Connetti il testo del messaggio in input a tools/input o direttamente al testo del modello a seconda del design.
- Prevedi limiti (maxTokens) e throttle se il volume cresce.
- Logga richieste/risposte per KPI (CSAT proxy: tempo/qualità risposta).
[IMG: Canvas: WhatsApp (Twilio) → Normalize → AI Agent (Tools) → Output Parser → Twilio Reply → Log]
Qualità, costi e performance: prompt, parser e guardrail
Prompt engineering pratico
- Struttura: ruolo (system), esempio di I/O, vincoli (lingua, lunghezza), schema d’uscita JSON.
- Per estrazioni e classificazioni, temperatura bassa (0–0.3) e campi obbligatori ben definiti.
Output parser in n8n
- Chiedi “Output JSON valido con campi X/Y/Z”; poi valida e fai parse.
- Se l’output può contenere testo extra, usa un Code node per isolare la sezione JSON e JSON.parse con try/catch e fallback.
Controllo costi e token nei workflow AI
- maxTokens adeguati, troncamento degli input, riuso di contesto essenziale.
- Caching di risposte ripetute (chiavi basate su prompt normalizzato).
- Batch dove possibile; monitora token per request e per giorno.
Latenza e rate limit con provider AI
- Usa retry con backoff su 429/5xx; implementa un piccolo “circuit breaker” per evitare tempeste di retry.
- Metriche: p50/p95 latenza, error rate, token totali, costo stimato.
Debug, osservabilità e alternative all’agente AI
Debug e monitoraggio dei workflow AI in n8n
- Log sintetico per ogni chiamata (prompt, modello, token, latenza, esito).
- Traccia le versioni dei prompt e dei modelli per confrontare la qualità nel tempo.
Alternative all’agente AI in n8n
- Quando serve controllo totale (determinismo, costi minimi), usa chiamate dirette al modello con n8n-nodes-langchain.lmChatOpenAi.
- Per pipeline di estrazione/arricchimento, valuta orchestrazione manuale con HTTP Request e funzioni custom, riducendo imprevedibilità.
Guardrail e sicurezza
- Minimizzazione dati sensibili; anonimizza PII prima di inviarla al modello.
- Regole di business in IF/Switch per bloccare risposte non conformi; fallback su messaggi sicuri.
[IMG: Dashboard con grafici su latenza, token, costi e tasso di errore per modello]
Quick Takeaways
- Parti dal nodo AI n8n “n8n-nodes-langchain.agent” in modalità Tools Agent (Default) solo se ti servono strumenti; altrimenti usa “ChatGPT” (n8n-nodes-langchain.lmChatOpenAi) per massima prevedibilità.
- Definisci prompt chiari e output JSON validabili; usa parser/Code per gestire formati instabili.
- Controlla costi con maxTokens, temperature basse per estrazioni e caching delle risposte ripetute.
- Per RAG, combina EmbeddingsOpenAi con un Vector Store (Pinecone/Weaviate) e un contesto breve e mirato.
- Progetta retry/backoff su 429/5xx e monitora p95 latenza, token e errori; aggiungi circuit breaker e fallback.
- Documenta input/output dei tuoi “blocchi AI” e versiona promt/modelli per migliorare con metodo.
Conclusione
Portare l’AI nei tuoi workflow con il nodo AI n8n è più semplice di quanto pensi se parti con basi solide: provider configurato, prompt chiari, output strutturati e metriche per migliorare. L’AI Agent (Tools) ti abilita agenti con strumenti quando servono ricerche e azioni, mentre le chiamate dirette ai modelli massimizzano controllo e prevedibilità nei casi di estrazione e classificazione. Con embeddings e memoria vettoriale in n8n puoi dare contesto ai modelli senza gonfiare i costi, e con guardrail, parser e fallback trasformi il “magico” in affidabile. Il prossimo passo? Scegli un caso reale (riassunto email, Q&A prodotto, arricchimento lead), costruisci un MVP con ChatGPT o Tools Agent, misura latenza/costi/accuratezza e itera. Così i marketer passano da esperimenti spot a automazioni AI stabili, misurabili e di reale impatto sul business.
FAQ
1) Qual è la differenza tra chiamata diretta al modello e AI Agent (Tools)?
La chiamata diretta (n8n-nodes-langchain.lmChatOpenAi) è ideale per compiti prevedibili (riassunti, estrazioni) con costi/latency sotto controllo. L’AI Agent di n8n e Tools Agent, invece, possono richiamare tool sub-nodes per cercare info o compiere azioni: più flessibilità, ma servono guardrail e parsing accurato.
2) Come imposto un output JSON affidabile?
Definisci lo schema nel prompt (campi obbligatori, formati). Usa un output parser in n8n (Code + JSON.parse con try/catch) e fallback. Per task critici, temperature basse e esempi di I/O nel prompt template.
3) Posso usare embeddings e una knowledge base?
Sì. Con EmbeddingsOpenAi generi vettori e li archivi in un Vector Store (Pinecone/Weaviate). In fase di domanda, cerchi i top‑k documenti e passi il contesto al modello: ottimo per Q&A su documentazione o contenuti interni.
4) Come controllo costi e latenza?
Imposta maxTokens, limita il contesto, applica caching per richieste ripetute e monitora token e tempi (p95). Su 429/5xx usa retry con backoff e un circuito di fallback.
5) Posso creare un bot WhatsApp con un agente?
Sì. Collega il tuo ingresso (es. Twilio WhatsApp) a un AI Agent (Tools) o a ChatGPT, aggiungi eventualmente Memory Buffer Window, parsa l’output e rispondi via Twilio. Logga conversazioni e metriche per tuning e QA.
Ci dai una mano?
Qual è il primo caso d’uso che proverai: riassunto email automatico, Q&A prodotto o arricchimento lead? Condividi la tua scelta e questo articolo con il team: confrontiamo risultati e costruiamo insieme automazioni AI che fanno davvero la differenza!

