Vuoi portare AI dentro i tuoi workflow senza scrivere infrastrutture complesse? Con il nodo AI n8n puoi creare assistenti interni, riassumere email e documenti, estrarre dati strutturati, arricchire CRM e orchestrare automazioni multicanale. In questa guida pratica vedrai come impostare i nodi di intelligenza artificiale in n8n: dal collegamento dei modelli (OpenAI) al montaggio di agenti con strumenti (Tools Agent), fino a embeddings e memoria vettoriale per contesti più “smart”. Troverai configurazioni esatte di nodo, prompt template e output parser in n8n, consigli di controllo costi e token nei workflow AI, gestione di latenza e rate limit con provider AI, oltre a debug e monitoraggio dei workflow AI in n8n. Partiremo con le basi per poi mostrare un template chatbot (WhatsApp) e alternative all’agente AI quando serve più controllo. Obiettivo: un percorso chiaro e ripetibile, perfetto per marketer che vogliono risultati rapidi senza sacrificare qualità, governance e privacy.

[IMG: Panoramica workflow AI: Trigger → Normalizza → AI Agent (Tools) → Parser → Slack/WhatsApp → Log]


Requisiti e versioni: cosa ti serve prima di iniziare

Per usare i nodi AI in n8n ti servono:

  • Un ambiente n8n (cloud o self‑hosted) e credenziali dei provider modello (es. OpenAI) inserite in “Credentials”.
  • Dati di test realistici: email, ticket, messaggi o documenti su cui misurare qualità e tempi di risposta.
  • Policy di sicurezza: variabili d’ambiente per chiavi API, regole di minimizzazione dati, retention dei log.

Aggiornamenti rilevanti per i nodi AI

  • L’AI Agent di n8n (node type: n8n-nodes-langchain.agent) supporta modalità agente diverse; tra queste il Tools Agent è presentato come Default nella configurazione agent-based. Questo profilo è pensato per “agenti con strumenti” (web search, calcolatrici, chiamate API) e rappresenta un buon punto di partenza per agenti operativi.

Che differenza c’è tra “chiamata diretta al modello” e “agente con strumenti”?

  • Chiamata diretta (nodo modello): massima prevedibilità e costi sotto controllo; ottimo per riassunti, classificazioni, estrazioni con output JSON.
  • Agente (Tools Agent): decide quando e come usare tool sub-nodes per cercare info o compiere azioni. Ideale per assistenti che devono consultare risorse esterne, ma richiede più attenzione a guardrail e parsing dell’output.

Best practice iniziali

  • Definisci limiti di costo/quote e regole di sampling (temperature) prima di aprire ai team.
  • Prepara prompt “system” chiari e schemi di output validabili.
  • Attiva un log sintetico (richiesta/risposta, tempi, token) per audit e tuning.

Configurare i provider modello: OpenAI e alternative

OpenAI (Chat) — nodo e parametri esatti

  • Display name: ChatGPT
  • Node type: n8n-nodes-langchain.lmChatOpenAi
  • Parametri tipici:
  • model: “gpt-3.5-turbo” (o GPT‑4, a seconda dell’account)
  • temperature: 0.7
  • maxTokens: 500
  • systemPrompt: “You are a helpful assistant.”
  • userPrompt: testo dinamico (es. ={{ $json.text }})
  • Esempio di configurazione
{
  "name": "ChatGPT",
  "type": "n8n-nodes-langchain.lmChatOpenAi",
  "parameters": {
    "model": "gpt-3.5-turbo",
    "temperature": 0.7,
    "maxTokens": 500,
    "systemPrompt": "You are a helpful assistant.",
    "userPrompt": "Hello! How can I automate tasks with n8n?"
  },
  "credentials": {
    "openAiApi": { "id": "OPENAI_CREDENTIAL_ID" }
  }
}

Alternative e interoperabilità

  • Anthropic Claude su n8n e Google Gemini in workflow n8n: se non disponi di un nodo dedicato nella tua versione, puoi comunque orchestrare via HTTP Request (API dirette), mantenendo la stessa disciplina di prompt template e output parser in n8n.
  • Suggerimento operativo: quando usi provider multipli, astrarre i parametri in Set/Code per switchare modello senza cambiare la logica a valle.

Sicurezza, costi e limiti

  • Conserva chiavi in credenziali/variabili d’ambiente; non inserirle hardcoded nei nodi.
  • Imposta maxTokens adeguato e temperature più basse per task deterministici (estrazioni/dati strutturati).
  • Rispetta rate limit; prevedi retry con backoff e circuit breaker leggero per fallback (risposta cache o template statico).

[IMG: Credenziali OpenAI in n8n con variabili d’ambiente e mascheramento attivo]


AI Agent e Tools sub-nodes: il Tools Agent (Default) passo‑passo

Nodo agente

  • Node type: n8n-nodes-langchain.agent
  • Modalità: “Tools Agent (Default)” per agenti che usano strumenti.
  • Parametri chiave: agent, model, systemMessage, memory, verbose, tools.

Esempio minimo (Tools Agent) con OpenAI

{
  "name": "AI Agent (Tools)",
  "type": "n8n-nodes-langchain.agent",
  "parameters": {
    "agent": "tools",
    "model": {
      "provider": "openai",
      "model": "gpt-4",
      "temperature": 0.7
    },
    "systemMessage": "You are a helpful assistant that uses tools to find information and accomplish tasks.",
    "memory": true,
    "verbose": true,
    "tools": [
      { "name": "googleSearch", "input": "What is n8n?" }
    ]
  }
}

Aggiungere tool sub-nodes

  • Collega al nodo agente i tool necessari (es. un “googleSearch” tool node) e configura le credenziali (API key).
  • Nel parametro tools dichiari il nome del tool (name) coerente con il sub-node. L’agente deciderà quando invocarlo in base al prompt e al contesto.

Suggerimenti pro

  • Parti con pochi tool ben scelti; evita di “armare” l’agente con strumenti inutili.
  • Specifica nel systemMessage quando usare i tool e come formattare l’output per il parsing a valle.
  • Se serve audit, abilita verbose e logga le chiamate ai tool (chi/quanto/spesso).

[IMG: Nodo AI Agent con sub-node “googleSearch” collegato e credenziali configurate]


Memoria, embeddings e knowledge base: contesto che scala

Embeddings e memoria vettoriale in n8n

  • Nodo embeddings OpenAI: EmbeddingsOpenAi (modello tipico: text-embedding-ada-002).
  • Pipeline: testo → EmbeddingsOpenAi → Vector Store (Pinecone/Weaviate) → ricerca semantica → passa i “top-k” documenti al modello/agent.

Esempio — generare embeddings

{
  "name": "Text To Vector",
  "type": "EmbeddingsOpenAi",
  "parameters": {
    "model": "text-embedding-ada-002",
    "text": "={{ $json[\"content\"] }}"
  },
  "credentials": { "openAiApi": { "id": "OPENAI_CREDENTIAL_ID" } }
}

Memoria conversazionale

  • Memory Buffer Window (memoryBufferWindow): mantiene uno “storico” recente per modelli conversazionali in n8n, alimentando risposte contestuali.
  • Pattern: Chat/Agent → Memory Buffer Window → Agent/Model. Usa memory: true nel Tools Agent quando vuoi contesto persistente.

Linee guida pratiche

  • Mantieni il contesto breve e rilevante: costi e latenza crescono con token superflui.
  • Per RAG, concatena solo i passaggi pertinenti (top‑k) ed evidenzia nel prompt cosa può/ non può fare il modello.

[IMG: Flow RAG: Query → Embeddings → Vector Store Search → Compose Context → AI Agent/Model]


Chatbot e automazioni: template WhatsApp con Tools Agent

Obiettivo: rispondere su WhatsApp a domande prodotto/assistenza con un agente che può cercare info.

Step‑by‑step
1) Ingresso

  • Aggiungi un trigger chat/HTTP per ricevere messaggi (dal tuo connettore WhatsApp, es. Twilio).
  • Estrai testo, numero mittente e metadati.

2) AI Agent (Tools)

  • Configura n8n-nodes-langchain.agent con agent=”tools”, model OpenAI e systemMessage che spiega quando usare strumenti (es. googleSearch) e formato atteso dell’output.

3) Memoria (opzionale)

  • Inserisci Memory Buffer Window per mantenere contesto breve (ultime N interazioni).

4) Risposta e invio

  • Parsa l’output e invia via Twilio (WhatsApp). Aggiungi fallback su template statici se l’agente non è confidente.

Esempio di configurazione agente (estratto)

{
  "type": "n8n-nodes-langchain.agent",
  "parameters": {
    "agent": "tools",
    "model": { "provider": "openai", "model": "gpt-4", "temperature": 0.7 },
    "systemMessage": "Assistente WhatsApp. Rispondi in italiano, usa googleSearch solo se non sei sicuro. Output in JSON: {\"answer\": string}",
    "memory": true,
    "tools": [{ "name": "googleSearch", "input": "={{ $json.text }}" }]
  }
}

Note operative

  • Connetti il testo del messaggio in input a tools/input o direttamente al testo del modello a seconda del design.
  • Prevedi limiti (maxTokens) e throttle se il volume cresce.
  • Logga richieste/risposte per KPI (CSAT proxy: tempo/qualità risposta).

[IMG: Canvas: WhatsApp (Twilio) → Normalize → AI Agent (Tools) → Output Parser → Twilio Reply → Log]


Qualità, costi e performance: prompt, parser e guardrail

Prompt engineering pratico

  • Struttura: ruolo (system), esempio di I/O, vincoli (lingua, lunghezza), schema d’uscita JSON.
  • Per estrazioni e classificazioni, temperatura bassa (0–0.3) e campi obbligatori ben definiti.

Output parser in n8n

  • Chiedi “Output JSON valido con campi X/Y/Z”; poi valida e fai parse.
  • Se l’output può contenere testo extra, usa un Code node per isolare la sezione JSON e JSON.parse con try/catch e fallback.

Controllo costi e token nei workflow AI

  • maxTokens adeguati, troncamento degli input, riuso di contesto essenziale.
  • Caching di risposte ripetute (chiavi basate su prompt normalizzato).
  • Batch dove possibile; monitora token per request e per giorno.

Latenza e rate limit con provider AI

  • Usa retry con backoff su 429/5xx; implementa un piccolo “circuit breaker” per evitare tempeste di retry.
  • Metriche: p50/p95 latenza, error rate, token totali, costo stimato.

Debug, osservabilità e alternative all’agente AI

Debug e monitoraggio dei workflow AI in n8n

  • Log sintetico per ogni chiamata (prompt, modello, token, latenza, esito).
  • Traccia le versioni dei prompt e dei modelli per confrontare la qualità nel tempo.

Alternative all’agente AI in n8n

  • Quando serve controllo totale (determinismo, costi minimi), usa chiamate dirette al modello con n8n-nodes-langchain.lmChatOpenAi.
  • Per pipeline di estrazione/arricchimento, valuta orchestrazione manuale con HTTP Request e funzioni custom, riducendo imprevedibilità.

Guardrail e sicurezza

  • Minimizzazione dati sensibili; anonimizza PII prima di inviarla al modello.
  • Regole di business in IF/Switch per bloccare risposte non conformi; fallback su messaggi sicuri.

[IMG: Dashboard con grafici su latenza, token, costi e tasso di errore per modello]


Quick Takeaways

  • Parti dal nodo AI n8n “n8n-nodes-langchain.agent” in modalità Tools Agent (Default) solo se ti servono strumenti; altrimenti usa “ChatGPT” (n8n-nodes-langchain.lmChatOpenAi) per massima prevedibilità.
  • Definisci prompt chiari e output JSON validabili; usa parser/Code per gestire formati instabili.
  • Controlla costi con maxTokens, temperature basse per estrazioni e caching delle risposte ripetute.
  • Per RAG, combina EmbeddingsOpenAi con un Vector Store (Pinecone/Weaviate) e un contesto breve e mirato.
  • Progetta retry/backoff su 429/5xx e monitora p95 latenza, token e errori; aggiungi circuit breaker e fallback.
  • Documenta input/output dei tuoi “blocchi AI” e versiona promt/modelli per migliorare con metodo.

Conclusione

Portare l’AI nei tuoi workflow con il nodo AI n8n è più semplice di quanto pensi se parti con basi solide: provider configurato, prompt chiari, output strutturati e metriche per migliorare. L’AI Agent (Tools) ti abilita agenti con strumenti quando servono ricerche e azioni, mentre le chiamate dirette ai modelli massimizzano controllo e prevedibilità nei casi di estrazione e classificazione. Con embeddings e memoria vettoriale in n8n puoi dare contesto ai modelli senza gonfiare i costi, e con guardrail, parser e fallback trasformi il “magico” in affidabile. Il prossimo passo? Scegli un caso reale (riassunto email, Q&A prodotto, arricchimento lead), costruisci un MVP con ChatGPT o Tools Agent, misura latenza/costi/accuratezza e itera. Così i marketer passano da esperimenti spot a automazioni AI stabili, misurabili e di reale impatto sul business.


FAQ

1) Qual è la differenza tra chiamata diretta al modello e AI Agent (Tools)?
La chiamata diretta (n8n-nodes-langchain.lmChatOpenAi) è ideale per compiti prevedibili (riassunti, estrazioni) con costi/latency sotto controllo. L’AI Agent di n8n e Tools Agent, invece, possono richiamare tool sub-nodes per cercare info o compiere azioni: più flessibilità, ma servono guardrail e parsing accurato.

2) Come imposto un output JSON affidabile?
Definisci lo schema nel prompt (campi obbligatori, formati). Usa un output parser in n8n (Code + JSON.parse con try/catch) e fallback. Per task critici, temperature basse e esempi di I/O nel prompt template.

3) Posso usare embeddings e una knowledge base?
Sì. Con EmbeddingsOpenAi generi vettori e li archivi in un Vector Store (Pinecone/Weaviate). In fase di domanda, cerchi i top‑k documenti e passi il contesto al modello: ottimo per Q&A su documentazione o contenuti interni.

4) Come controllo costi e latenza?
Imposta maxTokens, limita il contesto, applica caching per richieste ripetute e monitora token e tempi (p95). Su 429/5xx usa retry con backoff e un circuito di fallback.

5) Posso creare un bot WhatsApp con un agente?
Sì. Collega il tuo ingresso (es. Twilio WhatsApp) a un AI Agent (Tools) o a ChatGPT, aggiungi eventualmente Memory Buffer Window, parsa l’output e rispondi via Twilio. Logga conversazioni e metriche per tuning e QA.


Ci dai una mano?

Qual è il primo caso d’uso che proverai: riassunto email automatico, Q&A prodotto o arricchimento lead? Condividi la tua scelta e questo articolo con il team: confrontiamo risultati e costruiamo insieme automazioni AI che fanno davvero la differenza!