FAQ su Dify Hosting
Risposte alle domande più comuni sul self-hosting di Dify — requisiti hardware, configurazione Docker, opzioni di hosting gratuito, supporto GPU e altro.
Dify richiede come minimo 2 vCPU, 4GB RAM e 50GB di storage SSD. Consigliamo 4 vCPU e 8GB RAM per un utilizzo confortevole. Il setup Docker Compose predefinito esegue oltre 10 container tra cui Nginx, server API, worker, PostgreSQL, Redis e il database vettoriale Weaviate.
Sì, parzialmente. Railway offre $5 di credito gratuito al mese che può eseguire una piccola istanza Dify. Render ha un livello gratuito ma si spegne dopo l'inattività e ha solo 512MB RAM (troppo poco). Per un hosting gratuito affidabile, l'opzione a pagamento più economica è Hetzner a €3.79/mo.
Dify Cloud gestisce tutta l'infrastruttura per te — ti basta iscriverti e iniziare a usarlo. Il self-hosting ti dà pieno controllo, nessun limite di messaggi e privacy dei dati, ma richiede una configurazione tecnica. Dal punto di vista dei costi, il self-hosting è molto più economico per gli utenti attivi: €5.59/mo su Hetzner vs $59/mo per Dify Cloud Pro.
Dify stesso non richiede una GPU — chiama le API LLM (OpenAI, Anthropic, ecc.) da remoto. Tuttavia, se vuoi eseguire modelli locali senza costi API, puoi installare Ollama su un server GPU e collegarlo a Dify. Dify supporta nativamente Ollama come provider di modelli.
Su un VPS nuovo, aspettati 30–60 minuti per la configurazione iniziale: 10 min configurazione server, 5 min installazione Docker, 5 min clone e configurazione Dify, 10 min primo avvio (download immagini), 10 min configurazione SSL. Dopo la prima installazione, gli aggiornamenti richiedono meno di 5 minuti.
Sì — quando è self-hosted, tutti i dati rimangono sul tuo server. Nessun dato viene inviato ai server di Dify ad eccezione della telemetria (che può essere disabilitata). Usa Hetzner (Germania/Finlandia) per la piena residenza dei dati nell'UE. Controlli tutti i dati e puoi configurare Dify per utilizzare solo provider LLM con sede nell'UE.
Sì. Installa Ollama sullo stesso server o su un server GPU separato, poi configura Dify per usare Ollama come provider di modelli. Modelli locali popolari: Llama 3.1 8B (uso generale), Mistral 7B (veloce), CodeLlama 13B (coding). Avrai bisogno di un server GPU per prestazioni accettabili su modelli più grandi di 7B parametri.
Entra nella directory dify/docker, esegui: git pull && docker compose pull && docker compose up -d. Dify usa aggiornamenti progressivi con migrazioni del database gestite automaticamente. Esegui sempre il backup del tuo database PostgreSQL prima degli aggiornamenti di versione principale.
Dify supporta oltre 50 provider di modelli tra cui OpenAI, Anthropic (Claude), Google Gemini, Mistral, Cohere, Azure OpenAI, AWS Bedrock, Hugging Face, Replicate, Together AI e modelli locali tramite Ollama, LocalAI e LM Studio.
Costo del server: €5.59/mo (Hetzner CX32) gestisce 10 utenti concorrenti comodamente. I costi API LLM dipendono dall'utilizzo — un utente tipico che invia 50 messaggi al giorno con GPT-4o-mini costa circa $0.10/giorno per utente. Per 10 utenti: ~$30/mo server + costi API. Totale: $35–50/mo vs $59–159/mo su Dify Cloud.
Dify funziona tramite Docker, quindi tecnicamente sì con Docker Desktop per Windows. Tuttavia, le limitazioni di WSL2 e l'overhead di Docker Desktop rendono l'hosting su Windows impraticabile per la produzione. Usa sempre un VPS Linux (Ubuntu 22.04 consigliato) per i deployment Dify in produzione.
Il core di Dify è open-source con licenza Apache 2.0. Alcune funzionalità enterprise (SSO, audit log, permessi avanzati) richiedono la Enterprise Edition con una licenza commerciale. Per la maggior parte degli utenti che fanno self-hosting, la versione open-source è completa di funzionalità e completamente gratuita.
Hai ancora domande?
Consulta le nostre guide dettagliate o contattaci direttamente. Di solito rispondiamo entro 24 ore.