- Agents IA
- Posts
- Infrastructure IA V2, local et open-source
Infrastructure IA V2, local et open-source
On vend le déploiement de la stack pour +1500 euros.
Bonjour, c’est Quentin Gavila de growthsystemes,
Nous avons sorti la V2 de l’infrastructure IA, déployable en 30 minutes avec docker compose.
Pourquoi installer une stack en local (soit sur ta machine, soit sur tes serveurs) ?
Réduction drastique des coûts d’API et de serveurs clouds.
Contrôle des données : toutes vos bases (PostgreSQL, pgvector, Qdrant, Baserow) vivent sur votre serveur ; aucune fuite vers un cloud tiers.
Déploiement express : de 0 à production en ≈ 12 minutes grâce à un simple
python start_services.py
(clone Supabase, build, up).
Les composants de la nouvelle stack :
n8n + markitdonw — plateforme low-code offrant >400 intégrations et le parsing de documents (PDF, DOCX, vidéo…) directement exploitable par les LLM.
Baserow — base de données no-code type Airtable, connectée au même Postgres, idéale pour gérer prompts ou jeux de données structurés.
Qdrant — vector-store haute performance optimisé pour la recherche sémantique et les scénarios RAG à grande échelle.
Caddy v2 — reverse-proxy qui obtient/renouvelle automatiquement les certificats TLS Let’s Encrypt et route chaque sous-domaine vers le bon conteneur.
Ollama — serveur local qui télécharge, met en cache et sert des LLMs (ex. Mistral-small) afin de réduire les coûts d’inférence et d’éviter la latence cloud.
Python (start_services.py) — script d’automatisation qui clone Supabase, prépare l’environnement, gère les profils CPU/GPU et lance l’ensemble des conteneurs.
Avec ça, on peut déjà résoudre +90% des problématiques d’entreprises autour des agents, et des automatisations !
Vidéo Youtube de Démo :
Github de la stack dispo dans l’Académie IA :
happy coding,
Quentin