Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

La plupart des systèmes d'IA font la même erreur.

Ils interrogent d'abord le modèle de langage et espèrent que la réponse sera correcte.

La nature a résolu ce problème il y a des millions d'années.

Dans la ruche, une découverte ne devient pas une décision simplement parce qu’un seul individu l’affirme. Une éclaireuse revient à la ruche et exécute une danse en huit sur la surface verticale du rayon — l’angle de la partie rectiligne indique la direction, la durée indique la distance et la vigueur indique la qualité. Mais la danse n’est pas un monologue. Les sœurs les plus expérimentées suivent la danseuse, la touchent avec leurs antennes et donnent un retour en temps réel. Un signal d’arrêt peut interrompre complètement la danse. Ce n’est que lorsque le message résiste à l’examen collectif qu’un itinéraire digne d’être suivi émerge.

WaggleDance repose sur cette même logique.

Il n’envoie pas le problème directement à un LLM. Il l’achemine d’abord vers le bon solver, vérifie le résultat avec plusieurs agents et n’utilise le modèle de langage que lorsqu’il aide réellement. Chaque étape laisse une trace auditable. Chaque solution est justifiable. Chaque cycle renforce l’expertise propre du système.

La danse en huit est devenue un routage algorithmique. Le rayon est devenu l’architecture mémoire MAGMA. Et le repos nocturne des abeilles est devenu Dream Mode — une simulation dans laquelle le système examine les échecs de la journée, teste des milliers de chemins alternatifs et revient le matin plus sage.

Ce n'est pas une métaphore. C'est l'architecture de l'intelligence machine collective.

Clone & Run

Téléchargez, forkez et exécutez localement dès maintenant. Le dépôt complet est disponible sur GitHub sans inscription.

Modèle de licence : Apache 2.0 + BUSL 1.1 (code ouvert + modules protégés disponibles avec source). Consultez les conditions sur GitHub.
Date de conversion du module BUSL : 18 mars 2030.

v3.5.7 Dernière version 2026-04-12
445+ Commits
5 581 Pytest complet (v3.5.7)
4 Profils de déploiement

Pourquoi c'est différent

IA qui ne devine pas

Solver d'abord. Le vérificateur contrôle. Le LLM n'intervient que si aucun solver adéquat n'existe.

IA qui se souvient de tout

MAGMA enregistre les décisions, les sources, les rejeux et les scores de confiance. Voyez ce qui s'est passé, pourquoi et dans quel ordre.

IA qui apprend la nuit

Dream Mode examine les échecs, simule de meilleurs chemins et construit de meilleurs modèles pour le lendemain.

IA qui montre son état

Hologram Brain affiche l’état de 32 nœuds en temps réel. Vous ne regardez pas une boîte noire — vous regardez un système en fonctionnement.

IA qui fonctionne sur votre réseau

Tout fonctionne dans votre environnement. Pas de cloud obligatoire, pas de fuite de données de prompts, pas de dépendance SaaS.

IA qui passe à l'échelle

Une même base de code fonctionne du Raspberry Pi au profil usine. Ce n’est pas seulement une démo, ni seulement un framework.

Profils de déploiement — un runtime, quatre profils

Appareil GADGET

RPi, edge, capteurs

Chalet COTTAGE

Hors ligne, connexion intermittente

Maison HOME

Automatisation locale

Usine FACTORY

Surveillance, anomalies, audit

Dashboard et Hologram Brain disponibles immédiatement après le démarrage. La vitesse de la première réponse dépend du profil, du matériel et du mode complet/stub.

Que se passe-t-il quand vous cliquez sur “Analyser le dépôt” ?

1

Le prompt est envoyé directement à Grok — et copié dans le presse-papiers en sauvegarde

2

Grok s'ouvre dans un nouvel onglet avec le prompt préparé

3

Vous obtenez une analyse complète, une comparaison avec les concurrents notée et une évaluation de préparation usine

Si le pré-remplissage ne fonctionne pas, collez manuellement — le prompt est déjà dans le presse-papiers.

Vous pouvez utiliser le même prompt dans Claude, ChatGPT ou tout autre LLM. Grok est le choix par défaut sur cette page.

Ce que Grok analyse

Quand vous cliquez sur “Analyser le dépôt”, l'IA effectue une analyse approfondie :

1
État actuel du code

Branche principale, architecture, modules et commits les plus récents

2
README vs Réalité

Ce qui est implémenté vs ce qui est planifié ou simplement envisagé

3
Tests et maturité

Couverture des tests, maturité pratique et préparation à la production

4
Hologram Brain et MAGMA

Modèle mémoire, architecture d’audit, provenance et mécanismes de confiance

5
Comparaison avec les concurrents

Score 1-10 sur six axes : Maison Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Évaluation de déploiement usine

Usage industriel, risques, intégration SCADA/OPC, obstacles de déploiement

Prompts de suivi pour Grok

Cliquez sur un prompt pour le copier. Collez dans la session Grok pour une recherche approfondie.

Comment connecter WaggleDance ?

Choisissez un profil et obtenez un guide de déploiement personnalisé de Grok.

Comparaison de WaggleDance

Chaque outil ci-dessous est bon dans son domaine. La comparaison vise à montrer la différence de l'architecture solver-d'abord de WaggleDance — pas à dénigrer les autres.

vs. Maison Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Routage solver-d'abord (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Déploiement — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceMaison AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Questions fréquentes

WaggleDance Swarm AI est-il gratuit ?

Oui. Téléchargez et exécutez immédiatement. La partie Apache 2.0 est libre d'utilisation. Pour un usage commercial, consultez la licence sur GitHub.

Internet est-il nécessaire ?

Non. WaggleDance est conçu pour fonctionner entièrement hors ligne.

Quel matériel est nécessaire ?

Minimum : Raspberry Pi 4 (GADGET). Recommandé : serveur x86 (FACTORY).

Pourquoi Grok ?

Un deuxième avis technique rapide sur un dépôt public. Vous pouvez utiliser le même prompt dans Claude, ChatGPT ou tout autre LLM.

Qu'est-ce que MAGMA ?

Framework d'audit et de provenance. Chaque décision est enregistrée.

Qu'est-ce que Dream Mode ?

Mode d'apprentissage nocturne qui apprend des échecs et construit de meilleurs modèles — automatiquement.

Que se passe-t-il après le premier démarrage ?

Dashboard et Hologram Brain disponibles immédiatement. La vitesse dépend du profil et du matériel.

Media