Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

La mayoría de los sistemas de IA cometen el mismo error.

Primero consultan al modelo de lenguaje y esperan que la respuesta sea correcta.

La naturaleza resolvió este problema hace millones de años.

En la colmena, un descubrimiento no se convierte en decisión porque alguien lo diga. Una exploradora regresa a la colmena y baila en forma de 8 sobre la superficie vertical del panal — el ángulo de la sección recta indica la dirección, la duración indica la distancia, la intensidad indica la calidad. Pero el baile no es un monólogo. Las hermanas más experimentadas siguen a la bailarina, la tocan con sus antenas y proporcionan retroalimentación en tiempo real. Una señal de parada puede detener el baile por completo. Solo cuando el mensaje sobrevive al escrutinio comunitario surge una ruta que merece seguirse.

WaggleDance se basa en esta misma lógica.

No envía el problema directamente al LLM. Primero enruta al solver correcto, verifica los resultados con múltiples agentes, y utiliza el modelo de lenguaje solo cuando realmente ayuda. Cada paso deja un registro auditable. Cada solución está justificada con argumentos. Cada ciclo aumenta la experiencia del sistema.

La danza en forma de 8 se convirtió en enrutamiento algorítmico. El panal se convirtió en la arquitectura de memoria MAGMA. Y el descanso nocturno de las abejas se convirtió en Dream Mode — una simulación en la que el sistema revisa los fracasos del día, prueba miles de rutas alternativas y amanece más inteligente.

Esto no es una metáfora. Es la arquitectura de inteligencia de máquina colectiva.

Clone & Run

Descargue, haga fork y ejecute localmente ahora. El repositorio completo está disponible en GitHub sin registro.

Modelo de licencia: Apache 2.0 + BUSL 1.1 (código abierto + módulos protegidos disponibles con fuente). Consulte los términos en GitHub.
Fecha de conversión del módulo BUSL: 18 de marzo de 2030.

v3.5.7 Última versión 2026-04-12
445+ Commits
5 581 Pytest completo (v3.5.7)
4 Perfiles de despliegue

Por qué es diferente

IA que no adivina

Solver primero. El verificador comprueba. El LLM solo entra cuando el solver adecuado no es suficiente.

IA que recuerda todo

MAGMA registra decisiones, fuentes, reproducciones y puntuaciones de confianza. Vea qué pasó, por qué y en qué orden.

IA que aprende por la noche

Dream Mode revisa los fracasos, simula mejores caminos y construye mejores modelos para el día siguiente.

IA que muestra su estado

Hologram Brain muestra el estado de 32 nodos en tiempo real. No verá cajas negras — verá un sistema trabajando.

IA que funciona en su red

Todo funciona en su entorno. Sin nube obligatoria, sin filtraciones de datos de prompts, sin dependencia SaaS.

IA que escala

Un mismo código desde Raspberry Pi hasta perfil de fábrica. No solo demo, no solo framework.

Perfiles de despliegue — un runtime, cuatro perfiles

Dispositivo GADGET

RPi, edge, sensores

Cabaña COTTAGE

Offline, conexión intermitente

Hogar HOME

Automatización local

Fábrica FACTORY

Monitoreo, anomalías, auditoría

Dashboard y Hologram Brain están disponibles inmediatamente después del arranque. La velocidad de la primera respuesta depende del perfil, el hardware y de si se usa el modo completo o el modo stub.

¿Qué pasa cuando hace clic en “Analizar el repositorio”?

1

El prompt se envía directamente a Grok — y se copia al portapapeles como respaldo

2

Grok se abre en una nueva pestaña con el prompt preparado

3

Obtiene un análisis completo del repositorio, una comparación puntuada con competidores y una evaluación de preparación para fábrica

Si el pre-llenado no funciona, pegue manualmente — el prompt ya está en el portapapeles.

Puede usar el mismo prompt en Claude, ChatGPT o cualquier otro LLM. Grok es la opción predeterminada en esta página.

Qué analiza Grok

Cuando hace clic en “Analizar el repositorio”, la IA realiza un análisis profundo:

1
Estado actual del código

Rama principal, arquitectura, módulos y commits más recientes

2
README vs Realidad

Qué está implementado vs qué es aspiracional o planificado

3
Pruebas y madurez

Cobertura de pruebas, madurez práctica y preparación para producción

4
Hologram Brain y MAGMA

Modelo de memoria, arquitectura de auditoría, trazabilidad y mecanismos de confianza

5
Comparación con competidores

Puntuación 1-10 en seis ejes: Hogar Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Evaluación de despliegue en fábrica

Uso industrial, riesgos, integración con SCADA/OPC, obstáculos de despliegue

Prompts de seguimiento para Grok

Haga clic en un prompt para copiarlo. Pegue en la sesión de Grok para investigación profunda.

¿Cómo conectar WaggleDance?

Elija un perfil y obtenga una guía de despliegue personalizada de Grok.

Comparación de WaggleDance

Cada herramienta de abajo es buena en lo suyo. La comparación es para mostrar la diferencia de la arquitectura solver-primero de WaggleDance — no para desprestigiar a otros.

vs. Hogar Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Enrutamiento solver-primero (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Despliegue — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceHogar AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Preguntas frecuentes

¿Es gratuito WaggleDance Swarm AI?

Sí. Descargue y ejecute inmediatamente. La parte Apache 2.0 es de uso libre. Para uso comercial, consulte la licencia en GitHub.

¿Se necesita Internet?

No. WaggleDance está diseñado para funcionar completamente offline.

¿Qué hardware se necesita?

Mínimo: Raspberry Pi 4 (GADGET). Recomendado: servidor x86 (FACTORY).

¿Por qué Grok?

Una segunda opinión técnica rápida sobre un repositorio público. Puede usar el mismo prompt en Claude, ChatGPT o cualquier LLM.

¿Qué es MAGMA?

Framework de auditoría y trazabilidad. Cada decisión queda registrada.

¿Qué es Dream Mode?

Modo de aprendizaje nocturno que aprende de los fracasos y construye mejores modelos — automático.

¿Qué hay después del primer arranque?

Dashboard y Hologram Brain disponibles inmediatamente. La velocidad depende del perfil y hardware.

Media