Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

La maggior parte dei sistemi AI commette lo stesso errore.

Inviano il problema direttamente al modello linguistico e sperano che la risposta sia giusta.

La natura ha risolto questo problema milioni di anni fa.

In un alveare, una scoperta non diventa una decisione perché un'ape decide da sola. L'ape esploratrice torna all'alveare e danza un otto sul favo verticale — l'angolo indica la direzione, la lunghezza la distanza, il vigore la qualità. Ma la danza non è un monologo. Le api sorelle seguono la danzatrice, la toccano con le antenne e forniscono feedback in tempo reale. I segnali di stop possono interrompere completamente la danza. Solo quando il messaggio supera il controllo sociale il percorso merita di essere percorso.

WaggleDance è costruito su questa logica.

Non consegna il problema direttamente a un LLM. Lo instrada prima al solutore giusto, convalida il risultato attraverso più agenti e usa i modelli linguistici solo quando aiutano davvero. Ogni passo lascia una traccia verificabile. Ogni soluzione è controllabile. Ogni ciclo accresce la conoscenza del sistema.

La danza dell'otto è diventata instradamento algoritmico. Il favo è diventato la struttura di memoria MAGMA. E il riposo notturno delle api è diventato Dream Mode — una simulazione in cui il sistema rivede i fallimenti del giorno, testa migliaia di percorsi alternativi e si sveglia più intelligente.

Non è una metafora. È l'ingegneria dell'intelligenza collettiva.

Clone & Run

Scarica, fork e avvia in locale subito. L'intero repo è disponibile su GitHub senza registrazione.

Licenza: Apache 2.0 + BUSL 1.1 (open core + moduli protetti). Vedi i termini su GitHub.
Data di cambio BUSL: 18 marzo 2030.

v3.5.7 Ultima versione 2026-04-12
445+ Commit
5 581 Test pytest completi (v3.5.7)
4 Profili di distribuzione

Perché è diverso

L'AI non indovina

I solutori vanno prima. Il validatore controlla. L'LLM interviene solo quando il solutore giusto non basta.

L'AI ricorda tutto

MAGMA registra decisioni, fonti, replay e punteggi di fiducia. Vedi cosa è successo, perché e in quale ordine.

L'AI impara di notte

Dream Mode rivede i fallimenti, simula percorsi migliori e costruisce modelli più efficaci per il giorno successivo.

L'AI mostra il suo stato

Hologram Brain rende visibile lo stato di 32 nodi in tempo reale. Non vedi una scatola nera — vedi un sistema attivo.

L'AI gira sulla tua rete

Tutto funziona nel tuo ambiente. Nessun cloud obbligatorio, nessun dato dei prompt in uscita, nessuna dipendenza SaaS.

L’AI che scala

Lo stesso codice funziona dal Raspberry Pi al profilo factory. Non solo demo, non solo framework.

Profili di distribuzione — stesso runtime, quattro profili

Gadget GADGET

RPi, edge, sensore

Cottage COTTAGE

Offline, connettività discontinua

Casa HOME

Automazione domestica

Fabbrica FACTORY

Monitoraggio, anomalie, revisione

Dashboard e Hologram Brain disponibili subito dopo l'avvio. La velocità della prima risposta dipende dal profilo, dall'hardware e dalla modalità (completa o stub).

Cosa succede quando clicchi “Analizza il repo”?

1

Il prompt viene inviato direttamente a Grok — e copiato negli appunti come backup

2

Grok si apre in una nuova scheda con il prompt già pronto

3

Ricevi un'analisi approfondita del repo, un confronto con i concorrenti e una valutazione per uso industriale

Se la pre-compilazione non funziona, incolla manualmente — il prompt è già negli appunti.

Puoi usare lo stesso prompt anche con Claude, ChatGPT o qualsiasi altro LLM. Grok è il predefinito su questa pagina.

Cosa analizza Grok

Quando clicchi “Analizza il repo”, il sistema esegue un'analisi approfondita:

1
Stato attuale del codice

Branch principale, struttura, moduli e commit recenti

2
README vs. realtà

Cosa è implementato rispetto a cosa è pianificato o aspirazionale

3
Test e maturità

Copertura dei test, maturità realistica e disponibilità alla produzione

4
Hologram Brain e MAGMA

Modello di memoria, architettura di audit, provenienza e meccanismi di fiducia

5
Confronto con i concorrenti

Punteggio 1-10 su sei assi contro Casa Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Valutazione per uso industriale

Casi d'uso industriali, rischi, connettori mancanti, vincoli di distribuzione

Prompt di follow-up per Grok

Clicca su un prompt per copiarlo. Incollalo nella sessione Grok per approfondire.

Come si integra WaggleDance?

Scegli un profilo e ricevi una guida di distribuzione personalizzata da Grok.

Come si confronta WaggleDance

Ogni strumento qui sotto è ottimo in ciò che fa. Il confronto mostra come l'approccio solver-first di WaggleDance sia diverso — non che gli altri siano peggiori.

vs. Casa Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Distribuzione — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceCasa AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Domande frequenti

WaggleDance Swarm AI è gratuito?

Sì. Scarica e avvia subito. Le parti Apache 2.0 sono liberamente utilizzabili. L'uso personale non commerciale dei moduli protetti BUSL è consentito. Per uso commerciale, vedi i termini su GitHub.

Richiede una connessione internet?

No. WaggleDance è progettato per funzionare completamente offline su hardware locale. Internet è necessario solo per l'installazione iniziale e gli aggiornamenti.

Che hardware serve?

Minimo: Raspberry Pi 4 o equivalente (profilo GADGET). Consigliato: server x86 moderno per orchestrazione multi-agente (profilo FACTORY).

Perché Grok per l'analisi?

Ottieni una seconda opinione tecnica rapida sul repo pubblico. Puoi usare lo stesso prompt con Claude, ChatGPT o qualsiasi altro LLM.

Cos'è MAGMA?

Framework di revisione e avvio. Ogni decisione degli agenti è registrata per garantire tracciabilità, ripristino e valutazione dell'affidabilità.

Cos'è Dream Mode?

Modalità di apprendimento notturno in cui il sistema rivede i fallimenti del giorno, simula percorsi migliori e costruisce modelli più efficaci per il giorno successivo — automaticamente, senza intervento dell'utente.

Cosa succede dopo il primo avvio?

Dashboard e Hologram Brain sono disponibili immediatamente. La velocità della prima risposta dipende dal profilo e dall'hardware.

Media