Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

Plej multaj AI-sistemoj faras la saman eraron.

Vi sendas problemon rekte al la lingvomodelo kaj esperas ke la respondo estos ĝusta.

La naturo solvis ĉi tiun problemon antaŭ milionoj da jaroj.

En abelkolonio, malkovro ne fariĝas decido ĉar unu abelo decidas. La skolta abelo revenas al la abelujo kaj dancas ok-figuron sur la vertikala ĉelaro — la angulo montras direkton, la longo distancon, la forto kvaliton. Sed la danco ne estas monologo. Fratinaj abeloj sekvas la dancantinon, tuŝas ŝin per siaj antenoj kaj donas realtempan reagon. Halt-signaloj povas tute ĉesigi la dancon. Nur kiam la mesaĝo traeltenas socialan kontrolon, la vojo indas esti irita.

WaggleDance estas konstruita sur ĉi tiu logiko.

Ĝi ne donas la problemon rekte al LLM. Ĝi unue direktas ĝin al la ĝusta solvanto, validigas la rezulton per pluraj agentoj kaj uzas lingvomodelojn nur kiam ili vere helpas. Ĉiu paŝo postlasas spureblan vojon. Ĉiu solvo estas kontrolebla. Ĉiu ciklo kreskigas la propran scion de la sistemo.

La danco de la ok fariĝis algoritma vojigado. La ĉelaro fariĝis la MAGMA-memorstrukturo. Kaj la nokta dormo de la abeloj fariĝis Dream Mode — simulado en kiu la sistemo revizias la malsukcesojn de la tago, testas milojn da alternativaj vojoj kaj vekiĝas pli saĝa.

Ĉi tio ne estas metaforo. Ĉi tio estas la inĝenierado de kolektiva intelekto.

Clone & Run

Elsutu, forku kaj rulu loke tuj. La tuta repo disponeblas sur GitHub sen registriĝo.

Permesilo: Apache 2.0 + BUSL 1.1 (malferma kerno + protektitaj moduloj). Vidu terminojn sur GitHub.
BUSL-ŝanĝodato: 18 marto 2030.

v3.5.7 Plej nova eldono 2026-04-12
445+ Enmetoj
5 581 Kompletaj pytest-testoj (v3.5.7)
4 Disvastigaj profiloj

Kial tio estas malsama

AI ne divenas

Solvantoj iras unue. La validigilo kontrolas. LLM envenas nur kiam la ĝusta solvanto ne sufiĉas.

AI memoras ĉion

MAGMA registras decidojn, fontojn, reludojn kaj fidpoentarojn. Vidu kio okazis, kial kaj en kiu ordo.

AI lernas nokte

Dream Mode revizias malsukcesojn, simulas pli bonajn vojojn kaj konstruas pli bonajn modelojn por la sekva tago.

AI montras sian staton

Hologram Brain igas la staton de 32 nodoj videbla realtempe. Vi ne vidas nigran skatolon — vi vidas aktivan sistemon.

AI restas en via reto

Ĉio ruliĝas en via propra medio. Neniu deviga nubo, neniuj promptaj datumoj eliras, neniu SaaS-dependeco.

AI kreskas

La sama kodo funkcias de Raspberry Pi ĝis fabrika profilo. Ne nur pruvo, ne nur framaro.

Disvastigaj profiloj — sama rultempo, kvar profiloj

Aparato GADGET

RPi, edge, sensilo

Dometo COTTAGE

Senreta, intermita konekto

Hejmo HOME

Hejma aŭtomatigo

Fabriko FACTORY

Monitorado, anomalioj, revizio

Panelo kaj Hologram Brain disponeblas tuj post ekigo. La rapideco de la unua respondo dependas de profilo, aparataro kaj modo (kompleta aŭ stub).

Kio okazas kiam vi klakas “Analizi repon”?

1

La promptilo estas sendita rekte al Grok — kaj kopiita al via tondujo kiel rezerva kopio

2

Grok malfermiĝas en nova langeto kun la promptilo preta

3

Vi ricevas profundan repo-analizon, pritaksitan konkurentokomparon kaj industrian konvenec-taksadon

Se antaŭ plenigado ne funkcias, algluu permane — la promptilo jam estas en via tondujo.

Vi povas uzi la saman promptilon en Claude, ChatGPT aŭ iu ajn alia LLM. Grok estas la defaŭlta sur ĉi tiu paĝo.

Kion Grok analizas

Kiam vi klakas “Analizi repon”, la sistemo plenumas profundan analizon:

1
Nuna kodstato

Ĉefa branĉo, strukturo, moduloj kaj lastatempaj enmetoj

2
README kontraŭ realo

Kio estas efektivigita kontraŭ kio estas planita aŭ aspirata

3
Testoj kaj matureco

Test-kovrado, realisma matureco kaj produktpretigo

4
Hologram Brain kaj MAGMA

Memormodelo, revizia arkitekturo, deveno kaj fid-mekanismoj

5
Konkurenta komparo

Poentaro 1-10 sur ses aksoj kontraŭ Hejmo Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Pritakso de industria disvastigo

Industriaj uzkazoj, riskoj, mankantaj konektiloj, disvastigaj limigoj

Grok-sekvaj promptiloj

Klaku promptilon por kopii. Algluu en vian Grok-seancon por pli profunda esplorado.

Kiel WaggleDance konvenas?

Elektu profilon kaj ricevu personecigitan disvastigan gvidilon de Grok.

Kiel WaggleDance komparas

Ĉiu ilo sube estas bona pri tio kion ĝi faras. La komparo montras kiel la solver-first arkitekturo de WaggleDance estas malsama — ne ke la aliaj estas malbonaj.

vs. Hejmo Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Disvastigo — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceHejmo AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Oftaj demandoj

Is WaggleDance Swarm AI free?

Yes. Download and run immediately. Apache 2.0 parts are freely usable. Non-commercial personal use of BUSL-protected modules is permitted. For commercial use, check the license terms on GitHub.

Does it require an internet connection?

No. WaggleDance is designed to work fully offline on local hardware. Internet is only needed for initial setup and updates.

What hardware is needed?

Minimum: Raspberry Pi 4 or equivalent (GADGET profile). Recommended: modern x86 server for multi-agent orchestration (FACTORY profile).

Why Grok for analysis?

You get a quick second technical opinion on the public repo, documentation, and competitive landscape. You can use the same prompt in Claude, ChatGPT, or any other LLM.

What is MAGMA?

An auditing and provenance framework. Every agent decision is recorded so you get traceability, replay, and trust assessment visibility.

What is Dream Mode?

An overnight learning mode where the system reviews the day's failures, simulates better routes, and builds better models for the next day — automatically without user action.

What happens after first startup?

Dashboard and Hologram Brain are available immediately. First response speed depends on profile and hardware.

Media