Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

Karamihan ng mga AI system ay gumagawa ng parehong pagkakamali.

Tinatanong muna nila ang language model at umaasang tama ang sagot.

Nalutas ng kalikasan ang problemang ito milyun-milyong taon na ang nakakaraan.

Sa loob ng isang bahay-pukyutan, ang isang pagtuklas ay hindi nagiging desisyon dahil lang sinabi iyon ng iisang kalahok. Bumabalik sa bahay-pukyutan ang isang tagapagmanman na pukyutan at sumasayaw ng hugis-walo sa patayong ibabaw ng bahay-pukyutan — ang anggulo ng tuwid na bahagi ay nagtuturo ng direksiyon, ang tagal ay nagsasaad ng distansya, at ang sigla ay nagsasaad ng kalidad. Ngunit ang sayaw ay hindi monologo. Sinusundan ng mas may karanasang mga kapatid na pukyutan ang mananayaw, hinahawakan siya gamit ang kanilang mga antenna, at nagbibigay ng feedback nang real time. Maaaring ganap na ihinto ng isang stop signal ang sayaw. Tanging kapag nakalampas ang mensahe sa pagsusuri ng komunidad saka lumilitaw ang rutang karapat-dapat tahakin.

Ang WaggleDance ay itinayo sa lohikang ito.

Hindi nito ibinibigay nang direkta ang problema sa isang LLM. Iniruruta muna nito ang problema sa tamang solver, pinatutunayan ang resulta sa pamamagitan ng maraming agent, at ginagamit lamang ang language model kapag tunay itong nakakatulong. Bawat hakbang ay nag-iiwan ng audit trail na masusuri. Bawat solusyon ay maipapaliwanag. Bawat cycle ay nagpapalago sa sariling kadalubhasaan ng sistema.

Ang hugis-walong sayaw ay naging algorithmic routing. Ang anila ay naging MAGMA memory architecture. At ang magdamag na pahinga ng mga pukyutan ay naging Dream Mode — isang simulation kung saan sinusuri ng sistema ang mga pagkabigo sa maghapon, sinusubok ang libu-libong alternatibong ruta, at bumabalik sa umaga nang mas matalino.

Hindi ito metapora. Ito ay arkitektura para sa collective machine intelligence.

Clone & Run

I-download, i-fork, at patakbuhin nang lokal kaagad. Ang buong repo ay available sa GitHub nang walang rehistrasyon.

License model: Apache 2.0 + BUSL 1.1 (open core + source-available protected modules). Check the terms on GitHub.
BUSL module change date: March 18, 2030.

v3.5.7 Pinakabagong Release 2026-04-12
445+ Commits
5 581 Kompletong Pytests (v3.5.7)
4 Deploy Profiles

Bakit Iba Ito

AI na hindi naghuhula

Nauuna ang solvers. Sinusuri ng verifier. Sumasali lang ang LLM kapag hindi sapat ang tamang solver.

AI na nakakaalala ng lahat

Nagrerekord ang MAGMA ng mga desisyon, pinagmulan, replay, at trust scores. Tingnan kung ano ang nangyari, bakit, at sa anong pagkakasunod-sunod.

AI na natututo sa magdamag

Sinusuri ng Dream Mode ang mga pagkabigo, nagsi-simulate ng mas magagandang ruta, at gumagawa ng mas magagandang modelo para sa susunod na araw.

AI na nagpapakita ng estado

Ginagawa ng Hologram Brain ang estado ng 32 nodes na nakikita sa real time. Hindi ka nakatingin sa black box — nakatingin ka sa isang tumatakbong sistema.

AI na nananatili sa inyong network

Lahat ay tumatakbo sa sariling environment. Walang sapilitang cloud, walang prompt data na lumalabas, walang SaaS dependency.

AI na nakakapag-scale

Ang parehong codebase ay gumagana mula Raspberry Pi hanggang factory profile. Hindi lamang demo, hindi lamang framework.

Deploy Profiles — parehong runtime, apat na profile

Aparato GADGET

RPi, edge, sensor

Bahay-bakasyunan COTTAGE

Offline, paulit-ulit na koneksyon

Bahay HOME

Lokal na automation

Pabrika FACTORY

Monitoring, anomalya, audit

Ang Dashboard at Hologram Brain ay agad na available pagkatapos ng startup. Depende ang bilis ng unang tugon sa profile, hardware, at kung full o stub mode ang ginagamit.

Ano ang mangyayari kapag nag-click ka ng “Suriin ang Repository”?

1

Ang prompt ay direktang ipinapadala sa Grok — at kinokopya sa iyong clipboard bilang backup

2

Bumubukas ang Grok sa isang bagong tab na may handang prompt

3

Makakakuha ka ng komprehensibong pagsusuri ng repo, may iskor na paghahambing sa mga kakumpitensya, at pagtatasa ng kahandaan ng pabrika.

Kung hindi gumana ang pre-fill, i-paste nang manu-mano — ang prompt ay nasa iyong clipboard na.

Maaari mo ring gamitin ang parehong prompt sa Claude, ChatGPT, o anumang iba pang LLM. Ang Grok ang default na pagpipilian sa pahinang ito.

Ano ang Sinusuri ng Grok

Kapag nag-click ka ng “Suriin ang Repository”, ang AI ay nagsasagawa ng malalim na pagsusuri na sumasaklaw sa:

1
Kasalukuyang estado ng codebase

Pangunahing sangay, arkitektura, mga module, at pinakabagong mga commit

2
README vs realidad

Ano ang naipatupad vs ano ang binabalak o hangarin

3
Mga pagsusulit at karampatan

Coverage ng pagsusulit, praktikal na karampatan, at kahandaan sa produksyon

4
Hologram Brain at MAGMA

Memory model, arkitektura ng audit, provenance, at mga trust mechanism

5
Paghahambing sa mga kakumpitensya

Nakaiskor 1-10 sa anim na axes laban sa Bahay Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Pagtatasa ng factory deployment

Mga industrial use case, panganib, kulang na integrasyon, mga hadlang sa deployment

Mga follow-up na prompt ng Grok

Mag-click sa isang prompt upang kopyahin ito. I-paste sa iyong Grok session para sa mas malalim na pag-explore.

Paano Ko Ikokonekta ang WaggleDance?

Pumili ng profile at makakuha ng customized na gabay sa deployment mula sa Grok.

Paano Naiiba ang WaggleDance

Ang bawat tool sa ibaba ay mahusay sa kanyang ginagawa. Ang paghahambing ay nagpapakita kung paano naiiba ang solver-first na pagkakabuo ng WaggleDance — hindi upang sabihing masama ang iba.

vs. Bahay Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Deploy — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceBahay AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Mga Madalas na Tanong

Is WaggleDance Swarm AI free?

Yes. Download and run immediately. Apache 2.0 parts are freely usable. Non-commercial personal use of BUSL-protected modules is permitted. For commercial use, check the license terms on GitHub.

Does it require an internet connection?

No. WaggleDance is designed to work fully offline on local hardware. Internet is only needed for initial setup and updates.

What hardware is needed?

Minimum: Raspberry Pi 4 or equivalent (GADGET profile). Recommended: modern x86 server for multi-agent orchestration (FACTORY profile).

Why Grok for analysis?

You get a quick second technical opinion on the public repo, documentation, and competitive landscape. You can use the same prompt in Claude, ChatGPT, or any other LLM.

What is MAGMA?

An auditing and provenance framework. Every agent decision is recorded so you get traceability, replay, and trust assessment visibility.

What is Dream Mode?

An overnight learning mode where the system reviews the day's failures, simulates better routes, and builds better models for the next day — automatically without user action.

What happens after first startup?

Dashboard and Hologram Brain are available immediately. First response speed depends on profile and hardware.

Media