Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

De fleste AI-systemer gjør samme feil.

De spør språkmodellen først og håper svaret høres riktig ut.

Naturen løste dette problemet for millioner av år siden.

I en bikube blir en oppdagelse ikke en beslutning fordi én aktør sier det. En speider vender tilbake til kuben og danser et åttetall på den vertikale voksskiven — vinkelen på den rette delen angir retning, varigheten angir avstand, kraften angir kvalitet. Men dansen er ingen monolog. Søsterbier følger danseren, kjenner på henne med antennene og gir tilbakemelding i sanntid. Stoppsignaler kan avbryte dansen helt. Bare når budskapet overlever samfunnets granskning, oppstår en rute verdt å følge.

WaggleDance er bygget på denne logikken.

Den overleverer ikke problemet direkte til en LLM. Den ruter det først til riktig løser, verifiserer resultatet gjennom flere agenter og bruker språkmodeller bare når de virkelig hjelper. Hvert trinn etterlater et revisjonsspor. Hver løsning er begrunnbar. Hver syklus bygger systemets egen ekspertise.

Åttetallsdansen ble algoritmisk ruting. Voksskiven ble MAGMA-minnestrukturen. Og biens nattlige hvile ble Dream Mode — en simulering der systemet gjennomgår dagens feil, tester tusenvis av alternative ruter og våkner smartere.

Dette er ingen metafor. Dette er en arkitektur for kollektiv maskinintelligens.

Clone & Run

Last ned, fork og kjør lokalt med en gang. Hele repoet er tilgjengelig på GitHub uten registrering.

Lisensmodell: Apache 2.0 + BUSL 1.1 (åpen kjerne + kildetilgjengelige beskyttede moduler). Se vilkår på GitHub.
BUSL-overgangsdato: 18. mars 2030.

v3.5.7 Siste utgivelse 2026-04-12
445+ Commits
5 581 Fulle Pytester (v3.5.7)
4 Utrullingsprofiler

Hvorfor dette er annerledes

AI som ikke gjetter

Løsere går først. Verifikatoren sjekker. LLM-en kobles inn bare når riktig løser ikke strekker til.

AI som husker alt

MAGMA registrerer beslutninger, kilder, avspillinger og tillitspoeng. Se hva som skjedde, hvorfor og i hvilken rekkefølge.

AI som lærer over natten

Dream Mode gjennomgår feil, simulerer bedre ruter og bygger bedre modeller til neste dag.

AI som viser sin tilstand

Hologram Brain gjør tilstanden til 32 noder synlig i sanntid. Du ser ikke på en svart boks — du ser på et fungerende system.

AI som holder seg i nettverket ditt

Alt kjøres i ditt eget miljø. Ingen obligatorisk sky, ingen promptdata forlater huset, ingen SaaS-avhengighet.

AI som skalerer

Samme kodebase fungerer fra Raspberry Pi til fabrikkprofil. Ikke bare en demo, ikke bare et rammeverk.

Utrullingsprofiler — samme runtime, fire profiler

Enhet GADGET

RPi, edge, sensor

Hytte COTTAGE

Offline, ustabil tilkobling

Hjem HOME

Lokal automasjon

Fabrikk FACTORY

Overvåking, avvik, revisjon

Dashboard og Hologram Brain er tilgjengelige umiddelbart etter oppstart. Første responstid avhenger av profil, maskinvare og full- eller stub-modus.

Hva skjer når du klikker “Analyser repo”?

1

Prompten sendes direkte til Grok — og kopieres til utklippstavlen som sikkerhetskopi

2

Grok åpnes i en ny fane med prompten klar

3

Du får en omfattende analyse av repoet, en poengsatt konkurrentsammenligning og en vurdering av fabrikkberedskap.

Hvis forhåndsutfylling ikke virker, lim inn manuelt — prompten er allerede på utklippstavlen.

Du kan også bruke samme prompt i Claude, ChatGPT eller en hvilken som helst annen LLM. Grok er standardvalget på denne siden.

Hva Grok analyserer

Når du klikker “Analyser repo”, utfører AI-en en dyp analyse som dekker:

1
Nåværende kodebase-tilstand

Hovedgren, arkitektur, moduler og siste commits

2
README vs virkelighet

Hva som er implementert vs. hva som er planlagt eller strategisk

3
Tester og modenhet

Testdekning, praktisk modenhet og produksjonsberedskap

4
Hologram Brain og MAGMA

Minnemodell, revisjonsarkitektur, opprinnelse og tillitsmekanismer

5
Konkurrentsammenligning

Poengsatt 1-10 på seks akser mot Hjem Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Vurdering av fabrikkdistribusjon

Industrielle brukstilfeller, risikoer, manglende integrasjoner, utrullingshindere

Oppfølgende Grok-prompter

Klikk på en prompt for å kopiere den. Lim inn i Grok-økten din for dypere utforskning.

Hvordan kobler jeg til WaggleDance?

Velg en profil og få en skreddersydd utrullingsveiledning fra Grok.

Hvordan WaggleDance sammenlignes

Hvert verktøy nedenfor er bra på det det gjør. Sammenligningen viser hvordan WaggleDances solver-first-arkitektur skiller seg — ikke for å si at andre er dårlige.

vs. Hjem Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Utrulling — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceHjem AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Vanlige spørsmål

Is WaggleDance Swarm AI free?

Yes. Download and run immediately. Apache 2.0 parts are freely usable. Non-commercial personal use of BUSL-protected modules is permitted. For commercial use, check the license terms on GitHub.

Does it require an internet connection?

No. WaggleDance is designed to work fully offline on local hardware. Internet is only needed for initial setup and updates.

What hardware is needed?

Minimum: Raspberry Pi 4 or equivalent (GADGET profile). Recommended: modern x86 server for multi-agent orchestration (FACTORY profile).

Why Grok for analysis?

You get a quick second technical opinion on the public repo, documentation, and competitive landscape. You can use the same prompt in Claude, ChatGPT, or any other LLM.

What is MAGMA?

An auditing and provenance framework. Every agent decision is recorded so you get traceability, replay, and trust assessment visibility.

What is Dream Mode?

An overnight learning mode where the system reviews the day's failures, simulates better routes, and builds better models for the next day — automatically without user action.

What happens after first startup?

Dashboard and Hologram Brain are available immediately. First response speed depends on profile and hardware.

Media