Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

De flesta AI-system gör samma misstag.

De frågar språkmodellen först och hoppas att svaret låter rätt.

Naturen löste detta problem för miljontals år sedan.

I en bikupa blir en upptäckt inte ett beslut bara för att en aktör säger det. En spanare återvänder till kupan och dansar en åttafigur på den lodräta vaxkakan — den raka delens vinkel anger riktning, dansens längd anger avstånd, vigören anger kvalitet. Men dansen är ingen monolog. Systerbin följer dansaren, känner på henne med sina antenner och ger realtidsåterkoppling. Stoppsignaler kan avbryta dansen helt. Endast när budskapet överlever samhällets granskning uppstår en rutt värd att följa.

WaggleDance är byggt på denna logik.

Den lämnar inte problemet direkt till en LLM. Den dirigerar det först till rätt lösare, verifierar resultatet med flera agenter och använder språkmodeller endast när de verkligen hjälper. Varje steg lämnar ett granskningsspår. Varje lösning är motiverbar. Varje cykel bygger upp systemets egen expertis.

Åttafigursdansen blev algoritmisk dirigering. Vaxkakan blev MAGMA-minnesstrukturen. Och binas nattliga vila blev Dream Mode — en simulering där systemet granskar dagens misslyckanden, testar tusentals alternativa rutter och vaknar upp smartare.

Detta är ingen metafor. Detta är en arkitektur för kollektiv maskinintelligens.

Clone & Run

Ladda ner, forka och kör lokalt direkt. Hela repositöriet finns på GitHub utan registrering.

Licensmodell: Apache 2.0 + BUSL 1.1 (öppen kärna + källköpta skyddade moduler). Se villkor på GitHub.
BUSL-övergångsdatum: 18 mars 2030.

v3.5.7 Senaste release 2026-04-12
445+ Commits
5 581 Fulla Pytests (v3.5.7)
4 Driftssättningsprofiler

Varför detta är annorlunda

AI som inte gissar

Lösare går först. Verifieraren kontrollerar. LLM:en kopplas in bara när rätt lösare inte räcker till.

AI som minns allt

MAGMA registrerar beslut, källor, återuppspelningar och tillitspoäng. Se vad som hände, varför och i vilken ordning.

AI som lär sig över natten

Dream Mode granskar misslyckanden, simulerar bättre rutter och bygger bättre modeller till nästa dag.

AI som visar sitt tillstånd

Hologram Brain gör tillståndet för 32 noder synligt i realtid. Du tittar inte på en svart låda — du tittar på ett fungerande system.

AI som stannar i ditt nätverk

Allt körs i din egen miljö. Inget obligatoriskt moln, ingen promptdata lämnar miljön, inget SaaS-beroende.

AI som skalar

Samma kodbas fungerar från Raspberry Pi till fabriksprofil. Inte bara en demo, inte bara ett ramverk.

Driftssättningsprofiler — samma runtime, fyra profiler

Enhet GADGET

RPi, edge, sensor

Stuga COTTAGE

Offline, intermittent anslutning

Hem HOME

Lokal automation

Fabrik FACTORY

Övervakning, avvikelser, granskning

Dashboard och Hologram Brain är tillgängliga omedelbart efter start. Första responstiden beror på profil, hårdvara och full- eller stub-läge.

Vad händer när du klickar på “Analysera repositörium”?

1

Prompten skickas direkt till Grok — och kopieras till ditt urklipp som säkerhetskopia

2

Grok öppnas i en ny flik med prompten redo

3

Du får en heltäckande analys av repositöriet, en poängsatt konkurrentjämförelse och en bedömning av fabriksberedskap.

Om förifyllningen inte fungerar, klistra in manuellt — prompten finns redan på ditt urklipp.

Du kan också använda samma prompt i Claude, ChatGPT eller valfri annan LLM. Grok är standardvalet på denna sida.

Vad Grok analyserar

När du klickar på “Analysera repositörium” utför AI:n en djup analys som omfattar:

1
Nuvarande kodbasstatus

Huvudgren, arkitektur, moduler och senaste commits

2
README vs verklighet

Vad som är implementerat kontra vad som är planerat eller strategiskt

3
Tester och mognad

Testtäckning, praktisk mognad och produktionsberedskap

4
Hologram Brain och MAGMA

Minnesmodell, granskningsarkitektur, proveniens och tillitsmekanismer

5
Konkurrentjämförelse

Poängsatt 1–10 på sex axlar mot Hem Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Bedömning av fabriksdriftssättning

Industriella användningsfall, risker, saknade integrationer, driftsättningshinder

Uppföljande Grok-prompter

Klicka på en prompt för att kopiera den. Klistra in i din Grok-session för djupare utforskning.

Hur ansluter jag WaggleDance?

Välj en profil och få en skräddarsydd driftssättningsguide från Grok.

Hur WaggleDance jämförs

Varje verktyg nedan är bra på det det gör. Jämförelsen visar hur WaggleDances solver-first-arkitektur skiljer sig — inte för att påstå att andra är dåliga.

vs. Hem Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Driftssättning — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceHem AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Vanliga frågor

Is WaggleDance Swarm AI free?

Yes. Download and run immediately. Apache 2.0 parts are freely usable. Non-commercial personal use of BUSL-protected modules is permitted. For commercial use, check the license terms on GitHub.

Does it require an internet connection?

No. WaggleDance is designed to work fully offline on local hardware. Internet is only needed for initial setup and updates.

What hardware is needed?

Minimum: Raspberry Pi 4 or equivalent (GADGET profile). Recommended: modern x86 server for multi-agent orchestration (FACTORY profile).

Why Grok for analysis?

You get a quick second technical opinion on the public repo, documentation, and competitive landscape. You can use the same prompt in Claude, ChatGPT, or any other LLM.

What is MAGMA?

An auditing and provenance framework. Every agent decision is recorded so you get traceability, replay, and trust assessment visibility.

What is Dream Mode?

An overnight learning mode where the system reviews the day's failures, simulates better routes, and builds better models for the next day — automatically without user action.

What happens after first startup?

Dashboard and Hologram Brain are available immediately. First response speed depends on profile and hardware.

Media