Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

Większość systemów AI popełnia ten sam błąd.

Wysyłają problem bezpośrednio do modelu językowego i mają nadzieję, że odpowiedź będzie właściwa.

Natura rozwiązała ten problem miliony lat temu.

W pszczelim ulu odkrycie nie staje się decyzją dlatego, że jedna pszczoła tak postanawia. Zwiadowczyni wraca do ula i tańczy ósemkę na pionowym plastrze — kąt wskazuje kierunek, długość odległość, intensywność jakość. Ale taniec nie jest monologiem. Pszczoły-siostry śledzą tancerkę, dotykają jej czułkami i dają informację zwrotną w czasie rzeczywistym. Sygnały stop mogą całkowicie przerwać taniec. Dopiero gdy wiadomość przetrwa kontrolę społeczną, ścieżka zasługuje na to, by nią podążyć.

WaggleDance jest zbudowany na tej logice.

Nie przekazuje problemu bezpośrednio do LLM. Najpierw kieruje go do właściwego rozwiązującego, waliduje wynik przez wiele agentów i używa modeli językowych tylko wtedy, gdy naprawdę pomagają. Każdy krok pozostawia ślad audytu. Każde rozwiązanie jest weryfikowalne. Każdy cykl zwiększa własną wiedzę systemu.

Taniec ósemkowy stał się algorytmicznym routingiem. Plaster miodu stał się strukturą pamięci MAGMA. A nocny sen pszczół stał się Dream Mode — symulacją, w której system analizuje porażki dnia, testuje tysiące alternatywnych ścieżek i budzi się mądrzejszy.

To nie metafora. To inżynieria inteligencji zbiorowej.

Clone & Run

Pobierz, zrób fork i uruchom lokalnie od razu. Całe repo jest dostępne na GitHub bez rejestracji.

Licencja: Apache 2.0 + BUSL 1.1 (otwarty rdzeń + chronione moduły). Zobacz warunki na GitHub.
Data zmiany BUSL: 18 marca 2030.

v3.5.7 Najnowsze wydanie 2026-04-12
445+ Commity
5 581 Pełne testy pytest (v3.5.7)
4 Profile wdrożenia

Dlaczego to jest inne

AI nie zgaduje

Najpierw rozwiązujący. Walidator sprawdza. LLM wkracza tylko wtedy, gdy właściwy rozwiązujący nie wystarczy.

AI pamięta wszystko

MAGMA zapisuje decyzje, źródła, odtworzenia i oceny zaufania. Zobacz, co się stało, dlaczego i w jakiej kolejności.

AI uczy się nocą

Dream Mode analizuje porażki, symuluje lepsze ścieżki i buduje lepsze modele na następny dzień.

AI pokazuje swój stan

Hologram Brain uwidacznia stan 32 węzłów w czasie rzeczywistym. Nie widzisz czarnej skrzynki — widzisz działający system.

AI zostaje w twojej sieci

Wszystko działa we własnym środowisku. Bez obowiązkowej chmury, bez wychodzących danych promptów, bez zależności od SaaS.

AI skaluje się

Ten sam kod działa od Raspberry Pi po profil fabryczny. Nie tylko demo, nie tylko framework.

Profile wdrożenia — to samo środowisko, cztery profile

Gadżet GADGET

RPi, edge, czujnik

Domek COTTAGE

Offline, przerywane połączenie

Dom HOME

Automatyka domowa

Fabryka FACTORY

Monitoring, anomalie, audyt

Dashboard i Hologram Brain są dostępne natychmiast po uruchomieniu. Szybkość pierwszej odpowiedzi zależy od profilu, sprzętu i trybu (pełny lub stub).

Co się dzieje, gdy klikniesz “Analizuj repozytorium”?

1

Prompt jest wysyłany bezpośrednio do Grok — i kopiowany do schowka jako kopia zapasowa

2

Grok otwiera się w nowej karcie z gotowym promptem

3

Otrzymujesz dogłębną analizę repozytorium, punktowe porównanie z konkurencją i ocenę przydatności przemysłowej

Jeśli wypełnienie nie działa, wklej ręcznie — prompt już jest w twoim schowku.

Możesz użyć tego samego promptu w Claude, ChatGPT lub innym LLM. Grok jest domyślny na tej stronie.

Co Grok analizuje

Gdy klikniesz “Analizuj repozytorium”, system wykonuje dogłębną analizę:

1
Aktualny stan kodu

Główna gałąź, struktura, moduły i ostatnie commity

2
README vs rzeczywistość

Co jest zaimplementowane, a co zaplanowane lub aspiracyjne

3
Testy i dojrzałość

Pokrycie testów, realistyczna dojrzałość i gotowość produkcyjna

4
Hologram Brain i MAGMA

Model pamięci, architektura audytu, pochodzenie danych i mechanizmy zaufania

5
Porównanie z konkurencją

Ocena 1-10 na sześciu osiach przeciw Dom Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Ocena wdrożenia przemysłowego

Zastosowania przemysłowe, ryzyka, brakujące konektory, ograniczenia wdrożenia

Prompty następcze Grok

Kliknij prompt, aby go skopiować. Wklej w sesji Grok dla głębszych badań.

Jak pasuje WaggleDance?

Wybierz profil i otrzymaj spersonalizowany przewodnik wdrożenia od Grok.

Jak WaggleDance wypada

Każde narzędzie poniżej jest dobre w tym, co robi. Porównanie pokazuje, jak architektura solver-first WaggleDance jest inna — nie, że inne są złe.

vs. Dom Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Wdrożenie — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceDom AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Często zadawane pytania

Czy WaggleDance Swarm AI jest darmowy?

Tak. Pobierz i uruchom od razu. Części Apache 2.0 są swobodnie używalne. Niekomercyjne użycie osobiste modułów chronionych BUSL jest dozwolone. Do użytku komercyjnego zobacz warunki licencji na GitHub.

Czy wymaga połączenia internetowego?

Nie. WaggleDance jest zaprojektowany do pracy całkowicie offline na lokalnym sprzęcie. Internet jest potrzebny tylko do wstępnej konfiguracji i aktualizacji.

Jaki sprzęt jest potrzebny?

Minimum: Raspberry Pi 4 lub odpowiednik (profil GADGET). Zalecane: nowoczesny serwer x86 do orkiestracji multi-agent (profil FACTORY).

Dlaczego Grok do analizy?

Otrzymujesz szybką drugą opinię techniczną na temat publicznego repo. Możesz użyć tego samego promptu w Claude, ChatGPT lub innym LLM.

Czym jest MAGMA?

Framework audytu i bootstrappu. Każda decyzja agentów jest zapisywana, aby zapewnić śledliwość, rollback i ocenę niezawodności.

Czym jest Dream Mode?

Nocny tryb uczenia, w którym system analizuje porażki dnia, symuluje lepsze ścieżki i buduje lepsze modele na następny dzień — automatycznie, bez interwencji użytkownika.

Co się dzieje po pierwszym uruchomieniu?

Dashboard i Hologram Brain są natychmiast dostępne. Szybkość pierwszej odpowiedzi zależy od profilu i sprzętu.

Media