Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

Більшість систем AI роблять ту саму помилку.

Відправляють проблему прямо до мовної моделі й сподіваються, що відповідь буде правильною.

Природа вирішила цю проблему мільйони років тому.

У бджолиній сім'ї відкриття не стає рішенням через те, що одна бджола так вирішила. Розвідниця повертається до вулика і танцює вісімку на вертикальному стільнику — кут показує напрямок, довжина — відстань, сила — якість. Але танець не монолог. Сестри-бджоли слідкують за танцівницею, торкаються її вусиками та дають зворотний зв'язок у реальному часі. Сигнали зупинки можуть повністю перервати танець. Лише коли повідомлення переживає соціальну перевірку, шлях варто пройти.

WaggleDance побудований на цій логіці.

Він не передає проблему напряму до LLM. Спочатку маршрутизує її до правильного розв'язувача, валідує результат через кількох агентів і використовує мовні моделі лише тоді, коли вони справді допомагають. Кожен крок залишає слід аудиту. Кожне рішення перевіряється. Кожен цикл збільшує власні знання системи.

Танець-вісімка став алгоритмічною маршрутизацією. Стільники стали структурою пам’яті MAGMA. А нічний сон бджіл став Dream Mode — симуляцією, у якій система переглядає невдачі дня, тестує тисячі альтернативних шляхів і прокидається розумнішою.

Це не метафора. Це інженерія колективного інтелекту.

Clone & Run

Завантаж, форкни та запусти локально відразу. Весь репозиторій доступний на GitHub без реєстрації.

Ліцензія: Apache 2.0 + BUSL 1.1 (відкрите ядро + захищені модулі). Див. умови на GitHub.
Дата зміни BUSL: 18 березня 2030.

v3.5.7 Останній реліз 2026-04-12
445+ Коміти
5 581 Повні pytest тести (v3.5.7)
4 Профілі розгортання

Чому це інакше

AI не вгадує

Спочатку розв’язувачі. Валідатор перевіряє. LLM вступає лише тоді, коли правильного розв’язувача недостатньо.

AI пам’ятає все

MAGMA записує рішення, джерела, відтворення та оцінки довіри. Подивіться, що сталося, чому й у якому порядку.

AI вчиться вночі

Dream Mode переглядає невдачі, симулює кращі шляхи та будує кращі моделі до наступного дня.

AI показує свій стан

Hologram Brain робить стан 32 вузлів видимим у реальному часі. Ти бачиш не чорну скриньку — ти бачиш активну систему.

AI залишається в твоїй мережі

Усе працює у вашому власному середовищі. Без обов'язкової хмари, без виходу даних промптів назовні, без залежності від SaaS.

AI масштабується

Той самий код працює від Raspberry Pi до фабричного профілю. Не лише демо, не лише фреймворк.

Профілі розгортання — те саме середовище, чотири профілі

Гаджет GADGET

RPi, edge, сенсор

Котедж COTTAGE

Офлайн, переривчасте з'єднання

Дім HOME

Домашня автоматизація

Фабрика FACTORY

Моніторинг, аномалії, аудит

Дашборд і Hologram Brain доступні відразу після запуску. Швидкість першої відповіді залежить від профілю, обладнання та режиму (повний чи stub).

Що відбувається, коли натискаєш “Проаналізувати репо”?

1

Промпт відправляється прямо до Grok — і копіюється у буфер як резерв

2

Grok відкривається в новій вкладці з готовим промптом

3

Ти отримуєш глибокий аналіз репо, оцінене порівняння з конкурентами та оцінку промислової придатності

Якщо автозаповнення не працює, встав вручну — промпт уже в буфері.

Ти можеш використати той самий промпт у Claude, ChatGPT чи іншому LLM. Grok — за замовчуванням на цій сторінці.

Що аналізує Grok

Коли натискаєш “Проаналізувати репо”, система виконує глибокий аналіз:

1
Поточний стан коду

Головна гілка, структура, модулі та останні коміти

2
README проти реальності

Що реалізовано, а що заплановано або є цільовим

3
Тести та зрілість

Покриття тестами, реалістична зрілість та готовність до продукції

4
Hologram Brain та MAGMA

Модель пам'яті, архітектура аудиту, походження даних і механізми довіри

5
Порівняння з конкурентами

Оцінка 1-10 на шести осях проти Дім Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Оцінка промислового розгортання

Промислові сценарії, ризики, відсутні конектори, обмеження розгортання

Промпти-продовження Grok

Натисни на промпт, щоб скопіювати. Встав у сесію Grok для глибшого дослідження.

Як вписується WaggleDance?

Обери профіль і отримай персоналізований гайд розгортання від Grok.

Як WaggleDance порівнюється

Кожен інструмент нижче добрий у тому, що робить. Порівняння показує, як solver-first архітектура WaggleDance відрізняється — не те, що інші погані.

vs. Дім Assistant

  • HA: Deterministic rules and automations, but no solver-based routing before the LLM.
  • WD: Solver-first routing (7+ deterministic solvers) → verifier → LLM only as fallback. Every decision auditable via MAGMA trail.
  • HA: No autonomous model training, no overnight learning.
  • WD: 8 sklearn specialist models + Dream Mode overnight learning with canary lifecycle.
  • HA's advantage: excellent integration ecosystem (2000+ integrations).

vs. LangGraph

  • LG: Graph-based multi-agent, but LLM-centric — everything goes through the LLM.
  • WD: Solver-first. LLM is Layer 1 (last), not Layer 3 (first).
  • LG: No append-only auditing, no canary model training, no dream mode simulation.
  • WD: MAGMA 5-layer provenance + 8 specialist models + counterfactual simulations.
  • LG's advantage: stronger cloud ecosystem and documentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-agent frameworks, but without deterministic solvers.
  • WD: 7+ deterministic solvers are routed BEFORE any LLM call.
  • AG/CA: No edge/factory profiles, no offline-first architecture.
  • WD: 4 profiles (GADGET → FACTORY), fully offline, from ESP32 to DGX.
  • AG/CA: No autonomous overnight learning or canary promotion.

vs. Ollama / LocalAI

  • Ollama: Local LLM engine, no decision-making architecture.
  • WD: Uses Ollama as one component (Layer 1 fallback), but builds solver routing, MAGMA auditing, specialist models, and Dream Mode on top.
  • Ollama is the engine. WaggleDance is the whole car.

vs. n8n / Node-RED

  • n8n/NR: Visual workflow automation tools, excellent flow editors.
  • WD: Not a visual flow editor but an autonomous multi-agent runtime that learns and improves.
  • n8n/NR: No sklearn models, no append-only provenance, no counterfactual simulation.
  • WD: 8 models + 9 SQLite databases + ChromaDB/FAISS + Dream Mode.

Розгортання — WD's Advantage

  • Docker: clone → docker compose up -d — Ollama, Voikko (Finnish NLP), and the app all in one.
  • No separate manual installations in Docker mode.
  • 4 profiles with automatic hardware detection (GADGET / COTTAGE / HOME / FACTORY).

Time Evolution — WD's Decisive Advantage Over ALL Competitors

No competitor improves autonomously over time. WaggleDance is the only one that builds cumulative expertise.

TimeWaggleDanceДім AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Day 1LLM fallback ~30-50%, solvers learningSame as alwaysSame as alwaysSame as alwaysSame as alwaysSame as always
Month 1HotCache fills, LLM ~20-30%, first canary promotionsNo changeNo changeNo changeNo changeNo change
Month 6LLM ~10-15%, specialists maturing, ~180 nights of Dream ModeNo changeNo changeNo changeNo changeNo change
Year 1LLM ~5-8%, MAGMA with thousands of audited pathsNo changeNo changeNo changeNo changeNo change
Year 2LLM <3-5%, >95% deterministic, TCO a fraction of day 1No changeNo changeNo changeNo changeNo change

The competitors' column is empty everywhere except day 1. They don't learn. They don't improve. On day 730, they are exactly the same as on day 1.

Часті запитання

Чи WaggleDance Swarm AI безкоштовний?

Так. Завантаж і запускай відразу. Частини Apache 2.0 вільно доступні. Некомерційне особисте використання захищених BUSL модулів дозволене. Для комерційного використання див. умови ліцензії на GitHub.

Чи потрібне інтернет-з’єднання?

Ні. WaggleDance розроблений для повної оффлайн-роботи на локальному обладнанні. Інтернет потрібний лише для початкового налаштування та оновлень.

Яке обладнання потрібне?

Мінімум: Raspberry Pi 4 або аналог (профіль GADGET). Рекомендовано: сучасний x86-сервер для оркестрації багатоагентної системи (профіль FACTORY).

Чому Grok для аналізу?

Отримаєш швидку другу технічну думку про публічне репо. Можна використовувати той самий промпт у Claude, ChatGPT чи іншому LLM.

Що таке MAGMA?

Фреймворк аудиту та запуску. Кожне рішення агентів записується для забезпечення відстежуваності, відкоту та оцінки надійності.

Що таке Dream Mode?

Нічний режим навчання, у якому система переглядає невдачі дня, симулює кращі шляхи та будує кращі моделі до наступного дня — автоматично, без втручання користувача.

Що відбувається після першого запуску?

Дашборд і Hologram Brain доступні відразу. Швидкість першої відповіді залежить від профілю та обладнання.

Media