Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

A maioria dos sistemas de IA comete o mesmo erro.

Eles consultam o modelo de linguagem primeiro e esperam que a resposta pareça correta.

A natureza resolveu este problema há milhões de anos.

Numa colmeia, uma descoberta não se torna uma decisão porque um único ator assim o diz. Uma exploradora retorna à colmeia e dança uma figura em oito na superfície vertical do favo — o ângulo da seção reta indica a direção, a duração indica a distância, o vigor indica a qualidade. Mas a dança não é um monólogo. Irmãs mais experientes seguem a dançarina, tocam-na com as antenas e dão feedback em tempo real. Um sinal de parada pode interromper a dança por completo. Só quando a mensagem sobrevive ao escrutínio da comunidade é que surge uma rota que vale a pena seguir.

O WaggleDance é construído sobre esta lógica.

Ele não entrega o problema diretamente a um LLM. Encaminha-o primeiro para o solver correto, verifica o resultado através de múltiplos agentes e usa um modelo de linguagem apenas quando genuinamente ajuda. Cada passo deixa um rastro auditável. Cada solução é justificável. Cada ciclo aumenta a expertise do próprio sistema.

A dança em oito tornou-se roteamento algorítmico. O favo tornou-se a arquitetura de memória MAGMA. E o descanso noturno das abelhas tornou-se o Dream Mode — uma simulação onde o sistema revisa as falhas do dia, testa milhares de caminhos alternativos e retorna pela manhã mais sábio.

Isto não é uma metáfora. Esta é uma arquitetura para inteligência coletiva de máquinas.

Clone & Run

Baixe, faça fork e execute localmente agora mesmo. O repositório completo está disponível no GitHub sem registro.

Modelo de licença: Apache 2.0 + BUSL 1.1 (núcleo aberto + módulos protegidos com código-fonte disponível). Verifique os termos no GitHub.
Data de alteração do módulo BUSL: 18 de março de 2030.

v3.5.7 Último Lançamento 2026-04-12
445+ Commits
5 581 Testes Pytest completos (v3.5.7)
4 Perfis de Implantação

Por Que Isto É Diferente

IA Que Não Adivinha

Os solvers vão primeiro. O verificador confere. O LLM só entra quando o solver correto não é suficiente.

IA Que Lembra de Tudo

O MAGMA registra decisões, fontes, replays e pontuações de confiança. Veja o que aconteceu, por que e em que ordem.

IA Que Aprende Durante a Noite

O Dream Mode revisa falhas, simula melhores rotas e constrói modelos melhores para o dia seguinte.

IA Que Mostra Seu Estado

O Hologram Brain torna o estado de 32 nós visível em tempo real. Você não está vendo uma caixa preta — está vendo um sistema funcionando.

IA Que Fica Na Sua Rede

Tudo roda no seu próprio ambiente. Sem nuvem obrigatória, sem dados de prompt saindo, sem dependência de SaaS.

IA Que Escala

O mesmo código funciona do Raspberry Pi ao perfil de fábrica. Não é apenas um demo, não é apenas um framework.

Perfis de Implantação — mesmo runtime, quatro perfis

Dispositivo GADGET

RPi, edge, sensor

Cabana COTTAGE

Offline, conexão intermitente

Residência HOME

Automação local

Fábrica FACTORY

Monitoramento, anomalias, auditoria

O painel e o Hologram Brain ficam disponíveis imediatamente após a inicialização. A velocidade da primeira resposta depende do perfil, do hardware e do modo completo ou stub utilizado.

O que acontece quando você clica em “Analisar Repositório”?

1

O prompt é enviado diretamente ao Grok — e copiado para sua área de transferência como backup

2

O Grok abre em uma nova aba com o prompt pronto

3

Você recebe uma análise abrangente do repositório, uma comparação pontuada com concorrentes e uma avaliação de prontidão para fábrica

Se o preenchimento automático não funcionar, cole manualmente — o prompt já está na sua área de transferência.

Você também pode usar o mesmo prompt no Claude, ChatGPT ou qualquer outro LLM. O Grok é a escolha padrão nesta página.

O Que o Grok Analisa

Quando você clica em “Analisar Repositório”, a IA realiza uma análise profunda cobrindo:

1
Estado Atual do Código

Branch principal, arquitetura, módulos e commits mais recentes

2
README vs. Realidade

O que está implementado vs. o que é planejado ou aspiracional

3
Testes e Maturidade

Cobertura de testes, maturidade prática e prontidão para produção

4
Hologram Brain e MAGMA

Modelo de memória, arquitetura de auditoria, proveniência e mecanismos de confiança

5
Comparação com Concorrentes

Pontuação de 1-10 em seis eixos vs Residência Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Avaliação de Implantação em Fábrica

Casos de uso industriais, riscos, integrações ausentes, bloqueadores de implantação

Prompts de Acompanhamento Grok

Clique em um prompt para copiá-lo. Cole na sua sessão do Grok para exploração mais profunda.

Como Conectar o WaggleDance?

Escolha um perfil e obtenha um guia de implantação personalizado do Grok.

Como o WaggleDance se Compara

Cada ferramenta abaixo é boa no que faz. A comparação visa mostrar como a arquitetura solver-first do WaggleDance difere — não afirmar que as outras são ruins.

vs. Residência Assistant

  • HA: Regras determinísticas e automações, mas sem roteamento baseado em solver antes do LLM.
  • WD: Roteamento solver-first (7+ solvers determinísticos) → verificador → LLM apenas como fallback. Cada decisão auditável via rastro MAGMA.
  • HA: Sem treinamento autônomo de modelos, sem aprendizado noturno.
  • WD: 8 modelos especialistas sklearn + Dream Mode com aprendizado noturno e ciclo de vida canary.
  • Vantagem do HA: excelente ecossistema de integrações (2000+ integrações).

vs. LangGraph

  • LG: Multi-agente baseado em grafos, mas centrado no LLM — tudo passa pelo LLM.
  • WD: Solver-first. O LLM é a Camada 1 (última), não a Camada 3 (primeira).
  • LG: Sem auditoria append-only, sem treinamento de modelos canary, sem simulação dream mode.
  • WD: MAGMA com proveniência de 5 camadas + 8 modelos especialistas + simulações contrafactuais.
  • Vantagem do LG: ecossistema de nuvem e documentação mais fortes.

vs. AutoGen / CrewAI

  • AG/CA: Frameworks multi-agente, mas sem solvers determinísticos.
  • WD: 7+ solvers determinísticos são roteados ANTES de qualquer chamada LLM.
  • AG/CA: Sem perfis edge/fábrica, sem arquitetura offline-first.
  • WD: 4 perfis (GADGET → FACTORY), totalmente offline, do ESP32 ao DGX.
  • AG/CA: Sem aprendizado noturno autônomo ou promoção canary.

vs. Ollama / LocalAI

  • Ollama: Motor de LLM local, sem arquitetura de tomada de decisão.
  • WD: Usa o Ollama como um componente (fallback da Camada 1), mas constrói roteamento de solvers, auditoria MAGMA, modelos especialistas e Dream Mode por cima.
  • Ollama é o motor. WaggleDance é o carro inteiro.

vs. n8n / Node-RED

  • n8n/NR: Ferramentas de automação de fluxo de trabalho visuais, excelentes editores de fluxo.
  • WD: Não é um editor visual de fluxo, mas um runtime multi-agente autônomo que aprende e melhora.
  • n8n/NR: Sem modelos sklearn, sem proveniência append-only, sem simulação contrafactual.
  • WD: 8 modelos + 9 bancos de dados SQLite + ChromaDB/FAISS + Dream Mode.

Implantação — Vantagem do WD

  • Docker: clone → docker compose up -d — Ollama, Voikko (NLP finlandês) e o aplicativo, tudo em um.
  • Sem instalações manuais separadas no modo Docker.
  • 4 perfis com detecção automática de hardware (GADGET / COTTAGE / HOME / FACTORY).

Evolução Temporal — A Vantagem Decisiva do WD Sobre TODOS os Concorrentes

Nenhum concorrente melhora autonomamente ao longo do tempo. O WaggleDance é o único que constrói expertise cumulativa.

TempoWaggleDanceResidência AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Dia 1LLM fallback ~30-50%, solvers aprendendoIgual a sempreIgual a sempreIgual a sempreIgual a sempreIgual a sempre
Mês 1HotCache preenchido, LLM ~20-30%, primeiras promoções canarySem mudançaSem mudançaSem mudançaSem mudançaSem mudança
Mês 6LLM ~10-15%, especialistas amadurecendo, ~180 noites de Dream ModeSem mudançaSem mudançaSem mudançaSem mudançaSem mudança
Ano 1LLM ~5-8%, MAGMA com milhares de caminhos auditadosSem mudançaSem mudançaSem mudançaSem mudançaSem mudança
Ano 2LLM <3-5%, >95% determinístico, TCO uma fração do dia 1Sem mudançaSem mudançaSem mudançaSem mudançaSem mudança

A coluna dos concorrentes está vazia em todos os lugares exceto no dia 1. Eles não aprendem. Eles não melhoram. No dia 730, são exatamente iguais ao dia 1.

Perguntas Frequentes

O WaggleDance Swarm AI é gratuito?

Sim. Baixe e execute imediatamente. As partes Apache 2.0 são de uso livre. O uso pessoal não comercial dos módulos protegidos por BUSL é permitido. Para uso comercial, verifique os termos da licença no GitHub.

Requer conexão com a internet?

Não. O WaggleDance foi projetado para funcionar totalmente offline em hardware local. A internet só é necessária para a configuração inicial e atualizações.

Que hardware é necessário?

Mínimo: Raspberry Pi 4 ou equivalente (perfil GADGET). Recomendado: servidor x86 moderno para orquestração multi-agente (perfil FACTORY).

Por que Grok para análise?

Você obtém uma rápida segunda opinião técnica sobre o repositório público, documentação e cenário competitivo. Pode usar o mesmo prompt no Claude, ChatGPT ou qualquer outro LLM.

O que é o MAGMA?

Um framework de auditoria e proveniência. Cada decisão de agente é registrada para que você tenha rastreabilidade, replay e visibilidade da avaliação de confiança.

O que é o Dream Mode?

Um modo de aprendizado noturno onde o sistema revisa as falhas do dia, simula melhores rotas e constrói modelos melhores para o dia seguinte — automaticamente sem ação do usuário.

O que acontece após a primeira inicialização?

O painel e o Hologram Brain ficam disponíveis imediatamente. A velocidade da primeira resposta depende do perfil e do hardware.

Media