Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

Die meisten KI-Systeme machen denselben Fehler.

Sie fragen zuerst das Sprachmodell und hoffen, dass die Antwort richtig klingt.

Die Natur hat dieses Problem vor Millionen von Jahren gelöst.

In einem Bienenstock wird eine Entdeckung nicht zur Entscheidung, nur weil ein einzelner Akteur es sagt. Eine Späherbiene kehrt zum Stock zurück und tanzt eine Acht auf der vertikalen Wabenoberfläche — der Winkel des geraden Abschnitts zeigt die Richtung, die Dauer die Entfernung, die Intensität die Qualität. Aber der Tanz ist kein Monolog. Erfahrenere Schwestern folgen der Tänzerin, berühren sie mit ihren Fühlern und geben Echtzeit-Feedback. Ein Stoppsignal kann den Tanz vollständig beenden. Erst wenn die Nachricht die Prüfung der Gemeinschaft übersteht, entsteht eine Route, die es wert ist, verfolgt zu werden.

WaggleDance basiert auf dieser Logik.

Es übergibt das Problem nicht direkt an ein LLM. Es leitet es zuerst an den richtigen Solver weiter, verifiziert das Ergebnis durch mehrere Agenten und nutzt ein Sprachmodell nur dann, wenn es wirklich hilft. Jeder Schritt hinterlässt eine auditierbare Spur. Jede Lösung ist begründbar. Jeder Zyklus baut die eigene Expertise des Systems aus.

Der Achtertanz wurde zu algorithmischem Routing. Die Wabe wurde zur MAGMA-Speicherarchitektur. Und die nächtliche Ruhe der Bienen wurde zum Dream Mode — einer Simulation, in der das System die Fehler des Tages überprüft, Tausende alternativer Pfade testet und am nächsten Morgen klüger zurückkehrt.

Das ist keine Metapher. Das ist eine Architektur für kollektive Maschinenintelligenz.

Clone & Run

Jetzt herunterladen, forken und lokal ausführen. Das gesamte Repository ist auf GitHub ohne Registrierung verfügbar.

Lizenzmodell: Apache 2.0 + BUSL 1.1 (offener Kern + quellverfügbare geschützte Module). Prüfen Sie die Bedingungen auf GitHub.
BUSL-Modul-Änderungsdatum: 18. März 2030.

v3.5.7 Neueste Version 2026-04-12
445+ Commits
5 581 Vollständige Pytests (v3.5.7)
4 Bereitstellungsprofile

Warum das anders ist

KI, die nicht rät

Solver gehen zuerst. Der Verifizierer prüft. Das LLM kommt nur hinzu, wenn der richtige Solver nicht ausreicht.

KI, die sich an alles erinnert

MAGMA zeichnet Entscheidungen, Quellen, Replays und Vertrauenswerte auf. Sehen Sie, was passiert ist, warum und in welcher Reihenfolge.

KI, die über Nacht lernt

Dream Mode überprüft Fehler, simuliert bessere Routen und baut bessere Modelle für den nächsten Tag.

KI, die ihren Zustand zeigt

Hologram Brain macht den Zustand von 32 Knoten in Echtzeit sichtbar. Sie beobachten keine Black Box — Sie beobachten ein arbeitendes System.

KI, die in Ihrem Netzwerk bleibt

Alles läuft in Ihrer eigenen Umgebung. Keine obligatorische Cloud, keine Prompt-Daten, die abfließen, keine SaaS-Abhängigkeit.

KI, die skaliert

Dieselbe Codebasis funktioniert vom Raspberry Pi bis zum Fabrikprofil. Nicht nur eine Demo, nicht nur ein Framework.

Bereitstellungsprofile — gleiche Laufzeit, vier Profile

Gerät GADGET

RPi, Edge, Sensor

Hütte COTTAGE

Offline, intermittierende Verbindung

Zuhause HOME

Lokale Automatisierung

Fabrik FACTORY

Überwachung, Anomalien, Audit

Dashboard und Hologram Brain sind sofort nach dem Start verfügbar. Die Geschwindigkeit der ersten Antwort hängt vom Profil, der Hardware und der Nutzung des Voll- oder Stub-Modus ab.

Was passiert, wenn Sie auf “Repository analysieren” klicken?

1

Der Prompt wird direkt an Grok gesendet — und als Backup in Ihre Zwischenablage kopiert

2

Grok öffnet sich in einem neuen Tab mit dem fertigen Prompt

3

Sie erhalten eine umfassende Analyse des Repositories, einen bewerteten Wettbewerbsvergleich und eine Fabrik-Bereitschaftsbewertung

Wenn das automatische Ausfüllen nicht funktioniert, fügen Sie manuell ein — der Prompt befindet sich bereits in Ihrer Zwischenablage.

Sie können denselben Prompt auch in Claude, ChatGPT oder jedem anderen LLM verwenden. Grok ist die Standardwahl auf dieser Seite.

Was Grok analysiert

Wenn Sie auf “Repository analysieren” klicken, führt die KI eine tiefgehende Analyse durch, die Folgendes umfasst:

1
Aktueller Stand der Codebasis

Hauptbranch, Architektur, Module und neueste Commits

2
README vs. Realität

Was ist implementiert vs. was ist geplant oder angestrebt

3
Tests und Reife

Testabdeckung, praktische Reife und Produktionsbereitschaft

4
Hologram Brain und MAGMA

Speichermodell, Audit-Architektur, Provenienz und Vertrauensmechanismen

5
Wettbewerbsvergleich

Bewertung 1-10 auf sechs Achsen vs Zuhause Assistant, Node-RED, n8n, Open WebUI, LangGraph, AutoGen, CrewAI, Ollama

6
Fabrik-Bereitstellungsbewertung

Industrielle Anwendungsfälle, Risiken, fehlende Integrationen, Bereitstellungsblocker

Grok-Folgeprompts

Klicken Sie auf einen Prompt, um ihn zu kopieren. Fügen Sie ihn für eine tiefere Erkundung in Ihre Grok-Sitzung ein.

Wie verbinde ich WaggleDance?

Wählen Sie ein Profil und erhalten Sie einen maßgeschneiderten Bereitstellungsleitfaden von Grok.

Wie WaggleDance im Vergleich abschneidet

Jedes der folgenden Tools ist gut in dem, was es tut. Der Vergleich soll zeigen, wie sich die Solver-first-Architektur von WaggleDance unterscheidet — nicht behaupten, dass die anderen schlecht sind.

vs. Zuhause Assistant

  • HA: Deterministische Regeln und Automatisierungen, aber kein Solver-basiertes Routing vor dem LLM.
  • WD: Solver-first-Routing (7+ deterministische Solver) → Verifizierer → LLM nur als Fallback. Jede Entscheidung über MAGMA-Trail auditierbar.
  • HA: Kein autonomes Modelltraining, kein nächtliches Lernen.
  • WD: 8 sklearn-Spezialistenmodelle + Dream Mode nächtliches Lernen mit Canary-Lebenszyklus.
  • Vorteil von HA: hervorragendes Integrations-Ökosystem (2000+ Integrationen).

vs. LangGraph

  • LG: Graphbasierter Multi-Agent, aber LLM-zentriert — alles läuft durch das LLM.
  • WD: Solver-first. Das LLM ist Schicht 1 (letzte), nicht Schicht 3 (erste).
  • LG: Kein Append-only-Auditing, kein Canary-Modelltraining, keine Dream-Mode-Simulation.
  • WD: MAGMA 5-Schichten-Provenienz + 8 Spezialistenmodelle + kontrafaktische Simulationen.
  • Vorteil von LG: stärkeres Cloud-Ökosystem und Dokumentation.

vs. AutoGen / CrewAI

  • AG/CA: Multi-Agenten-Frameworks, aber ohne deterministische Solver.
  • WD: 7+ deterministische Solver werden VOR jedem LLM-Aufruf geroutet.
  • AG/CA: Keine Edge-/Fabrikprofile, keine Offline-first-Architektur.
  • WD: 4 Profile (GADGET → FACTORY), vollständig offline, vom ESP32 bis DGX.
  • AG/CA: Kein autonomes nächtliches Lernen oder Canary-Promotion.

vs. Ollama / LocalAI

  • Ollama: Lokale LLM-Engine, keine Entscheidungsarchitektur.
  • WD: Nutzt Ollama als eine Komponente (Schicht-1-Fallback), baut aber Solver-Routing, MAGMA-Auditing, Spezialistenmodelle und Dream Mode darauf auf.
  • Ollama ist der Motor. WaggleDance ist das ganze Auto.

vs. n8n / Node-RED

  • n8n/NR: Visuelle Workflow-Automatisierungstools, hervorragende Flow-Editoren.
  • WD: Kein visueller Flow-Editor, sondern eine autonome Multi-Agenten-Laufzeitumgebung, die lernt und sich verbessert.
  • n8n/NR: Keine sklearn-Modelle, keine Append-only-Provenienz, keine kontrafaktische Simulation.
  • WD: 8 Modelle + 9 SQLite-Datenbanken + ChromaDB/FAISS + Dream Mode.

Bereitstellung — WDs Vorteil

  • Docker: clone → docker compose up -d — Ollama, Voikko (finnisches NLP) und die App alles in einem.
  • Keine separaten manuellen Installationen im Docker-Modus.
  • 4 Profile mit automatischer Hardware-Erkennung (GADGET / COTTAGE / HOME / FACTORY).

Zeitliche Entwicklung — WDs entscheidender Vorteil gegenüber ALLEN Wettbewerbern

Kein Wettbewerber verbessert sich autonom über die Zeit. WaggleDance ist das einzige System, das kumulative Expertise aufbaut.

ZeitWaggleDanceZuhause AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
Tag 1LLM-Fallback ~30-50%, Solver lernenWie immerWie immerWie immerWie immerWie immer
Monat 1HotCache gefüllt, LLM ~20-30%, erste Canary-PromotionsKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine Änderung
Monat 6LLM ~10-15%, Spezialisten reifen, ~180 Nächte Dream ModeKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine Änderung
Jahr 1LLM ~5-8%, MAGMA mit Tausenden auditierten PfadenKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine Änderung
Jahr 2LLM <3-5%, >95% deterministisch, TCO ein Bruchteil von Tag 1Keine ÄnderungKeine ÄnderungKeine ÄnderungKeine ÄnderungKeine Änderung

Die Spalte der Wettbewerber ist überall außer am Tag 1 leer. Sie lernen nicht. Sie verbessern sich nicht. Am Tag 730 sind sie genau gleich wie am Tag 1.

Häufig gestellte Fragen

Ist WaggleDance Swarm AI kostenlos?

Ja. Sofort herunterladen und ausführen. Apache-2.0-Teile sind frei nutzbar. Nicht-kommerzielle persönliche Nutzung der BUSL-geschützten Module ist erlaubt. Für kommerzielle Nutzung prüfen Sie die Lizenzbedingungen auf GitHub.

Wird eine Internetverbindung benötigt?

Nein. WaggleDance ist für den vollständig offline Betrieb auf lokaler Hardware konzipiert. Internet wird nur für die Ersteinrichtung und Updates benötigt.

Welche Hardware wird benötigt?

Minimum: Raspberry Pi 4 oder Äquivalent (GADGET-Profil). Empfohlen: moderner x86-Server für Multi-Agenten-Orchestrierung (FACTORY-Profil).

Warum Grok für die Analyse?

Sie erhalten eine schnelle zweite technische Meinung zum öffentlichen Repository, zur Dokumentation und zur Wettbewerbslandschaft. Sie können denselben Prompt in Claude, ChatGPT oder jedem anderen LLM verwenden.

Was ist MAGMA?

Ein Audit- und Provenienz-Framework. Jede Agenten-Entscheidung wird aufgezeichnet, sodass Sie Nachverfolgbarkeit, Replay und Sichtbarkeit der Vertrauensbewertung erhalten.

Was ist Dream Mode?

Ein nächtlicher Lernmodus, in dem das System die Fehler des Tages überprüft, bessere Routen simuliert und bessere Modelle für den nächsten Tag baut — automatisch ohne Benutzereingriff.

Was passiert nach dem ersten Start?

Dashboard und Hologram Brain sind sofort verfügbar. Die Geschwindigkeit der ersten Antwort hängt vom Profil und der Hardware ab.

Media