Suomi English 中文 हिन्दी Español Français العربية বাংলা Português Русский 日本語 Deutsch 한국어 Türkçe Tiếng Việt Bahasa Indonesia ᚠᚢᚦᚨᚱᚲ 𓂩𓂁𓂣 𓉐 Italiano Kiswahili Nederlands Polski Українська ภาษาไทย فارسی اردو Bahasa Melayu ਪੰਜਾਬੀ עִבְרִית Esperanto संस्कृतम् Latina मराठी తెలుగు தமிழ் Basa Jawa Tagalog Hausa Yorùbá አማርኛ עברית ગુજરાતી Svenska Norsk Latviešu Lietuvių Eesti
Ahkerat Mehiläiset

ほとんどのAIシステムは同じ間違いを犯しています。

まず言語モデルに質問し、回答がもっともらしいことを祈るのです。

自然界はこの問題を数百万年前に解決していました。

ミツバチの巣では、発見が一匹の意見だけで決定にはなりません。偵察バチは巣に戻り、垂直な巣板の上で8の字ダンスを踊ります。直進部分の角度が方向を示し、持続時間が距離を示し、力強さが質を示します。しかしこのダンスは一方通行ではありません。経験豊富な姉妹バチがダンサーに従い、触角で触れ、リアルタイムでフィードバックを行います。停止信号はダンスを完全に中断させることもあります。メッセージがコミュニティの精査を通過したときにのみ、従う価値のあるルートが生まれるのです。

WaggleDanceはこの論理に基づいて構築されています。

問題を直接LLMに渡すことはしません。まず適切なソルバーにルーティングし、複数のエージェントで結果を検証し、言語モデルは本当に役立つ場合にのみ使用します。すべてのステップが監査可能な記録を残します。すべての解決策には根拠があります。すべてのサイクルがシステム自身の専門知識を向上させます。

8の字ダンスはアルゴリズミックルーティングになりました。ハニカムはMAGMAメモリアーキテクチャになりました。そしてミツバチの夜間休息はDream Modeになりました — システムがその日の失敗をレビューし、数千の代替パスをテストし、翌朝より賢くなって戻るシミュレーションです。

これは比喩ではありません。これは集合的機械知能のアーキテクチャです。

Clone & Run

今すぐダウンロード、フォークして、ローカルで実行できます。リポジトリ全体がGitHubで登録不要で利用可能です。

ライセンスモデル: Apache 2.0 + BUSL 1.1(オープンコア + ソースコード公開の保護モジュール)。条件はGitHubでご確認ください。
BUSLモジュール変更日: 2030年3月18日。

v3.5.7 最新リリース 2026-04-12
445+ コミット数
5 581 完全なPytest (v3.5.7)
4 デプロイメントプロファイル

なぜこれが違うのか

推測しないAI

ソルバーが先に動きます。検証器がチェックします。適切なソルバーでは不十分な場合にのみLLMが参加します。

すべてを記憶するAI

MAGMAは決定、ソース、リプレイ、信頼スコアを記録します。何が起きたか、なぜ、どの順序で起きたかを確認できます。

一晩で学習するAI

Dream Modeが失敗をレビューし、より良いルートをシミュレーションし、翌日のためにより良いモデルを構築します。

状態を可視化するAI

Hologram Brainが32ノードの状態をリアルタイムで可視化します。ブラックボックスではなく、稼働中のシステムを見ることができます。

自社ネットワーク内で動くAI

すべて自社環境で実行されます。クラウド強制なし、プロンプトデータの外部送信なし、SaaS依存なし。

スケールするAI

Raspberry Piから工場プロファイルまで同一のコードベースで動作します。単なるデモでも、単なるフレームワークでもありません。

デプロイメントプロファイル — 同一ランタイム、4つのプロファイル

デバイス GADGET

RPi、エッジ、センサー

コテージ COTTAGE

オフライン、間欠接続

ホーム HOME

ローカルオートメーション

ファクトリー FACTORY

監視、異常検知、監査

起動後すぐにダッシュボードとHologram Brainが利用可能です。初回応答速度はプロファイル、ハードウェア、フルモードかスタブモードかにより異なります。

“リポジトリを分析”をクリックすると何が起こりますか?

1

プロンプトがGrokに直接送信され、バックアップとしてクリップボードにもコピーされます

2

Grokが新しいタブでプロンプトとともに開きます

3

リポジトリの包括的な分析、スコア付き競合比較、産業利用対応度の評価が得られます

プリフィルが機能しない場合は、手動で貼り付けてください — プロンプトはすでにクリップボードにあります。

同じプロンプトをClaude、ChatGPT、その他のLLMでも使用できます。このページではGrokがデフォルトの選択肢です。

Grokが分析する内容

“リポジトリを分析”をクリックすると、AIが以下の項目を深く分析します:

1
現在のコードベースの状態

メインブランチ、アーキテクチャ、モジュール、最新のコミット

2
READMEと現実

実装済みの機能と計画中または目標段階の機能

3
テストと成熟度

テストカバレッジ、実用的な成熟度、プロダクション対応度

4
Hologram BrainとMAGMA

メモリモデル、監査アーキテクチャ、出所追跡、信頼メカニズム

5
競合比較

ホーム Assistant、Node-RED、n8n、Open WebUI、LangGraph、AutoGen、CrewAI、Ollamaと6軸で1-10のスコアリング

6
産業利用対応度の評価

産業ユースケース、リスク、不足している統合、デプロイメントの阻害要因

フォローアップGrokプロンプト

プロンプトをクリックしてコピーしてください。Grokセッションに貼り付けてより深く探索できます。

WaggleDanceの導入方法

プロファイルを選択して、Grokからカスタマイズされたデプロイメントガイドを取得してください。

WaggleDanceの比較

以下の各ツールはそれぞれの分野で優れています。この比較はWaggleDanceのソルバーファースト・ルーティングアーキテクチャがどう異なるかを示すもので、他のツールが劣っていると主張するものではありません。

vs. ホーム Assistant

  • HA: 決定論的ルールとオートメーションを持つが、LLMの前にソルバーベースのルーティングがない。
  • WD: ソルバーファースト・ルーティング(7つ以上の決定論的ソルバー) → 検証器 → LLMはフォールバックとしてのみ使用。すべての決定がMAGMAトレイルで監査可能。
  • HA: 自律的なモデル学習なし、一晩の学習なし。
  • WD: 8つのsklearn専門モデル + Dream Modeによる一晩の学習とカナリアライフサイクル。
  • HAの利点: 優れた統合エコシステム(2000以上の統合)。

vs. LangGraph

  • LG: グラフベースのマルチエージェントだが、LLM中心 — すべてがLLMを経由する。
  • WD: ソルバーファースト。LLMはレイヤー1(最後)であり、レイヤー3(最初)ではない。
  • LG: 追記専用の監査なし、カナリアモデル学習なし、Dream Modeシミュレーションなし。
  • WD: MAGMA 5層の出所追跡 + 8つの専門モデル + 反事実シミュレーション。
  • LGの利点: より強力なクラウドエコシステムとドキュメント。

vs. AutoGen / CrewAI

  • AG/CA: マルチエージェントフレームワークだが、決定論的ソルバーがない。
  • WD: 7つ以上の決定論的ソルバーがLLM呼び出しの前にルーティングされる。
  • AG/CA: エッジ/ファクトリープロファイルなし、オフラインファーストアーキテクチャなし。
  • WD: 4つのプロファイル(GADGET → FACTORY)、完全オフライン、ESP32からDGXまで。
  • AG/CA: 自律的な一晩の学習やカナリア昇格なし。

vs. Ollama / LocalAI

  • Ollama: ローカルLLMエンジンであり、意思決定アーキテクチャはない。
  • WD: Ollamaを1つのコンポーネント(レイヤー1フォールバック)として使用するが、その上にソルバールーティング、MAGMA監査、専門モデル、Dream Modeを構築。
  • Ollamaはエンジンです。WaggleDanceは車全体です。

vs. n8n / Node-RED

  • n8n/NR: ビジュアルワークフロー自動化ツール、優れたフローエディター。
  • WD: ビジュアルフローエディターではなく、学習し改善する自律的マルチエージェントランタイム。
  • n8n/NR: sklearnモデルなし、追記専用の出所追跡なし、反事実シミュレーションなし。
  • WD: 8つのモデル + 9つのSQLiteデータベース + ChromaDB/FAISS + Dream Mode。

デプロイメント — WDの優位性

  • Docker: clone → docker compose up -d — Ollama、Voikko(フィンランド語NLP)、アプリがすべて一体。
  • Dockerモードでは個別の手動インストールは不要。
  • 4つのプロファイルによる自動ハードウェア検出(GADGET / COTTAGE / HOME / FACTORY)。

時間的進化 — 全競合に対するWDの決定的優位性

時間とともに自律的に改善する競合は存在しません。WaggleDanceだけが累積的な専門知識を構築します。

期間WaggleDanceホーム AssistantLangGraphAutoGen/CrewAINode-RED/n8nOllama
初日LLMフォールバック約30-50%、ソルバー学習中変化なし変化なし変化なし変化なし変化なし
1か月後HotCacheが蓄積、LLM約20-30%、最初のカナリア昇格変化なし変化なし変化なし変化なし変化なし
6か月後LLM約10-15%、専門モデル成熟、Dream Mode約180夜分変化なし変化なし変化なし変化なし変化なし
1年後LLM約5-8%、MAGMAに数千の監査済みパス変化なし変化なし変化なし変化なし変化なし
2年後LLM 3-5%未満、95%以上が決定論的、TCOは初日の数分の一変化なし変化なし変化なし変化なし変化なし

競合の列は初日以外すべて空です。彼らは学習しません。改善しません。730日目も初日とまったく同じです。

よくある質問

WaggleDance Swarm AIは無料ですか?

はい。すぐにダウンロードして実行できます。Apache 2.0の部分は自由に使用可能です。BUSL保護モジュールの非商用個人利用は許可されています。商用利用についてはGitHubのライセンス条項をご確認ください。

インターネット接続は必要ですか?

いいえ。WaggleDanceはローカルハードウェアで完全にオフラインで動作するよう設計されています。インターネットは初期セットアップとアップデート時のみ必要です。

どのようなハードウェアが必要ですか?

最低要件: Raspberry Pi 4または同等品(GADGETプロファイル)。推奨: マルチエージェントオーケストレーション用の最新x86サーバー(FACTORYプロファイル)。

なぜ分析にGrokを使うのですか?

公開リポジトリ、ドキュメント、競合環境について迅速な技術的セカンドオピニオンが得られます。同じプロンプトをClaude、ChatGPT、その他のLLMでも使用できます。

MAGMAとは何ですか?

監査と出所追跡のフレームワークです。すべてのエージェントの決定が記録され、トレーサビリティ、リプレイ、信頼性評価の可視性が得られます。

Dream Modeとは何ですか?

一晩の学習モードです。システムがその日の失敗をレビューし、より良いルートをシミュレーションし、翌日のためのより良いモデルを構築します — ユーザーの操作なしで自動的に行われます。

初回起動後はどうなりますか?

ダッシュボードとHologram Brainがすぐに利用可能になります。初回応答速度はプロファイルとハードウェアによって異なります。

Media