企業コンテキストなしのAI自動化は汎用的な出力を生成します。レシピは素晴らしい競合分析を書けますが、あなたの製品名を知りません。インシデント対応を起草できますが、あなたのランブックに何が書いてあるか知りません。
ナレッジベースがこれを解決します。ドキュメントをアップロードすると、JieGouが**Retrieval-Augmented Generation(RAG)**を通じてすべてのレシピとワークフロー実行に関連コンテンツを自動注入します。
ドキュメントの処理方法
以下のフォーマットでファイルをアップロード:PDF、DOCX、CSV、XLSX、TXT、Markdown、HTML。またはURLから直接インポート。
アップロード後、ドキュメントはマルチステージ処理パイプラインを通ります:
1. チャンキング。 ドキュメントは2層戦略で分割されます。まず#と##マークダウン見出しでスキャンし、その境界で分割 — 整理されたドキュメントの論理構造を保持します。見出しのない非構造化ドキュメントには段落ベースの分割にフォールバック。
2. 要約。 各チャンクにClaudeによる200〜400語のLLM生成要約が付きます。
3. エンベディング。 各チャンクはOpenAI text-embedding-3-small(1536次元)で埋め込まれます。エンベディングはチャンクコンテンツとメタデータと共にFirestoreに保存 — 外部ベクターデータベース不要。
実行時の検索の仕組み
- ユーザーのプロンプトまたはステップの入力からクエリエンベディングを生成
- 関連ナレッジベースのすべてのチャンクエンベディングに対してコサイン類似度検索を実行
- 最小類似度閾値0.3未満のチャンクを破棄
- トップk選択がトークン予算内で最良のマッチを選択 — デフォルトは5チャンク、最大8,000トークン
- 選択されたチャンクがXML
<reference_documents>ブロックとしてLLMプロンプトに注入 - 閾値を満たすエンベディングがない場合、要約ベースのコンテキストにフォールバック
3層コンテキスト解決
| ティア | 仕組み | 使用タイミング |
|---|---|---|
| 明示的ドキュメントID | 実行時に渡される特定のドキュメントID | どのドキュメントが関連か正確に分かっている時 |
| レシピ/ワークフロー添付 | knowledgeBaseIdsフィールドでリンクされたナレッジベース | 特定のドキュメントが常に特定のレシピに付随すべき時 |
| 自動コンテキスト | isAutoContext: trueマーク付き、部門スコープのナレッジベース | ドキュメントが部門内のすべての実行で利用可能であるべき時 |
フィードバック駆動の関連性
ユーザーが実行の品質に対してサムズアップまたはサムズダウンフィードバックを提供すると、システムが将来の検索のためにチャンク関連性スコアを調整します。
スコアリングはラプラス平滑化を使用:score = (ups + 1) / (ups + downs + 2)。ブーストファクターは0.5xから1.5xの範囲。
ナレッジキャプチャ:良い出力からの学習
レシピ実行が正のフィードバックを受けるか、Quality Guardで高スコアを獲得すると、システムはその出力から構造化されたナレッジを自動キャプチャします。
結果:AIシステムが自身の良い出力から文字通り学習します。今日の優れた競合分析が、明日の戦略ブリーフの検索可能なコンテキストになります。
ドキュメントの鮮度
URLから取得したドキュメントはrefreshIntervalDays設定で自動再取得を設定できます。SHA-256コンテンツハッシュを比較し、変更がない場合は処理を停止。変更がある場合は、影響を受けたチャンクのみ再処理されます。
Write-to-KBワークフローステップ
ワークフローは専用のWrite-to-KBステップタイプを使用して出力を直接ナレッジベースに書き込めます。時間の経過とともにナレッジを蓄積するワークフローを実現します。
利用可能プラン
RAG付きナレッジベースはProプラン以上で利用可能です。すべての機能について詳しく学ぶ。