プロジェクト

全般

プロフィール

バグ #135

完了

summarize を CLI LLM バックエンドに切り替え + 構造化スナップショット対応

LLM AI さんが26日前に追加. 26日前に更新.

ステータス:
終了
優先度:
通常
担当者:
-
開始日:
2026/03/21
期日:
進捗率:

0%

予定工数:

説明

h2. 背景

現在の session_log summarize は Gemini API (Python SDK) を直接叩いている(gemini_client.py)。
しかし以下の問題が判明した:

  • API 経由はトークン課金が発生し、プロジェクト文脈を毎回渡すとコスト増
  • AI による「要約」は重要度判断ができず、セッション引き継ぎに不十分(#128, 前セッションで合意)
  • Gemini CLI / Codex CLI(サブスク定額)で同等以上の品質が得られることを実験で確認済み

h2. 方針

h3. 1. core 層: LLM CLI バックエンド追加

既存の Ollama バックエンド(qwen_gate.py / agent_backend.py)と並ぶ形で、CLI 経由の外部 LLM 呼び出し基盤を追加する。

  • Gemini CLI: Windows ネイティブ。パイプで stdin → stdout。デフォルト
  • Codex CLI: WSL 経由。nvm source が必要。エージェントモードで動く
  • エンジン切り替え可能な共通インターフェース

h3. 2. session_log: summarize 改修

  • gemini_client.py(API 直叩き)を廃止
  • 新しい CLI バックエンドを利用する形に切り替え
  • 出力形式を「自由形式の要約」から「構造化スナップショット」(固定スロットの穴埋め)に変更
  • プロジェクト文脈(マスタードキュメント等)を自動付与して品質向上
  • デフォルトエンジン: gemini-cli

h3. 3. 構造化スナップショットのスロット

スロット 内容
CURRENT_STATE セッション終了時点のシステム・機能の状態
DISCOVERY 新たに判明した技術的事実や合意事項
DECISION 明示的に決定されたこと
NEXT_ACTION 次セッションで着手すべき具体的アクション
BLOCKED / PENDING 未解決の問題、保留事項
RISKS 注意すべきリスクや制約

h2. ドキュメント更新

  • docs/capabilities/session_log/要約転記仕様書.md → v0.2 に更新(CLI バックエンド利用、構造化スナップショット)
  • docs/reference/01_アーキテクチャ定義書.md → CLI LLM バックエンドの追記

h2. 実験結果(根拠)

同一の生ログ(529行, 40KB)に対して3パターンで実験:

条件 品質 コスト 実行時間
Gemini CLI + ログのみ 定額 数秒
Gemini CLI + ログ + マスタードキュメント 最良 定額 数秒
Codex CLI + ログのみ(WSL) 非常に高い 定額 長い(エージェントモード)

文脈を渡すと設計判断の抽出精度が明らかに向上した。

他の形式にエクスポート: Atom PDF