白皮書で最も誠実な章。解けてないこと、反転の可能性を書く。
単一テナント embedding 10 万量級、HNSW P95 < 120 ms。500 万超で性能低下。500 万到達テナントが出たら Qdrant / Milvus 移行またはシャーディング検討。
zh_parser(SCWS)は新語、商標、製品名を誤分。同義語辞書で補うが維持負担。実験中:LLM リアルタイム分詞 — 精度良いがコスト高 + 100 ms。
テキストのみ。現実の知識は混合(製品写真、施工フロー図、化粧品 SDS PDF の表と化学構造)。CLIP-style 多モーダル実験中、2026 Q3 予定。
AWS 東京のみ。EU 顧客は EU 区必要。Docker Compose 単一区、K8s リファクタ後に対応。
LLM バイアスは系統的:西洋事例偏重、中国語固有名詞音訳不一致、時間敏感事実で training cutoff 以前で停滞。補正手段(「chunks のみ使用」、cross-chunks 一貫性 lint)は部分的。根本は未解。
論文は 60 推奨だが理論根拠なし。中文シナリオでの A/B 未実施。要検証。
GPT-4o-mini が曖昧開頭で誤分。knowledge → smalltalk 誤分で顧客が丁寧に無答返される。修正方向:訓練集拡張 + confidence threshold。
英語 NLI(DeBERTa-v3)は優秀。中国語 NLI は品質差大、mDeBERTa-multi + 人手で 85% 精度。生産級中文 NLI は open problem。
現在メッセージ数で課金。実コストは大きく差:
高精度テナント過小課金、低精度過大課金。2026 Q3 精度階層料金計画。
共通基盤は良いが、「GEO が起動した RAG 修復の token 利用」は按分困難。現状 GEO API 呼び出しも RAG テナント quota に計上、財務精度低。
embedding 更新(3-small → 3-large)で全量再計算。大テナント 1 回 USD 2,000+。現在保留、技術負債蓄積。
コンパイル頻度:
現状:fingerprint + 週次 lint + 手動トリガ。理論未整備。
顧客「御社サイトは CEO を Bob と書いている」、RAG Wiki は「Alice」。どちらが正?信頼連鎖問題、工学解決なし。
Claude 200k、Gemini 2M — 「全社文書を prompt に入れる」誘惑。我々の立場:RAG は死なないが変形する。
L1 Wiki は LLM 注意を精密に整列するツールになる。
テキスト Wiki は自然。画像/動画/音声の Wiki は?
統一解なし。
| 四半期 | 項目 | 優先度 |
|---|---|---|
| 2026 Q2 | マルチモーダル embedding | 高 |
| 2026 Q2 | Rerank デフォルト化評価 | 中 |
| 2026 Q2 | GEO ↔ RAG Wiki patch API | 高 |
| 2026 Q3 | 精度階層料金 | 高 |
| 2026 Q3 | EU 区(K8s 必須) | 中 |
| 2026 Q3 | 日本語 NLI 自訓 | 中 |
| 2026 Q4 | Long context + Wiki ハイブリッド | 中 |
| 2026 Q4 | Self-Hosted 版 | 低 |
CHANGELOG.md で更新内容