NotebookLMでCSのナレッジ検索を効率化したCREの取り組み

 

こんにちは、CRE(Customer Reliability Engineering)の森田です。

前回の記事では、私たちが活用しているAIツールについてお話しました。

techblog.tebiki.co.jp

今回はその深掘りとして、「CS(カスタマーサクセス)業務におけるナレッジ検索の効率化」を目的としたAI活用、特に NotebookLM 導入についてご紹介します。

解決したかった課題:360件のナレッジと「Command(Control)+F」の限界

これまで、お客様からの問い合わせに対する社内ナレッジ(通称:リナポート)は約360件ほど存在し、主にスプレッドシートやJiraで管理されていました 。しかし、運用には以下の大きな課題がありました。

  • 検索の限界: スプレッドシートでの Command(Control)+F 検索では、表記ゆれがあるとヒットせず、適切な検索語の選定に個人の習熟度が求められていました 。
  • 高い探索コスト: 例えば「字幕が読み上げられない」という問い合わせについて、「字幕読み上げ」等でキーワードで検索すると、63件もの項目がヒットしてしまい、担当者はその中から正解を一つずつ探す必要がありました。
  • リードタイムへの影響: 本来ナレッジで解決できるはずの問い合わせが全体の約1割あり、起票から一次回答まで平均13時間要しているケースもありました 。

なぜChatGPTではなく「NotebookLM」だったのか

当初はChatGPT(GPTs)の活用も検討していました。 しかし、以下の理由から導入を断念しました。

  • 誤回答(ハルシネーション)のリスク:ユーザーへの誤回答は大きなトラブルに繋がります。ChatGPTの場合、与えたナレッジ外からの回答も多く、最終的な判断を利用者に委ねることになるため、そのリスクが拭いきれませんでした。
  • 導入コスト:当時の社内状況において、ChatGPTを業務フローに安全に組み込むための体制構築には、相応のコストが必要でした。

その点、NotebookLM は「アップロードしたソース(一次情報)のみに基づいて回答する」という性質を持っています。 tebikiの仕様書やFAQ、リナポートなどの正確な情報だけを読み込ませることで、ハルシネーションのリスクを最小限に抑えつつ、社内ナレッジに特化したAIを構築できると判断しました 。

とはいえ、AIの回答を鵜呑みにしないため、NotebookLMを利用するには、専用テストへの合格を必須としています。
このテストはCSチームが運用しており、AIの特性を正しく理解し、情報の真偽を自ら判断できるメンバーだけが活用できる仕組みを徹底しています。

 

自然言語で「答え」に直接たどり着く

NotebookLM導入後、具体的には以下のように検索がしやすくなりました。

Before:

「字幕読み上げ」で検索し、63件の候補を上から確認。

After:

「字幕が自動で読み上げられない場合に考えられる原因は?」と自然言語で質問。
AIがソースを元に「ブラウザ設定」「セキュリティ設定」「端末の仕様」など、考えられる原因を構造化して回答。
これにより、検索スキルに関わらず、誰でも迅速に正確な情報へアクセスできるようになりました 。

CREとしての運用と今後の課題

現在はCREチームで管理を行い、要望や仕様変更があった際は都度ソースを更新する体制をとっています 。
導入後の副次的な効果として、CS担当者がCREへエスカレーションする前に「まずはNotebookLMで確認する」という自走のサイクルが生まれつつあります。
一方で、以下の課題も見えてきています。

  • ソースの鮮度維持: 常に最新の一次情報を反映し続けるメンテナンス体制の強化。
  • プロンプトの工夫: より精度の高い回答を引き出すためのガイドライン整備。

まとめ

今回の取り組みは、単に「最新ツールを入れた」ことではなく、「どうすればリスクを抑えて、現場が最も使いやすい形で技術を届けられるか」という視点での解決策でした。 今後も、技術の力で顧客信頼性と業務効率を同時に高める挑戦を続けていきます。

ご案内

Tebiki社では一緒に働く仲間を募集しています。
ぜひ以下の採用サイトをご確認ください。

▼採用HP

tebiki.co.jp