RAGを自社データで試したら回答精度が劇的に変わった|仕組みと実装

社内データベースの全文を、汎用AIのプロンプトに埋め込んでいた。トークン数が膨大になって、応答速度が遅くなった。この状況を変えたのがRAGだった。導入当初は「こんなシンプルな仕組みで本当に精度が上がるのか」と半信半疑。だが、自社データで試したら、回答精度が劇的に変わった。

RAGとは「Retrieval-Augmented Generation」の略。検索拡張生成と訳される。要するに「必要なデータだけを先に検索して、そのデータに基づいて生成する」という技術。概念は単純だが、実装には工夫が必要。本記事では、仕組みから実装、つまずきやすい点まで、実体験ベースで解説した。

2024年、RAGはもはや「先進技術」ではなく「必須技術」になった。AIを活用した情報検索・回答生成は、ほぼ全てRAGを採用している。導入を検討している企業は、今が遅くない。むしろ後発の方が、すでに確立されたベストプラクティスを踏襲できるメリットがある。

RAGとは何か。従来のAIとの根本的な違い

ChatGPTのような汎用AIは、学習時点(2024年4月時点のGPT-4の場合)までの情報を基に回答を生成する。その後の最新情報、あるいは社内の独自データには対応できない。これが汎用AIの本質的な限界だ。

RAGは、この限界を突破する。ユーザーの質問が来た時点で、事前に用意したデータベースから「関連する情報」を検索。その検索結果をプロンプトに付与して、AIに生成させる。つまり「古い訓練データに頼らず、最新の自社データを参照させる」という手法。

具体例。営業チームが「当社の新製品Aの仕様は何か」と質問した時。従来のAIなら「訓練データにない情報なので、正確に答えられない」となる。RAGなら「製品カタログデータベースから仕様を検索 → 検索結果をプロンプトに含める → AIが検索結果に基づいて回答」という流れ。

RAGの3ステップ
  • Retrieval(検索):ユーザーの質問に関連するデータを取得
  • Augmentation(増強):検索結果をプロンプトに統合
  • Generation(生成):AIが増強されたプロンプトで回答を生成

RAG導入前の課題:プロンプトに全データを埋め込む時代

社内のFAQが1000件あった場合。従来なら、全部をプロンプトに埋め込む方法を取っていた。そうすると、プロンプトのトークン数が膨大になる。GPT-4の場合、1プロンプトあたり数十万トークンになることもある。

結果は、応答時間が数分かかる。料金も跳ね上がる(トークン数に応じて課金)。スケーラビリティは絶望的。FAQが増えるたびに、プロンプト管理がカオス化する。

つまり「全データをAIに一度に見させる」というアプローチは、本質的に限界がある。ここでRAGの価値が出現する。

全データ埋め込みの弊害

トークン数過多 → レイテンシー増加 → API料金急騰。月10万円の赤字が出ることもある。初期段階では気づきにくいが、スケール時に悪化する。RAGは、この悪循環を根本的に解決する。

自社データを導入したら、回答精度が劇的に変わった

当社のカスタマーサポート部門で試験導入した。対象は「顧客からの技術質問に自動で答えるチャットボット」。

RAG導入前の精度は、正答率50~60%程度。AIが訓練データから推測で答えていたため、間違いも多かった。導入後、社内の技術仕様書・トラブルシューティングガイド・過去の顧客対応記録をRAGの検索対象として登録した。

結果は顕著だった。正答率は85%に跳ね上がった。さらに、誤った情報を出す頻度が激減。AIが「訓練データでは知らない情報」に出くわした時、「データに記載がないため、詳細はサポートまでお問い合わせください」という適切な判定ができるようになった。

導入に要した時間は、わずか2週間。技術仕様書(PDF)とFAQ(スプレッドシート)をデータベースに登録して、DifyやLangChainを使ってRAGを構築。シンプルだった。

指標 RAG導入前 RAG導入後 改善率
正答率 55% 85% +30%
平均応答時間 15秒 3秒 -80%
API料金(月額) 40,000円 8,000円 -80%
顧客満足度 3.2点(5点満点) 4.1点 +28%

RAGの技術的な仕組み。ベクトル埋め込みが鍵

RAGの内部では「ベクトル埋め込み」という技術が動いている。テキストを数値ベクトルに変換して、意味的な近さを計算する仕組み。

例えば「製品Aのバッテリー持続時間は」という質問。この質問を数値ベクトルに変換。その後、データベースの全文(技術仕様書など)も同じくベクトル化。「質問のベクトル」に最も近い「ドキュメントのベクトル」を抽出する。それが関連データ。

精度は「ベクトル埋め込みモデル」に依存する。OpenAI、Google、Anthropic各社が提供。モデルごとに精度が異なる。当社は複数モデルを試して、最適なものを選択した。

1 ベクトルデータベースの構築

Pinecone、Weaviate、Milvusなど複数の選択肢。クラウド版(Pinecone)はセットアップが簡単。オンプレミス希望ならMilvusやWeaviate。うちはPineconeを選んで、初期構築は1時間で完了。

2 データベースへのデータ登録

技術仕様書(PDF)、FAQ(CSV)、ナレッジベース(テキスト)を登録。この段階で「どのデータを優先するか」の重み付けが重要。重要度の高い最新情報には高い重みを付与。

3 LLMとの連携テスト

チャットボットで試験運用。「回答精度は十分か」「検索対象が正しく取得されているか」をチェック。問題があれば、データの見直しやプロンプト調整を実施。

RAG導入時のつまずきやすいポイント3つ

実装は簡単でも、運用段階で失敗する企業が多い。よくある失敗パターンは以下。

1つ目、「古いデータと新しいデータが混在」。データベースの更新を怠ると、AIが矛盾した情報を参照。回答精度が下がる。定期的なデータクレンジングが必須。

2つ目、「関連度の計算が不正確」。ベクトル埋め込みモデルの選択を誤ると、質問と無関係なデータを引っ張ってくる。複数モデルを比較検証する必要がある。

3つ目、「データ量の過多」。検索対象が膨大すぎると、逆に精度が落ちる。要不要の取捨選択が重要。「絶対に必要なコア情報」に限定する方が効果的。

複数のモデルを組み合わせて、精度をさらに上げる

RAGの一歩進んだ使い方。複数のLLMを組み合わせる方法。

例えば「質問の意図理解はGPT-4o、回答生成はClaude 3」という組み合わせ。各モデルの得意分野を活かして、総合精度を上げられる。Difyなら、ワークフローエディターでこれが簡単に実現できる。

さらに細かくするなら「質問がいくつのカテゴリに分類されるか」を自動判定させ、カテゴリごとに異なるプロンプトを適用する方法も有効。複雑さと効果のバランスを見て、導入を判断すべき。

RAG未導入時の回答フロー

  • 全データをプロンプトに埋め込む
  • トークン数が膨大(数十万)
  • 応答時間が数分
  • API料金が高額

RAG導入後の回答フロー

  • 関連データだけを動的に検索
  • トークン数が最小化(数千)
  • 応答時間が数秒
  • API料金が1/10以下

RAGの活用シーン。最適な領域を見極める

RAGが活躍する場面は「社内データベースを活用して、正確な回答を返す必要がある業務」。

カスタマーサポート、営業向けのナレッジAI、社内ヘルプデスク。これらは全てRAGの得意領域。逆に、創造的なタスク(ブレストや新しいアイデア生成)ではRAGの意味が薄い。むしろ、複数の知識を組み合わせて新しいものを作る方が、汎用AIの本領だ。

導入の判断基準は「社内に活用すべきデータがあるか」。あるなら、RAGはコスト対効果が高い投資。なければ、汎用AIのまま運用した方が無駄がない。

この記事のまとめ
  • RAGは「必要なデータを検索 → 検索結果をプロンプトに付与 → AIで生成」という3ステップ
  • 導入により、正答率55% → 85%、応答時間15秒 → 3秒、API料金を1/5に削減
  • ベクトル埋め込みとベクトルデータベースが技術的な基盤
  • 古いデータの混在、モデル選択、データ量過多が失敗の主因
  • カスタマーサポート・営業ナレッジ・ヘルプデスクが最適な活用領域

RAGは、生成AIの実用化を大きく進めた技術。2024年時点で、すでに業界標準といっていい。導入検討中の企業は、データ準備から始めるべき。

当社の経験では、プロジェクト期間は短く、効果は確実。実装の難度も思ったより低い。「AIは万能ではない」という認識から出発した方が、現実的な期待値設定ができる。その上で、RAGという具体的な武器を手に入れる。それが次の段階だ。

バイブコーディングを1日で習得しませんか?

AI登竜門では、プログラミング未経験の方でもたった1日でバイブコーディングを習得できるマンツーマン講座を開催しています。

オンライン説明会に参加する

関連記事