AIは今や、顧客分析からリサーチに至るまであらゆる分野の中心に据えられており、企業はその可能性を活かす方法を模索しています。そして多くの企業が、AIモデルのトレーニング(あるいはファインチューニング)が最善の方法だと考えています。しかし、本当にそうでしょうか?
AI Explainer Seriesの対談で、Boxの最高技術責任者(CTO)ベン・クス(Ben Kus)とAIのシニアプロダクトマーケティングマネージャーであるミーナ・ガネーシュ(Meena Ganesh)は、モデルトレーニングを追求することが多くの企業にとって誤った選択である理由について議論しました。より安全で、よりスマートで、より費用対効果の高い代替手段が、まさに今、目の前にあります。それがRAG(検索拡張生成)です。
AIモデルのトレーニングを避けるべき理由
あるコンサルティング会社は、自社の非構造化データ、つまり日々の業務で蓄積され続けているすべてのコンテンツの分析と調査にAIを活用したいと考えています。データには会議メモや顧客への提出書類、プレゼンテーション、調査資料など、さまざまな種類のファイルが含まれています。これらは非常に具体的な内容なので、「AIモデルをトレーニングすることが、コンテキストを提供する最善の方法ではないでしょうか?」と、ミーナは問いかけます。
確かに、一見するとモデルトレーニングが最も理にかなっているように思えます。コンサルティング会社は、自社のデータや特定のニーズに合わせてAIソリューションをカスタマイズできます。しかし、「企業はAIモデルをトレーニングすべきではない」と、ベンは率直に述べます。
なぜそんなに厳しい姿勢を取るのでしょうか?
大規模言語モデル(LLM)のトレーニングは、見かけほど簡単ではありません。「非常にコストがかかります。さらに、管理が難しく、データ権限に対する深刻なセキュリティ問題にも直面することになるでしょう」と、ベンは言います。
LLMのトレーニングには100億円単位で費用がかかり、膨大な計算リソースが必要です。そのため、OpenAIのような企業でなければこのプロセスを利用できません。「それは、小さな子どもに、その子の人生を通じてあらゆることを教え、成人になったらあなたの会社で働けるようにするような哲学的な話です」と、ベンは皮肉を込めて言います。
![]()
LLMのトレーニングには100億円単位で費用がかかり、膨大な計算リソースが必要です。
Box 最高技術責任者(CTO) ベン・クス(Ben Kus)
やや大げさな比喩ですが、不思議と的を射ています。この例えは、明白です。独自のLLMをゼロからトレーニングするには膨大な労力と時間とリソースが必要で、ほとんどの企業にとって現実的ではありません。
ファインチューニングもあまり効果的でない理由
既存の商用LLMをファインチューニングするのは、現実的な選択肢のように思えるかもしれません。「ファインチューニングや強化学習とは、AIモデルを取得してアップデートするという考え方です。ゼロから始めるのではなく、特定のトレーニングを行ってアップデートしていくのです」と、ベンは説明します。
通常、この方法はずっと簡単で安価ですが、それでも「絶対にやらない方がいい」と、ベンは警告を発します。
ファインチューニングには、データ準備、モデル管理、互換性アップデートなどの継続的な専門知識が必要です。さらに重要なのは、「AIモデルには下位互換性がありません。AIモデルのあるバージョンをファイントレーニングした後で新しいモデルがリリースされたら、その新しいバージョンのAIモデルをファインチューニングし直さなければなりません」と、ベンは説明します。
![]()
AIモデルには下位互換性がありません。AIモデルのあるバージョンをファイントレーニングした後で新しいモデルがリリースされたら、その新しいバージョンのAIモデルをファインチューニングし直さなければなりません。
Box 最高技術責任者(CTO) ベン・クス(Ben Kus)
また、機密データの更新や削除のたびに、ファインチューニングのプロセスを最初からやり直す必要があります。効率的な運営を目指す企業にとって、これは非現実的なサイクルです。
もう一つの問題は、セキュリティです。
「AIは秘密を守りません」と、ベンは警告します。AIモデルに学習させたデータやナレッジが、他社に意図せず公開され、データ漏洩のリスクが生じる可能性があるということです。機密情報を扱う企業や厳格なデータ権限を持つ企業にとって、データ漏洩のリスクは看過できません。
RAG(検索拡張生成)とAIエージェント
トレーニングやファインチューニングに変わるよりスマートな代替手段、そしてAIを効果的に活用する最良の方法が、AIエージェントと組み合わせたセキュアRAGです。
AIエージェントとは、目標達成のためにインテジェントなアクションを実行するAIを搭載したシステムのことです。AIモデルを頭脳として使い、割り当てられた目標を達成するための指示を受け、ツールを用いて目標を達成します。理解、推論、生成ができる最適なAIモデルの基盤上に構築されたAIエージェントは、ワークフローを自動化できます。最新のAIエージェントは、アシスタントのように指示に従うだけでなく、プロアクティブに計画を立て、包括的な結果を提供します。
![]()
ファインチューニングに必要なことを考え出すのではなく、AIエージェントに指示するだけでいいのです。
Box 最高技術責任者(CTO) ベン・クス(Ben Kus)
これを基に、セキュアRAGがAIエージェントがユーザー固有の適切なデータのみにアクセスできるようにします。AIエージェントは権限を考慮した環境で動作するので、データセキュリティが損なわれません。
ミーナは、この2つのプロセスを要約しました。
- セキュアRAGは、AIが膨大な量のコンテンツからコンテキストを得るための基本的な方法です
- そして、ガードレールや権限を十分に考慮した方法で適切なナレッジにアクセスできるツールで、カスタムインストラクションを提供して、AIエージェントを活用します
AIモデルを苦労してトレーニングする代わりに、RAGを通じてAIエージェントに適切なナレッジとガードレールへのアクセスを提供するだけで済みます。「ファインチューニングに必要なことを考え出すのではなく、AIエージェントに指示するだけでいいのです。この組み合わせは、かつてはファインチューニングや強化学習のようなフィードバックを必要としていたほぼすべてのユースケースに対応できます」と、ベンは言います。
RAGとAIエージェントの相性がいい理由
AIモデルのトレーニングとは異なり、RAGはアルゴリズムの継続的なアップデートやファインチューニングを気にする必要がありません。AIエージェントが使用するAIモデルをアップデートすることで、追加作業なしでAIエージェントは自動的に賢くなります。「AIモデルを管理する必要はありません。AIエージェントを管理するだけです」と、ベンは付け加えます。
このアプローチの要は、セキュリティです。AIエージェントはユーザーがアクセスを許可されている情報のみを取得できるため、データ権限の遵守を確保し、データ漏洩を防げます。AIエージェントは、ユーザーがアクセスできない情報にはアクセスできません。ベンの言葉を借りれば、「データ漏洩なしに適切な情報を取得するという課題を解決」できるのです。
結論: スマートでスケーラブルなAIツールに注力する
AIモデルのトレーニングやファインチューニングには、膨大なリソースと専門知識、そして継続的な管理が必要です。AIの導入を進める企業は、コストのかかる非効率なプロセスから、スケーラブルでセキュアなAI導入へと焦点を移すべきです。RAGやAIエージェントベースのソリューションを活用すれば、二度手間を踏む必要がなくなります。コンテキスト取得、効率的な動作、権限遵守のAIの能力を活用すればいいのです。
RAGやAIエージェントはほとんどの企業で有用ですが、もちろん例外もあります。「クラウドベースのシステムのパワーをすべて活用できないエッジで何かを実行している場合もあるでしょう」と、ベンは言います。こうしたエッジシナリオや極めて専門的なタスクでは、カスタムトレーニングやファインチューニングが必要となる場合がありますが、平均的な企業では、RAGとAIエージェントの組み合わせでほぼ十分です。
ベンのおすすめは明快です。「RAGとAIエージェントを使い、これをうまく活用できるプラットフォーム(Boxなど)を選び、トレーニングを検討する前に使ってみましょう」
AI Explainerのエピソード『Stop Before you train that model: a smarter path for enterprise AI』(AIモデルをトレーニングする前に立ち止まってみる: エンタープライズAIのためのよりスマートな方法)をご覧ください。RAGとAIエージェントの組み合わせが、企業AIモデルのカスタマイズのニーズを99%解決できる理由が詳しくわかります。
※このブログは Box, Inc 公式ブログ(https://blog.box.com/)2025年12月5日付投稿の翻訳です。
原文リンク: https://blog.box.com/avoid-training-ai-models-all-costs-and-they-are-costly
関連コンテンツ
- トピックス:
- Box製品情報


