はじめに:AIの「知識」に働きかける新戦略
これまでの記事では、Google SGEのような検索エンジンと連携したAIに対する最適化、AEO(回答エンジン最適化)とGEO(生成エンジン最適化)について解説しました。これらは、ユーザーが「検索」という行動を取った際の表示結果を対象とする施策でした。
しかし、情報収集の舞台は検索エンジンだけではありません。多くのユーザーは、ChatGPTやClaudeといった対話型のAIチャットサービスに直接質問を投げかけ、答えを得ています。これらのAIは、必ずしもリアルタイムでWeb検索を行うわけではなく、事前に学習した膨大な「知識」を基に回答します。
この、AIが持つ内部の知識ベースそのものに影響を与え、自社の情報やブランドを記憶させることを目指す長期的な戦略が、Large Language Model Optimization (LLMO)、すなわち「大規模言語モデル最適化」です。本記事では、この新しい概念の基礎と、なぜそれが重要なのか、そしてどのようなアプローチが必要なのかを解説します。
1. LLMOとは何か?GEOとの根本的な違い
LLMOを理解する鍵は、その対象が「リアルタイムの検索結果」ではなく「LLMの学習済みデータセット」にあるという点です。
- GEO (Generative Engine Optimization):
ユーザーが検索するたびに、AIがWebをクロールして情報を集め、回答を生成するプロセスを対象とします。「検索の都度、参考文献として選ばれる」ことを目指す、比較的短期的な施策です。 - LLMO (Large Language Model Optimization):
LLMが開発段階で学習する、膨大なテキストデータ(トレーニングデータ)に影響を与えることを目指します。AIの「脳」に知識として刻み込まれ、「検索せずとも知っている状態」を作り出すことを目指す、非常に長期的で間接的な施策です。
例えるなら、GEOが「あるテーマのレポート課題で、毎回参考文献に選ばれるための努力」だとすれば、LLMOは「そのテーマの教科書そのものに、自社の理論や名前が掲載されることを目指す活動」と言えるでしょう。
2. なぜLLMOが重要なのか?検索エンジンを介さない情報収集
LLMOが重要視される背景には、ユーザー行動の大きな変化があります。
かつて、何かを調べる際の出発点はほぼ例外なく検索エンジンでした。しかし、今や多くの人々が、アイデア出し、文章の要約、専門的な質問への回答などを求めて、日常的にChatGPTのような対話型AIを利用しています。
これらのAIがWeb検索機能を使わずに回答した場合、その答えはLLMが事前に学習した知識のみに基づきます。もし、あなたの会社や製品に関する情報がその学習データに含まれていなければ、ユーザーがAIとどれだけ対話しても、あなたの存在にたどり着くことはありません。
検索エンジンという巨大な「入口」をバイパスする情報収集が一般化する未来において、AIの基礎知識の一部となること、すなわちLLMOは、企業やブランドが忘れ去られないために不可欠な生存戦略となりつつあるのです。
3. LLMの学習データと「知識の固定化」
LLMOの戦略を考える上で、LLMがどのように学ぶかを知る必要があります。
多くのLLMは、「Common Crawl」と呼ばれるWeb全体をアーカイブした巨大なデータセットや、デジタル化された書籍、Wikipedia、論文などを「トレーニングデータ」として使用します。この学習はモデル開発時に一度行われるため、特定の時点までの情報しか持っていません。これが「ナレッジ・カットオフ(知識の最終更新日)」と呼ばれるものです。
つまり、LLMの知識は、ある意味で「固定化」されています。この固定化された知識に自社の情報を加えることが、LLMOの究極的な目標です。一度学習データに含まれれば、モデルが更新されるまでの長い間、安定してAIの知識の一部であり続けることができるのです。
4. LLMOの基本的なアプローチ
では、具体的にどうすればLLMの学習データに影響を与えることができるのでしょうか。直接的な方法は存在しませんが、長期的・間接的にその可能性を高めるアプローチがいくつか存在します。
アプローチ1:その分野の「一次情報源」になる
LLMの学習データには、質の高い情報が選ばれる傾向があります。他人の情報の受け売りや要約ではなく、そのサイトでしか得られない独自の調査データ、詳細な事例研究、専門家による深い洞察といった一次情報を発信し続けることが重要です。質の高い情報源としてWeb上で広く認知され、多くのサイトから引用されるようになれば、将来のLLMの学習データに含まれる可能性が高まります。
アプローチ2:権威あるサイトでの「ブランド言及」を増やす
LLMは、個別のサイトだけでなく、Web全体における情報の関連性を学習します。特に、信頼性の高いサイトでどのように言及されているかは重要な指標となります。
- Wikipedia:自社や自社製品に関する正確なWikipediaページが存在し、それが権威あるニュースソースや公的資料に基づいていれば、LLMにとって非常に信頼性の高い知識となります。
- 大手ニュースメディアや業界専門誌:プレスリリースやメディアへの情報提供を通じて、権威ある第三者の視点から自社の活動が報じられることは、強力なLLMO施策です。
- 学術論文や公的機関の報告書:自社のデータや技術が学術的な文脈で引用されることは、その信頼性を最大限に高めます。
アプローチ3:ブランドとコンセプトの「強い結びつき」を作る
特定のキーワードや概念といえば、自社のブランドが想起されるような状況をWeb上に作り出すことです。例えば、「〇〇(専門分野)といえばA社」という評判が、多くのブログ、フォーラム、SNSで一貫して語られるようになれば、LLMもその関連性を学習します。これは、地道な情報発信とコミュニティへの貢献を通じて、時間をかけて築き上げるものです。
参考事例: OpenAIは、正確で最新の情報をLLMに提供するため、AP通信(Associated Press)やAxel Springer(ドイツの大手メディア企業)といった世界的な報道機関と提携し、彼らの記事をChatGPTの学習や回答生成に利用しています。これは、企業がLLMの知識ベースに直接アクセスする、いわば究極のLLMOと言えるでしょう。個人や一企業がこれを真似ることは困難ですが、LLM開発企業が「質の高い情報源」を求めているという事実は、LLMOの重要性を示唆しています。
参考URL: ChatGPT-maker OpenAI signs deal with AP to license news stories – AP News
5. まとめ:未来のAIへの「種まき」としてのLLMO
本記事では、LLMOの基礎的な考え方について解説しました。
- LLMOの目的:ChatGPTのような対話型AIの学習データに影響を与え、その知識の一部となること。
- 重要性:検索エンジンを介さない情報収集が一般化する中で、AIに忘れられないための長期的な戦略。
- アプローチ:一次情報源になること、権威あるサイトでブランド言及を増やすこと、専門分野との強い関連性を築くこと。
LLMOは、すぐに結果が出るものではありません。それは、自社の専門性を地道に発信し、業界内での評判を確立し、Webという巨大な知識空間における自社の存在感を高めていく、未来のAIに向けた「種まき」のような活動です。
次回、「基礎知識編7」では、これまで登場したGEO、AEO、LLMO、そしてAIOといった新しい用語がそれぞれ何を指し、どのように関連し合っているのかを整理し、全体像の理解を深めます。