AIに「無視される」サイトとは?生成AI時代に知っておくべきGEO対策の基本

AIに「無視される」サイトとは?生成AI時代に知っておくべきGEO対策の基本

前記事の関連記事になります。前記事は「AIに選ばれるサイト」というテーマでしたが、今回は「無視される」サイトについての記事になります。

AIに引用される必要性

ChatGPTやPerplexity、Googleなどの生成AIに「地域でおすすめの〜」といった質問をしたとき、あなたのサイトは回答に登場していますか?

「SEOはちゃんとやっている」「検索順位も悪くない」——にもかかわらず、AIの回答にはまったく出てこない。そんなサイトが増えています。

2025年前半だけでAI経由のWebサイトセッションは前年比527%増加しました(Previsible 2025 AI Traffic Report)。ガートナーは、2028年までにAI検索の普及によりオーガニック検索トラフィックが50%以上減少すると予測しています。

つまり、AIに引用されないサイトは、これからの検索で「存在しない」のと同じになりかねません。
この記事では、AIに無視されてしまうサイトの共通点と、「AIに選ばれる」ための具体的な対策(GEO=Generative Engine Optimization)をお伝えします。

そもそもGEO(生成エンジン最適化)とは?

GEO(Generative Engine Optimization)とは、ChatGPT、Perplexity、Google AI Overviews、Claudeなどの生成AIが回答を生成する際に、自社のコンテンツが情報源として引用・参照されるように最適化する手法です。

従来のSEOが「Google検索で上位表示 → クリックしてもらう」を目指すのに対し、GEOは「AIの回答の中で選ばれ、引用される」ことを目的としています。

ここで重要なのは、SEOで上位にいるからといって、AIに引用されるとは限らないという点です。

Ahrefsの調査によると、AIに引用されたドメインのうち、従来の検索結果トップ10と重複していたのはわずか37%。つまり、Google検索で1位のページでも、AIからは完全にスルーされているケースが多数存在します。

では、AIはどんなサイトを「無視」するのでしょうか。

AIに「無視される」サイトの6つの特徴

1. JavaScriptがないとコンテンツが表示されない

AIのクローラーは、JavaScriptを実行せずにHTMLを読み取るのが基本です。SPAなどJSレンダリングに依存したサイトでは、ページのコンテンツ自体がAIから見えていない可能性があります。

コア情報がHTMLとしてサーバーサイドで出力されていることが前提条件です。React/Vue.jsを使っている場合でも、SSR(サーバーサイドレンダリング)やSSG(静的サイト生成)で対応できます。

2. 構造が不明瞭で、AIが「引用しにくい」

AIは、ページ全体をそのまま引用するわけではありません。文章の中から「引用しやすいかたまり」を抜き出して回答に使います。

つまり、以下のようなコンテンツはAIにとって扱いにくい情報源です。

  • 見出しの階層構造がない
  • 質問に対する直接的な回答が文中に埋もれている
  • 結論が最後まで読まないと分からない構成

ある分析では、記事の冒頭40〜60語(日本語だと100〜150文字程度)に直接的な回答を配置するだけで、AI Overviewsでの引用率が約35%向上したとされています。

3. 独自性がない——どこかで見たことのある情報

AIにとって最も価値があるのは、そのサイトでしか得られないオリジナルの知見です。

他サイトの情報をまとめ直しただけのコンテンツ、一般論の繰り返し、独自の見解がない記事——これらは、AIがわざわざ引用する理由がありません。

特に評価されるのは以下のような情報です。

  • 自社独自の調査結果やアンケートデータ
  • 現場でのケーススタディ(具体的な数値付き)
  • 専門家としての独自の見解や分析
  • 他では語られていない失敗談やノウハウ

Princeton大学とGeorgia Tech大学の研究では、統計データとその出典を明示するだけで引用確率が67%向上するという結果が出ています。

4. E-E-A-T(経験・専門性・権威性・信頼性)が弱い

GoogleのE-E-A-Tは、AI引用においても重要な指標です。具体的には以下のような要素が欠けていると、AIの信頼度判定で不利になります。

  • 著者プロフィールがない:誰が書いたか分からない記事は、AIにとって信頼性の根拠がない
  • 引用元・出典の記載がない:主張の裏付けがないコンテンツはAIが引用しにくい
  • 更新日が不明:いつ書かれた情報か分からないと、正確性の判断ができない

「誰が、どんな立場で、いつ書いたのか」が明確なコンテンツほど、AIに選ばれやすくなります。

5. 自社の発信「だけ」に頼っている

AIは、自社サイトのコンテンツ(Brand-owned media)よりも、第三者メディア(Earned media)を圧倒的に重視します。

MuckRackの分析によれば、AIが引用するリンクの95%は広告ではない「アーンドメディア」で、約25%がジャーナリズム系の情報源です。つまり、AIは「あなたが自分について語っていること」より、「他者があなたについて語っていること」を信頼する傾向があるのです。

自社サイトのコンテンツだけをいくら磨いても、第三者からの言及がなければAIの引用候補に入りにくいという現実があります。

6. 更新が止まっている

AIは情報の鮮度を重視します。引用されたコンテンツの半数以上が過去12ヶ月以内に公開されたもので、特に公開から7日以内の情報が最も引用されやすいというデータがあります。

注意したいのは、日付だけ変えて中身はそのまま、という「見せかけの更新」は逆効果になる可能性があることです。AIは実質的な内容の更新と表面的な日付更新を区別できるとされています。

AIに「選ばれる」サイトになるための具体的な対策

対策1:記事の冒頭で質問に直接回答する

記事の最初の100〜150文字で、テーマに対する直接的な回答を書きます。

AIは、この「冒頭の直接回答」を引用するケースが非常に多いためです。その後に詳しい解説を展開する「結論ファースト」の構成を意識しましょう。

対策2:ファクト密度を高める

記事の中に統計データ、具体的な数値、調査結果を意識的に盛り込みます。目安は300〜400文字に1つ以上の具体的なデータです。

「多くの企業が導入しています」ではなく、「国内企業の37%が2024年末までに導入済み」のように書くだけで、AIにとっての引用価値が変わります。

数字には必ず出典を添えることで、信頼性がさらに向上します。

対策3:構造化データ(Schema.org)を実装する

HTMLにJSON-LD形式で構造化データを埋め込むことで、AIが「このページは何について書かれているのか」を機械的に理解できるようになります。

特に効果が高いのは以下のスキーマです。

  • Article:記事の著者、公開日、更新日
  • FAQPage:Q&A形式のコンテンツ
  • LocalBusiness / Organization:会社の基本情報
  • Service:提供サービスの詳細

MicrosoftのBing担当者も「スキーママークアップがLLMによるコンテンツ理解に役立つ」と公式に認めています。

対策4:著者情報をしっかり表示する

記事ページに著者のプロフィール(名前、肩書き、経歴、得意分野)を表示します。構造化データ側でもArticleスキーマのauthorをPerson型で明示します。

これはE-E-A-Tの「Experience(経験)」と「Expertise(専門性)」を示す最も基本的な方法であり、AIが「この情報源は信頼に値する」と判断するための重要な手がかりになります。

対策5:第三者メディアでの露出を増やす

自社サイトの最適化と同時に、第三者からの言及を増やす戦略も必要です。

  • 業界メディアへの寄稿や取材対応
  • プレスリリースの配信
  • レビューサイトや比較サイトへの掲載
  • SNSやコミュニティでの言及

特にニッチな領域では、このアーンドメディア戦略がAI引用の決め手になることが少なくありません。

対策6:定期的にAI上での表示状況をモニタリングする

「佐賀 ホームページ制作 おすすめ」のような検索キーワードを、AIへのプロンプトに変換して定期的にチェックしましょう。

例:

  • 検索キーワード:「佐賀 ホームページ制作」
  • AIプロンプト:「佐賀県でおすすめのホームページ制作会社は?」

これをChatGPT、Gemini、Perplexity、Google AI Overviewsのそれぞれで確認し、自社が表示されるかどうか、どのように紹介されているかを把握します。

AI検索は検索順位のように明確な指標がないため、手動での定期チェックが最も確実なモニタリング方法です。

プラットフォームごとの引用傾向を知っておく

すべてのAIが同じ基準でコンテンツを選んでいるわけではありません。

ChatGPTは、百科事典的な網羅性のあるコンテンツを好む傾向があります。Web検索機能を使う場合はGoogleを基盤に3〜10のソースを選択します。

Perplexityは、リアルタイム性を重視し、Redditなどのコミュニティコンテンツも積極的に参照します。引用リンクを多く表示するのが特徴です。

Google AI Overviews / AI Modeは、従来のGoogle検索シグナルをベースにしつつ、AIがコンテンツを要約・統合して表示します。SEOの基本施策がそのまま効きやすいプラットフォームです。

ただし、サイバーエージェントの調査では、Google AI Modeにおける検索1位サイトの引用率は20%程度にとどまるとされています。検索1位であっても安心できない時代が来ています。

SEOとGEOは「車の両輪」

GEO対策が重要になったからといって、SEOが不要になるわけではありません。

多くの生成AIは、検索エンジンの上位記事を優先的にクロールして学習しています。つまり、「SEOで上位表示される質の高いコンテンツ」を作ることが、結果としてGEOでの引用にもつながります。

ただし、生成AIへの最適化はSEOとは異なるアプローチも必要です。生成AIはWebサイトを検索するのではなく、プロダクトやサービスを直接推薦する性質があり、オーガニック検索の順位と生成AIのレコメンドが一致しないケースも確認されています。

SEOを基盤としつつ、GEO特有の対策を上乗せしていく——この両輪のアプローチが、AI時代のWeb戦略の基本形です。

まとめ:AIに選ばれるサイトの条件

AI検索の時代において、サイトが「無視されない」ための条件をまとめます。

コンテンツ面

  • 冒頭で質問に直接回答する構成
  • 独自データ・一次情報を含む
  • 統計データと出典を明示する
  • 定期的に内容を更新する

技術面

  • 構造化データ(JSON-LD)を全ページに実装
  • JSに依存しないコンテンツ配信
  • 著者情報を記事・構造化データの両方で明示

ブランド面

  • 第三者メディアでの露出を増やす
  • 業界内での認知度・言及量を高める

GEOは「特別なテクニック」というより、専門的で、信頼でき、分かりやすい情報を発信するというWebサイト運営の基本を、AIの視点で再確認するものです。

まだGEO対策に取り組んでいる企業は多くないため、今始めることで先行優位を確保できます。まずは自社の主力キーワードをAIに聞いてみることから始めてみてください。

GEO対策・AI時代のWeb戦略はアルラボにご相談ください

「うちのサイト、AIにどう見えているんだろう?」「何から手をつければいいか分からない」——そんな方は、ぜひ一度アルラボにご相談ください。

株式会社アルラボでは、構造化データの実装からコンテンツ設計、SEO・GEOを見据えたサイト改善まで、中小企業のWeb戦略をワンストップでサポートしています。

佐賀を拠点に、ホームページ制作・SEO対策・Web広告運用・SNS活用まで幅広く対応。「技術は分からないけど、AI時代に取り残されたくない」という方にこそ、分かりやすくご提案いたします。

まずはお気軽にお問い合わせください。

この記事を書いた人

直塚 一仁 代表取締役 / Webディレクター / プログラマー

佐賀市を拠点に、中小企業・個人事業主のWeb戦略を支援。ホームページ制作からSaaS開発、SEO対策、広告運用まで、デジタル領域をワンストップで手がける。「技術力×提案力」で地域ビジネスの成長を加速させることをミッションに、これまで多数のプロジェクトに携わる。