この記事にたどり着いたあなたは新規記事・ページがインデックスされずに悩んでいますね? 新規の記事が「検出-インデックス未登録」に入れられてしまい、新たな集客ルートを構築できずに困っていることだと思います。
私も2021年5月頃から新規記事が「検出-インデックス未登録」になり悩んできましたが、現在では大方解決済みです。
ということで、これまでの検証結果とリサーチをもとにして、最近話題の「検出-インデックス未登録」について知り得る限りを解説していきます。新情報もまとめているので、ぜひ最後までご覧ください。
- 原因
- クロールされていないから
- コンテンツの質とは関係がない
- 世界的にクロール不足が見られることも
- 自然なクロールが少ないサイトは発生しやすい
- 対処法
- 気にせずに放置しても良い
- クローラビリティを向上させる
- URLの変更やIndexing APIも一時的対処としては有効
「検出-インデックス未登録」とは?
まず初めに「検出-インデックス未登録」というステータスについて解説します。
「検出-インデックス未登録」は、クローラーがサイトマップ(sitemap.xmlやfeedなど)やリンクを通してページの存在を把握しているが、インデックスはまだしていないというステータス。
つまるところ、クロール待ちのことです。
もう少し簡単に説明すると、以下の図の①で止まっているような状態です。

ここからクロールとインデクサによるチェックを通って、はじめてインデックスに登録されます。つまるところ、「検出 – インデックス未登録」はインデックス登録までの初期段階だと思ってください。
エラーではない
勘違いしている方も多くいるのですが、「検出-インデックス未登録」自体はエラーではありません。それを説明するためにも、ここで改めてインデックス登録までの流れを確認しておきたいと思います。
ページが検索結果に表示されるには「クロール→インデックス」という過程を経なければなりません。その流れにサーチコンソールのカバレッジステータスを加えると、以下の図のようになります。

図を見て分かる通り、「検出-インデックス未登録」はインデックスの前に必ず経由する”クロール待ち“です。つまり、どんなページも一度は経由するステータスになります。
「検出-インデックス未登録」になっているのが新規ページばかりなのはこのためです。もちろん、一度インデックスされたページが逆行して「検出-インデックス未登録」に変わることもありません。
他のステータスとの違い
「検出-インデックス未登録」はSearch Consoleのカバレッジステータスの中でも少し特殊。
というのも、他のステータスはクロール後のステータスであるのに対し、「検出-インデックス未登録」はクロール前のステータスだからです。
「検出-インデックス未登録」はクロールされていないため、Googleからの評価も受けていません。そのため、まだコンテンツを修正する必要がありません。
対して、「重複しています。」や「クロール済み-インデックス未登録」などは、Googleよりインデックスしないという評価が下された状態です。その場合はコンテンツに改善の余地があるので、こちらを参考に対処してください。

「検出-インデックス未登録」の原因は?

それでは、なぜ「検出-インデックス未登録」になってしまうのか。ざっくりとまとめてしまえば、原因は「クロール不足」だと考えられます。
クロールのリソースは有限なので、全てのサイトが満足のいくクロール数を得られるとは限りません。誰かしらのサイトでクロールが不足し、「検出-インデックス未登録」のページが発生するのです。
運用歴の浅いサイトで頻出する傾向
TwitterなどのSNSやはてなブックマークなどを通して確認したところ、今回のインデックスに関する問題に直面しているサイトの多くには以下のような共通点がありました。
- 運用歴が浅く、アクセスは少なめ
- 被リンクが少ない
- ペナルティは受けていない
クロールを行ってくれるクローラー(bot) は無限にある訳ではないので、Googleは優先順位をつけてクロールを行います。その順位付けに「運用歴の短さ」、もしくは「被リンクの少なさ」が影響していると考えられます。
どちらにしても、作り立てのサイトではクロールの優先順位が低くなるのはほぼ間違いないでしょう。
世界的にクロールの数が減少することも
過去にはクロールの全体的なリソースが減ったのではないかと思われることもありました。
たとえば、2021年には「検出-インデックス未登録」が多くのサイトで発生しています。SEOに関する情報メディアのSearch Engine Journalは、2021年11月16日に以下のような記事を公開しました。

原文が英語なので、内容をかいつまんで説明します。
- クロール数減少を示す明らかな証拠が、多くのサイト運営者によってSNSに上げられている
- 大規模サイトでも同様にクロール数の減少が確認されている
- クローラーの開発者であるSeolyzer氏も、11/11からクロール数が劇的に減少していることを報告
- 304を返す(未更新の)ページにクロールが来ない傾向にある
- 後日、Googleのジュン・ミューラー氏もこの現象を認め、調査に入ったとのこと
- クロールは17日遅くから戻りつつある
以上の事例から、今後もクロールに何かしらの問題や変化が起こる可能性があります。
ペナルティを受けている可能性もある
サイト側に問題があるとすれば、何らかの理由(重複コンテンツ・スパム行為)でペナルティを受けているというパターンです。ペナルティを受けているとクローラーが来ないということも起こり得ます。
ペナルティには二種類あり、「手動ペナルティ」と「自動ペナルティ」というものがあります。
手動ペナルティを受けているかの確認はすごく簡単で、サーチコンソールの「手動による対策」をクリックするだけです。(サイドバー > 「セキュリティと手動による対策」を展開 > 「手動による対策」をクリック)
自動ペナルティはツールから判断することができないため、以下の3点から自分で判断するしかありません。
・キーワードチェックツール(CRCなど)でキーワードが大量に飛んでいないか
・サーチコンソールの検索パフォーマンスが極端に落ちていないか
・Googleアナリティクスでアクセス数が落ち込んでいないか
原因まとめ:時間の問題
全体的なサイト・ページの増加、タイトル改変※によるリクエスト増加など、クローラーへの負担は大きくなっているのは事実。それに伴い、全体的にクロール数のリソースが不足することもあり得ます。
※Googleが検索画面上のタイトルを自動で書き換えるようになった
なんにせよ、サイト側に非があるわけではないので(ペナルティを除く)、時間が解決してくれるだろうと気楽に構えるのが一番です。

今後も情報収集はしていきます
「検出-インデックス未登録」の対処法


ここからは「検出-インデックス未登録」を解消(クロールさせるため)の一時的な対処法をご紹介します。主に効果が出やすいのは「URL変更」と「Indexing API」です。
ただし、これらはあくまでその場しのぎの対処法です。根本的な解決に向けたクロール数の増加法については次項で解説します。
対処法1:インデックス登録をリクエストする
オススメ度:
サーチコンソールの「インデックス登録リクエスト」はまずやっておきたい施策のひとつです。
任意のページをURL検査にかけて「インデックス登録をリクエスト」を押下するだけ。また、最近はカバレッジからまとめてリクエストができるようにもなっています。


これでクローラーが確実に来るという保証はありませんが、「検索エンジンにページの存在を伝える」という点では最も確実な方法です。2021年頃はあまりリクエストが聞き入られなかったのですが、現在は割と機能していますよ。
対処法2:インデックスされない記事のURLを変更する
オススメ度:
URL(パーマリンク)を変更して、再度インデックスの登録申請をするという方法。
釈然としない方もいるでしょうが、最も成功報告や口コミが多く効果の高いのがこの「URLの変更」です。SEOの理屈やGoogleの主張は抜きにして、実績のある方法に従うのが最善なのは言うまでもありません。
クロールが早くなる理由は、URLを変えることによってクロールキューに再分配されるからだと思います。例えるなら、別人として整理券を再配布してもらうようなイメージです。


そのため、逆に遅くなることも十分にありえます。
しかし、効果はあるものの「リダイレクト」の除外ステータスが増える、望んだURLが使えない、などのデメリットもあります。一度しっかりと考えてから実行しましょう。
それでは手順の説明に移ります。今回は以下の二つの方法を紹介します。
1.そのままURLを変更する
- 公開中のページのURLを変更する(WordPressならパーマリンク)
- 以前のURLから現在のURLにリダイレクトする
- ページを公開する
- サーチコンソールでインデックス登録の申請をする
2.新しい別ページとして公開し直す
- 公開中のページを非公開(下書き)に変更する
- URL(パーマリンク)を変更する
- タイトルを変更し、投稿日を当日にして公開
- 以前のURLから現在のURLにリダイレクトする
- サーチコンソールでインデックス登録の申請をする
私の肌感覚としては一度で成功する確率は3割程度。間隔をあけて何度か行えば、8割方インデックスされます。
場合によってはリダイレクトも
注意点としては、前のURLから今のURLに必ず301リダイレクトしておくこと。Googleにはインデックスされていないけど、Bingでは上位表示できているというケースが往々にしてあるからです。
しかし、リダイレクトをすることでクロールキュー(クロールの順番)も引き継がれる可能性があります。状況に合わせてリダイレクトをしてください。
ちなみに、WordPressではURLを変えると勝手にリダイレクトが設定されます。(2~3連続で変えると外れますが)
リダイレクトを自分で管理したい場合は、プラグインのRedirectionがおすすめです。301リダイレクトは今後も使う機会があるはずなので、できればインストールしておきましょう。


2回行うと成功確率が上がる理由
WordPressの場合は、記事のURLを変えると自動でリダイレクト処理が行われます。そのため、1回目の変更ではリダイレクトが行われ、Googleが同じページとしてクロールキューを割り振っている可能性があります。
しかし、2回連続でURLを変更すると、元URLからの直接のリダイレクトはなくなります。そして、別ページとして認識される、こういう理屈かと思います。
プラグインのRedirectionならリダイレクトを自分で管理できるので、URLを2回変える必要はなくなるはずですよ。
RSSにも注意
別ページとして新規公開を繰り返す場合はRSSにも注意が必要です。
RSSを介して何度も同じ記事の更新情報が発信されるので、ブログランキング等が荒れます。RSSフィードを停止させておくか、ブログランキング側で新着情報を削除するなどして対策しましょう。
対処法3:SNSなどで記事の露出を増やす
オススメ度:
アクセスの多いページはGoogleも無視できなくなります。TwitterやFacebookなどのSNSで拡散されればクローラーの目に止まりやすくなるため、クロールされる可能性が上がるはずです。
実際にSNSで拡散した記事だけインデックスされたという口コミが多少あります。また少し古い情報ですが、「ツイートが3回以上RTされるとインデックスが早くなる」という検証結果もあります。(参考:TwitterにURLを流すとインデックス化に効果があるのか?)
しかし、Bing経由で多くアクセスがあるページがインデックスされなかったため、アクセスさえあれば流入元が何でも良いわけではないのかもしれません。
とにかく、インデックスは別としても流入元を増やすのは良いことなので、SNSによる拡散も試してみましょう。TwitterやFacebook・はてなブックマーク以外に、Pinterestと連携しておけば放置するだけなので楽ですよ。


対処法4:サイトマップ・RSSフィードを送る
オススメ度:
サイトマップをサーチコンソールで送信しましょう。
サイトマップはクローラーがページの存在を把握するための貴重な情報になります。
サイトマップ・RSSフィードの送信方法は、サーチコンソールの “サイトマップ送信” にサイトマップやRSSフィードのURLを入力するだけです。また、一度サイトマップを削除してから再度登録するもの効果があるかもしれません。


本来は一度登録しておくだけで良いのですが、念のために新規記事を追加したタイミングで送信しましょう。
また、RSSフィードも一緒に送信してみましょう。RSSフィードには最近の更新情報が記載されているので、新規記事を追加したことのアピールにもなります。
XMLサイトマップはブログに必須の機能です。もしサイトマップがないのなら、この機会に作るようにしましょう。WordPressならXML Sitemapsというプラグインで簡単に作ることができますよ。
対処法5:PubSubHubbubを導入する
オススメ度:
PubSubHubbub(パブサブハブバブ)は新しく作成したページを検索エンジンに早く認識させ、インデックスしてもらうというツールです。(早口言葉ではありません)
本来はトレンドブログなどを運営している人が、スクレイピングを防ぐ目的で使用しています。実際にやっていることはリクエスト登録と同じですが、デメリットは何もないので一度試してみてください。
※スクレイピング:コピー記事を先にインデックスさせ、検索エンジンにオリジナルだと誤解させる行為
WordPressなら、プラグインのPuSHPressなどをインストールするだけで使えますよ。
対処法6:Indexing APIを実装する
オススメ度:
Googleにページの更新・削除を伝えるIndexing APIを使って、インデックスを促進するという方法。
API:異なるソフト・サービスを連携させるインターフェース
本来はしごと検索用のシステムなのですが、一般的なブログ記事でも何故か機能します。Googleの意図しないことなのでリスクはありますが、クロールの促進に最も効果があったのがこの方法でした。
リスクも考慮した上でそれでもIndexing APIを使ってみたいという方は、こちらの記事を参考にして使用してみてください。


対処法7:IndexMeNowを利用する
オススメ度:
IndexMeNowとは、SEOコンサルタントのQUIRECHERCHEが運用・管理をしている「有料のインデックス促進サービス」です。
24時間以内のインデックス率はなんと平均80%。10日以内にインデックスされない場合の返金保証もあり、多くの利用者から評価されています。
システムとしてはIndexmenowAPIなるものを使用しているようですが、その中身はブラックボックスです。真っ当な方法なのかどうかは分かりません。
どうせリスクがあるなら無料のIndexing APIで良いとは思いますが、興味のある方は試してみてください。(オススメはしません)
対処法8:時間が解決するのを待つ
オススメ度:
ただクロールが遅いだけであれば、時間が解決する可能性が高いです。
精神的に楽でペナルティなどのリスクも一切ないため、個人的には一番オススメの対処法(?)となります。
しかし、ただ待っているだけでは時間が無駄になります。記事をリライトしたり、有料テーマへ乗り換えたりして、サイト全体の見直しをしていきましょう。
パクリ対策もしておこう
Googleにとっては先にインデックスされた記事がオリジナルです。
つまり、自分記事がインデックスされていない状態で、パクリ記事が先にインデックスされれば、自分の記事がパクリ扱いされるということです。
私のサイトも”アダルト”という無法地帯のジャンルであるためか、スパムサイトに記事の前半をまるまるパクられて重複コンテンツ扱いされたことがあります。


パクられた上に自分が悪者にされて検索結果から排除される、なんていう最悪の事態を避けるためにも、できる限りのパクリ対策をしましょう。
パクリ対策として、具体的には以下の2つをオススメします。
- RSSの設定を変更する、もしくは廃止する
- 右クリックを禁止する
RSSの設定変更
他人の記事をパクるサイトの90%以上が自動で運営するスパムサイトです。
そういったスパムサイトは他サイトのRSSを取得して、RSSフィードに記載されている情報を無作為に載せています。そのため、RSSフィードに記載される情報を絞ることで、ある程度パクリを阻止することができます。
たとえばWordPressなら以下のような手順になります。
設定 > 表示設定 > “フィードの各投稿に含まれる内容” を「要約」に変更する


これで自動パクリの対象をタイトルと要約だけに絞ることができます。要約に何も入力しなければ、パクリ対象をタイトルだけにすることも可能です。
WordPressの標準設定だと「全文表示」になっており、本文がそのままRSSフィードに記載されている状態なので、この機会にぜひ変更しておきましょう。
また、RSSを使っていないのであれば、いっそのことRSSを廃止してしまうのも良いでしょう。
右クリックを禁止する
プラグイン等を使い、ページ内での右クリックを禁止するという方法です。これで手動によるパクリをある程度防ぐことができます。
ただし、これはユーザビリティを損なう諸刃の剣。サイトを訪れたユーザーにとっては不便なだけです。人間の手によるパクリはレアケースなので、それも踏まえて右クリック禁止を実装するか考えてください。
対処法-まとめ
「検出-インデックス未登録」が多発するようなら、以下のことはやっておきましょう。
- インデックス登録リクエストを送る
- インデックスされない記事のURLを変更する
- SNSなどで記事の露出(アクセス)を増やす
- サイトマップ,RSSフィードをこまめに送信する
- PubSubHubbubを導入する
- Indexing APIを実装する
- IndexMeNowを利用する
- 時間が解決するのを待つ
※余裕があればパクリ対策も
とにかく早くインデックスしてほしいなら「URLの変更」と「Indexing API」がオススメです。
ただし、やりすぎることで何らかのペナルティが発生する可能性がないとも言えません。また、インデックスの確立を上げるだけなので、過度な信用もしない方がいいでしょう。
最後に、これらはあくまで一時的な対処に過ぎず劇的な改善は望めません。この状況から脱するには、後ほど紹介するクロール数の増加を狙っていきましょう。
根本的な解決に向けてクロール数を増やそう
「検出-インデックス未登録」が解消されないのはクロールされていないから。つまり、クロール数を増やすことがこの状況を脱することにも繋がるはずです。
ということで、ここからは一時的な対策ではなく、長期的な改善法でもある「クロール数の増加方法」について解説していきます。
現在のクロール数を確認
まずは自分のサイトがどれぐらいクロールされているかを確認してみましょう。
クロール状況を調べるには、サーチコンソールの「クロールの統計情報」を見てください。
( サーチコンソールを開く > サイドバーの”設定” > クロールの統計情報 )
クロールの全体数を調べる
「クロールの統計情報」のページを開いて真っ先に目に入るのが、クロールの全体数を表したグラフです。


どれだけの数があるかではなく、グラフがどのように動いているかをチェックしてみてください。インデックスされなくなった日のあたりでグラフが落ち込んでいるなら、クロールの数が足りていない可能性があります。
このグラフの場合だとクロールの数は増えているので、クロールの絶対数が不足しているわけではないと判断できます。
クロールのトラブルチェック
次に、クロールの統計情報をページを下にスクロールしてみると、クローラーの動きや結果を確認できます。


ここで注目したいのが「レスポンス別」の欄です。OK(200)はクロールが無事に完了したことを表すものなので、これが8割~9割を占めるなら大丈夫でしょう。
対して、見つかりませんでした(404)などが大量に出ている場合は注意が必要。URLやリンクなどになにかしら問題がある可能性があります。クリックすれば詳細を見られるので、どのページに問題があるか確認して訂正しましょう。
クロールの種類を把握する
また、「目的別」や「Googlebotタイプ別」などの欄を確認しておきましょう。
私のサイトの場合だと、目的別の「検出」が低く、「ページリソースの読み込み※」のbotが多いことが読み取れます。つまり、私のサイトは「新しいページを検出するクロールが少なく、訪れるbotは補助的なものばかり」ということが分かります。
※ページのリソースを読み込む補助的なbot
ちなみに、「スマートフォン」や「PC」が一般的なクローラー(bot)であり、これが低いというのは少し変な現象です。メインクローラーがどちらかによって割合は変わりますが、ブログの場合はこの2つが大半を占めるのが普通です。
サイト運営者側で対処できるものではありませんが、自分のサイトがどう見られているかを知るためにも、一応確認しておきましょう。また用語などについては、サーチコンソールのヘルプページに詳しく記載されているので参考にしてください。
検出クロールに注目


クローラーが巡回する目的は大きく分けて、「更新」と「検出」の二つ。「更新」はインデックス済みページの更新、「検出」はコンテンツのインデックスが目的となっており、この割合はサイトによって違います。
今回は「検出」の方に注目してください。この検出クロールが少ないと、サイトの更新にクロールが追い付かずインデックスが滞ってしまうからです。
先ほどの “目的別” の “検出”をクリックすると詳細が見れるので、グラフからクロール数の推移を読み取ってみましょう。


私のサイトは微妙に落ちていますね。右肩上がりである必要はありませんが、更新頻度の高いサイトなら一定の高さは保っておきたいところです。
※Googlebotが画像をクロールするの?
画像を見ると分かる通り、画像(webpファイル)もクロールされていますね?
画像はGooglebot-Imageという画像専用botがクロールするのでHTMLとは関係ありませんが、画像にリンクが付いていると画像であるかどうかの確認のためにGooglebotがリンク先を一度辿ります。
そのため、画像のリンク先がメディアページなどになっている場合は、無駄にクロールバジェットを消費している可能性があります。必要ないならメディアページへのリンクを外すことも考えてみてください。
※どうやって更新・検出の割合が決まるのか?
更新・検出クロールの割合が決まる要因の一つとして挙げられるのが、「サイト開設初期の投稿頻度」です。
サイト開設直後に頻繁に記事を投稿していたサイトは、Googleから「投稿頻度が高いサイト」として認識され、それ以降の「検出」クロールが多くなると噂されています。(あくまで一説)
ひとつ例を挙げたいと思います。これは私の運営するまた別のサイトですが、更新が61%・検出が39%という数値になっています。先ほどの更新91%・検出9%のサイトと比べると随分違いますね。


このサイトは検出率が高いためか、100記事ほどあるにも関わらず全記事がインデックスされています。そして、今でこそ放置していますが、たしかに開設初期は一日に5記事以上を投稿していました。
この例からも分かるように、「開設直後の更新頻度で決まる」という説は当たっている可能性があります。
ただし、評価がずっと一定だとは思えないので、後から挽回することも可能なはずです。それについては、次項で語っていきます。
全体のクロール数を増加させる
クロールの現状が把握できたところで、次はクロール数を増やす方法を考えていきます。ただし、一朝一夕で解決できるものではないので、長期的な目で見てください。
クロールを増やすには、Googleに価値あるサイトだと評価されるしかありません。そのためにも内側と外側からSEO対策を行っていきましょう。
被リンクの獲得
被リンクの獲得をすることで、Googleからの評価(ドメインパワー)が上がり、クローラーが訪問するルートも増える。クロールの促進には最も効果的な方法です。
内容がぶれるのであまり詳しくは語りませんが、手段としては以下のようなものがあります。
・営業活動
・有益な記事を書く
・無料のサービスを利用して自演リンク
・自分の持っている別サイトと相互リンク
・相互リンクを申し込む
・ブログランキングなどのサービスに登録する
・ブラックハットSEO
サテライトサイトを作って自演リンクを貼るのが手っ取り早いですが、ブラックハットSEOはそれなりにお金がかかります。
そこで、まずは無料サービスを利用して被リンクを獲得するという方法をおすすめします。初心者の方はまずここから始めてみるのが良いでしょう。


内部リンクを張り巡らせる
限りあるクローラーをできるだけ有効活用するため、内部リンクを張り巡らせてサイトを効率的に巡回してもらいましょう。
とはいえ、やたらめったら貼ってしまうのはユーザビリティの低下に繋がるので、あれば便利だなと思うリンクの貼り方を心がけます。
「検出-インデックス未登録」とは関係ないページとも内部リンクを繋げるようにしましょう。これは今回の問題だけではなく、全体的なSEO施策としても有効です。
検出クロールの数を増やす
次に検出目的のクロールを増やす方法を考えます。インデックス登録はこの「検出クロール」が担当しているため、その数は重要な要素となります。
一朝一夕とはいきませんが、新しいコンテンツ(画像やページ)を次々と投下するサイトは、検出クロールの数を多く保てるようにしましょう。
投稿頻度を高く保つ
投稿頻度が高いサイトであれば、検出クロールが多くなります。投稿頻度の高さをアピールするために、RSSフィードをサーチコンソールに登録しておくのも良いでしょう。
ただし、インデックスされない状況であれば、先ほどのインデックス一時的な対処と合わせて行ってください。インデックスされていないページは、Googleにとって存在しないページとほぼ同義です。
構造化データを最適化する
構造化データ(構造化マークアップ)とは、検索エンジンへ向けたページの説明のことです。検索エンジンはこの構造化データとページ内の記述から、どのようなページなのかを把握して検索結果に表示させます。
また、構造化データはリッチリザルトを作成するためのものでもあります。一番身近なものであれば「パンくずリスト」などですね。
概要を理解する際はこちらの動画が参考になります。
そして、ここからが本題なのですが、この構造化データの「Article」を正しく記述したことで検出クロールの割合が増えたという体験談がありす。(参考:<クロールの統計情報>「検出」の数値が増加、構造化データとSEOの関係)
実際に私もArticleの「author(著者情報)」を詳しく記述したところ、検出クロールが9%→11%に増加したサイトを確認しました。
構造化データと検出クロールの因果関係は不確かですが、E-A-T(権威性)の重要性が叫ばれている昨今、著者情報だけでもしっかりと構造化データに記述しておくべきでしょう。
ちなみに、実装化されている構造化データはSchema Markup Validatorで確認できます。WordPressを利用しているのであればテーマ側で最低限の記述はしてくれていると思いますが、今一度確認しておくことをオススメします。
クロール数を促進させる方法-まとめ
それでは情報を整理します。
被リンクの獲得 | クローラーの流入元が増える |
---|---|
内部リンクを増やす | クローラビリティの改善 |
更新頻度を高く保つ | 検出クロールが増える傾向 |
構造化データを記述する | 検出クロールが増える”可能性がある” (authorだけでも記述する価値はアリ) |
サイトがペナルティなどを受けていない限り、SEOの評価が上がれば間違いなくインデックスはされ易くなります。実際に私のサイトでも、被リンクのあるページはインデックスが早い傾向にあります。
「URL変更」などの一時的な対処とあわせて、これらの施策も行っていきましょう。
誤った原因と対処法
さて、最後に「検出-インデックス未登録」に関する間違った情報を紹介します。
以下のような原因がよく挙げられていますが、これらをアテにしても徒労に終わる可能性が高いので注意してください。
コンテンツの質が低い | クロール前の段階なので関係なし |
---|---|
サイトへの過負荷を避けるため | ジョン・ミューラー氏により否定 |
技術的な問題 | エラーではないため無関係 |
コアウェブバイタル(PSI)が悪いから | 品質要因ではないため関係なし ジョン・ミューラー氏により否定 |
コンテンツの質が低い・重複している
先ほども解説しましたが、「検出-インデックス未登録」はクロールを待っている状態です。クローラー(Google bot)はサイトマップなどでタイトルや更新日は把握していても、コンテンツの内容自体は把握していません。
よって、コンテンツの質や重複はこの問題とは無関係。コンテンツを修正しても「検出-インデックス未登録」が解決されるという訳ではありません。
なにより、コンテンツの質が原因なら下記で解説する対処法も全て通用しないはずです。
Googleのポジショントークと、「クロール済み-インデックス未登録」の混同により生まれた通説だと思うので、あまり気にしなくていいでしょう。


検証:50文字と4000文字の記事で比較
「明らかな低品質記事はクロールされないのか?」という検証をしてみました。
検証内容
・4000文字の記事Aと、50文字の記事Bを用意する
・Aはサイトテーマに沿ったキュレーション記事(アダルト商品を色々と紹介)
・Bはその日の晩ごはんのメニュー
・Aは7/8に公開してインデックス登録をリクエスト
・Bも7/9に同じように公開してリクエスト
結果
・記事A(4000文字)は「検出-インデックス未登録」
・記事B(50文字)はインデックスされた




考察
明らかに低品質な記事Bが「クロール済み-インデックス未登録」にならなかったのは意外でしたが、少なくとも記事の質はクロールには関係しない。つまり、記事の質は「検出-インデックス未登録」と無関係であるということが改めて分かります。
サイトへの過負荷を避けるため
Search Consoleヘルプにも記載のあるものです。
これは通常、Googleが URL をクロールしようとしたものの、サイトへの過負荷が予想されたため、クロールの再スケジュールが必要となった場合です。
引用:Search Consoleヘルプ
しかし、この一文はGoogleの担当者ジョン・ミューラー氏によって否定されています。
これに該当するサイトがあるとすれば、何万ものページを抱えるような巨大なサイトぐらいのものなので、ひとまず普通規模のブログやサイトであれば考慮する必要はなさそうです。
技術的な問題がある
ページに技術的な問題があってクロールが正常にできていないという説です。
しかし、その場合は「除外」の項目ではなく「エラー」に分類されるため、「検出 – インデックス未登録」とは関係ありません。


コアウェブバイタル(PSIのスコア)が悪いから
インデックスされないのはコアウェブバイタルやPage Speed Insights(以下PSI)のスコアが低いからだと考え、速度改善にやっきになる人もいます。
たしかにSearch Consoleの「ウェブに関する主な指標(Core Web Vitals report)」で改善を急かされるため、勘違いするのも無理はありません。


しかし、コアウェブバイタルやPSIはランキング要因であって、品質要因ではありません。
つまり、PSIやコアウェブバイタルはインデックスには影響しません。これ関しては、Googleのジョン・ミューラー氏も断言しています。
※参考:コアウェブバイタルを改善してもインデックス作成には寄与しない(SEJ)
ただし、極端に表示速度が遅ければソフト404エラーと判断され、カバレッジエラーになってしまうので注意しましょう。
誤った原因と対象法-まとめ
一旦ここまでの情報をまとめます。これらはあなたの記事が「検出-インデックス未登録」になる原因にはならないものだと思ってください。
まとめ
それでは、今までの総論に移ります。
- 「検出-インデックス未登録」はクロール待ちの状態
- 一時的な対処法としては、URLの変更やIndexing APIの使用など
- SNSでの記事の露出、パクリ対策なども余裕があれば行う。
- 内部・外部リンクを増やしクローラビリティの向上に努めるのが一番
自分の記事が検索結果に載らないのって辛いですよね。インデックスされないと書けども書けども人に見られない記事が量産されるだけ。しかし、同じような壁にぶち当たって悩んでいる人は他にもいます。
今は辛いかもしれませんが、いつか報われる日を信じて、くじけず頑張っていきましょう!