
「新しいSearch Console」に移行し、インデックスの対象範囲(インデックス カバレッジレポート)を確認できるようになり、Googleがどのように保有しているウェブサイトを判断しているか分かるようになり、便利になった。
同時に、「なぜ?エラーなのか」「なぜ?除外されているか」などのウェブサイト保有者の質問も当然増えてくる。意図せずに除外やエラーが出ている場合、対処しなければ検索上に問題が起きる可能性が高いと言える。
このページでは、新しいSearch Consoleのインデックス カバレッジレポート(対象範囲)のエラー、警告、除外の対処方法も含めて分かりやすく解説していく。
初めに、ステータスの意味を知っておこう、新しいSearch Consoleのインデックス カバレッジレポート(対象範囲)は4つのステータスに分かれている。
ステータスの意味は以下の通りだ。(以下目次も兼ねる)
エラー | 【対処が必要】何からのエラーでインデックスされていない (エラーなので早めに対処が必要) |
警告 | 【確認が必要】インデックスされているが問題点がある |
除外 | 【確認が必要】何らかの理由でインデックスされていない (意図的、またはGoogleが除外)
|
有効 | 【何も不要】インデックスされている |
全てのページが「有効」になっているウェブサイトは少なく、「除外」に該当しているページもあるのではないだろうか。
もし、すべてが「有効」になっているのであれば、すべてのページがGoogleにインデックスされているため、何も問題はない。また、ステータスが「保留」となっている場合は1週間から2週間程度様子を見てほしい。
SPONSORED LINK
【目次】
- 1 サーバーエラー(5××)
- 2 リダイレクトエラー
- 3 URLがrobots.txtによってブロックされました
- 4 noindexタグによってブロックされました・利用されています
- 5 送信されたURLはソフト404エラーのようです
- 6 未承認のリクエスト(401)が原因でブロックされました
- 7 見つかりませんでした(404)
- 8 クロールエラー
- 9 ページ削除ツールによりブロックされました
- 10 クロール済み – インデックス未登録
- 11 検出 – インデックス未登録
- 12 代替ページ(適切な canonical タグあり)
- 13 ページが重複しています(canonical タグなし)
- 14 非HTMLページの重複
- 15 マークしたページとは異なるページが正規ページとして選択されました
- 16 法的申し立てにより、ページが削除されました
- 17 ページにリダイレクトがあります
- 18 クロールのキューに追加されました
- 19 送信された URL は削除済みです
- 20 送信された URL が canonical として選択されていません
- 21 robots.txt によりブロックされましたが、インデックスに登録しました
- 22 まとめ
サーバーエラー(5××)
エラー | 表示:サーバーエラー(5××) |
サーバーエラー(5××)は、500番から511番までエラー内容が存在する。そのため、まずこちらの「5xx Server Error サーバエラー(ウィキペディア)」でエラーを特定することが重要だ。
特定後、その内容に対してサーバーを対処するしか解消方法はない。
リダイレクトエラー
エラー | 表示:リダイレクト エラー |
リダイレクトは301などのリダイレクトを行った場合に発生するエラーだ。
エラーが出る原因としては以下の通りだ。
- リダイレクトチェーンが長すぎる場合(何度も301リダイレクトなどを行うこと)
- リダイレクトループが発生している場合
- リダイレクト先のURLが無効な場合
- リダイレクト先のURLの長さ2,083文字を超えた場合
などに、リダイレクトエラーが発生する。対象のURLを見直すことが重要だ。
ページやウェブサイトの統合、SSL化(httpからhttpsへの変更)などを行った場合にエラーがあれば表示される。301リダイレクトが分からない方は「301、302リダイレクト違いとGoogleの見解」を確認してほしい。
また、URLへのサイト移転に関しては、Googleのヘルプページ、
などを確認しておこう。
URLがrobots.txtによってブロックされました
エラー | 表示:送信された URL が robots.txt によってブロックされました |
除外 | 表示:robots.txt によりブロックされました |
「/sitemap.xml」などでGoogleに送信されたウェブページが、「robots.txt」にブロックされている場合にエラーとして表示される。(robots.txtについては「robots.txt を使用して URL をブロックする」を確認してほしい。)
この場合は2つの可能性が考えられる。
- 意図して「robots.txt」でブロックしている場合
- 意図していないのに「robots.txt」でブロックしている場合
の2つだ。
まず、ウェブサイトの「robots.txt」がどのような表示になっているか確認することから始める必要があり、「旧Search Consoleのrobots.txtテスター」から確認することが出来る。
意図して「robots.txt」でブロックしている場合
「/sitemap.xml」などの送信されたサイトマップに対象のURLが記載されている可能性があるため、「/sitemap.xml」から削除する。
意図していないのに「robots.txt」でブロックしている場合
本来、インデックスされたいページなため、「robots.txt」を修正する。
noindexタグによってブロックされました・利用されています
エラー | 表示:送信されたURLにnoindexタグが追加されています |
除外 | 表示:noindexタグによってブロックされました |
こちらも「/sitemap.xml」などでGoogleに送信されたウェブページまたは、Googleがインデックスを試みたウェブページに「noindexタグ」がある場合に表示される。
意図的に「noindexタグ」を入れているケースは問題がないが、意図しない場合はページの確認と「noindexタグ」の解除が必要だ。
運営歴が長いと、「noindexタグ」を入れているのを忘れたりする場合があるので、チェックしておきたい項目の1つだ。
feedなどのrss、sitemap.xmlのnoindexについて
こちらは「noindex」で構わないと考える。しかし、「feedなどのrss」や「sitemap.xml」は、Search Consoleに登録しておくことが大切なので忘れないように。
カテゴリーやタグのnoindexについて
賛否両論あるが、ユーザーに必要ならば「index」、必要ないならば「noindex」で構わない。基本的にカテゴリー「index」、タグ「noindex」を私は推奨している。
送信されたURLはソフト404エラーのようです
エラー | 表示:送信されたURLはソフト404エラーのようです |
ソフト404エラーとは、ウェブページでは「ページが見つかりません」などの表示をしているものの、404のステータスコードが設定できていない場合だ。
このエラーが出ている場合は、サーバーが200を返している状態となり、ページが存在していることを意味する。
システムの不備で出るものが多いので、確認・修正が必要なエラーだ。
未承認のリクエスト(401)が原因でブロックされました
エラー | 表示:送信された URL が未承認のリクエスト(401)を返しました |
除外 | 表示:未承認のリクエスト(401)が原因でブロックされました |
リクエスト401(401 Unauthorized)は、何からの認証が必要で、Googleがインデックス出来ないことを表している。
Basic認証やDigest認証などを行う時に利用するため、基本的には何もする必要はないが、意図しない場合は認証の解除が必要となる。
見つかりませんでした(404)
エラー | 表示:送信された URL が未承認のリクエスト(401)を返しました |
除外 | 表示:未承認のリクエスト(401)が原因でブロックされました |
インデックスに登録済みで、ウェブページがなくなってしまった場合に表示されるエラーだ。意図的に除外しているのであれば、問題ない。
また、補足としてページ統合などの場合は301リダイレクトを行っておくことをお勧めする。
404エラーが多くてもサイトに悪影響はない
ウェブサイトに404エラーが発生しても、ウェブサイトには悪影響を及ぼすことはないと、Googleは説明している。
しかし、以下の場合は注意が必要だ。
- 意図的な404エラーではないもの
- ウェブサイトに影響を与える数の404エラー
意図的ではない404エラーは、何かウェブサイトにトラブルが起こっている可能性があるので注意してほしい。
また、サイトの半分以上、404エラーがある場合は、ウェブサイト全体の評価(ページのボリュームによる評価など)を損なう可能性も秘めているため注意してほしい。基本的には404エラーが出ても問題ないと言える。
クロールエラー
エラー | 表示:送信された URL のクロールに問題があります |
除外 | 表示:クロールエラー |
クロールエラーが起こった時は、ページはインデックスされていないので注意が必要だ。確認する項目としては、以下の通りだ。
- 旧Search ConsoleのFetch as Googleを利用し「取得してレタリング」で問題を確認する
- サーバーエラー4××レベルのエラーの可能性を確認する
- サーバーエラー5××レベルのエラーの可能性を確認する
上記の3つの確認を行い、クロールエラーになっている原因を特定する必要がある。
ページ削除ツールによりブロックされました
除外 | 表示:ページ削除ツールによりブロックされました |
旧Search Consoleの「URL削除ツール」を利用し、URLを削除した場合に表示される。
URLは一時的にGoogleの検索結果から削除する機能だが、利用者は少なく「noindexタグ」で対応する場合が多い。意図的に行っていないのであれば、すぐに対処しよう。
<
クロール済み – インデックス未登録
除外 | 表示:クロール済み – インデックス未登録 |
Googleに一度はクロールされたが、インデックスに登録されていないページが除外されている。この件で頭を悩ませている運営者も多いのではないであろうか。
Fetch as Googleを繰り返し行う人もいるだろうが得策ではない。そのため、以下のステップで対処を行ってほしい。
(1)除外されているURLを調査する
クロールされているのになぜ除外するのか、と不明に思う方も多いかもしれないが、まずは除外されているページを認識することから始めよう。「どのページが除外されているのか」確認することから糸口が見えてくる。
数が多い場合はリスト化して確認しておこう。
(2)まずは、それ以外の除外部分を対処する
「クロール済み – インデックス未登録」となっている場合に、「なぜ未登録なのか」特定が難しい。
そのため、その他Googleに除外されている(意図的ではない)部分の修正を行うことが得策だ。特にその他の除外項目「ページが重複している」などの部分の確認を行おう。
(3)「sitemap.xml」をGoogleに送信する
「/sitemap.xml」を作成し、新しいSearch Consoleで送信を行おう。(すでに行っている場合は不要)
sitemap.xmlはGoogleにウェブページを伝えることができるため、除外されている該当ページの解消にもつながりやすい。「XMLサイトマップとRSS/Atomフィード最適設定方法!Googleの最新の考え方を知ろう」も合わせて確認しておこう。
(4)ページの品質を見直す
ウェブサイトの中でページの品質が著しく低い場合はインデックスされないケースがある。
そのため、
- 同じようなタイトルで同じような文章がページにないか確認する
- タイトルとページの内容がマッチしているか確認する
- ページの内容が一般的な内容や、説明が不足していないか確認する
- その他のページを引用したユーザーに役に立たないページになっていないか確認する
- そのウェブサイトに必要なページかどうかを確認する
- そのページは文章になっているか、テキストが入っているか確認する(箇条書きのみなど)
以上を確認し、当てはまった場合は修正を行おう。修正後はFetch as Googleを行っても良いが以下の内容も確認しておこう。
(5)サイトスピードも確認しておこう
ウェブページ、またはウェブサイトのスピードが著しく低い場合、ユーザーに良い影響を与えないため、インデックスされないケースがある。
そのため、「PageSpeed Insights」などで対象のウェブサイト、ウェブページを調査し、遅い場合は改善に努力が必要だ。
また、補足として検索でGoogleはスピードアップデートを行っており、遅いウェブサイトは順位にも影響を及ぼす可能性が高い。
(6)しばらく様子を見る
詳細を核にするとGoogleが前回クロールした日が記載されている。その他のページを改善した上で、改善方法が見当たらない場合は、しばらく(1ヶ月ほど)放置し、様子を見よう。
「Googleは登録するかもしれないし、しないかもしれない」と回答している。
運用に注力することも重要だ。
検出 – インデックス未登録
除外 | 表示:検出 – インデックス未登録 |
該当のページはGoogleに発見されたが、クロールがされていない状態を指す。しばらく様子を見て、消えていれば問題ないが、消えていない場合はサーバーに何らかの負荷がかかっているケースがある。そのため、その他のエラーや除外がないか確認し、解消することが大切だ。
また、様子を見てもインデックスされない場合は、一度、Fetch as Googleを行おう。
代替ページ(適切な canonical タグあり)
除外 | 表示:代替ページ(適切な canonical タグあり) |
この内容は、意図的な場合、修正が必要ない除外だ。正規ページがインデックスされており、適正にcanonical タグを検知している場合に表示される。
また、 表示されていない場合でも問題はない。
ページが重複しています(canonical タグなし)
除外 | 表示:ページが重複しています(canonical タグなし) |
このエラーが出ている対象ページは、Googleは正規ページとして認識しておらず、他に重複しているページがあることを伝えている。
そのため対処が必要となるが、まずは対象になっているウェブページを確認することが大切だ。
重複しているページURLに「info:」の演算子を付けて検索すると、どのページが正規ページなのか発見することが出来る。
(例:info:example.com でGoogle検索)
対処法については、
- ページのコンテンツを修正する
- 「301リダイレクト」を活用する対処法
- canonical(カノニカル)タグで正規化する
- noindex(ノーインデックス)を利用する
- 重複したコンテンツを削除し404ページを表示する
などが対策として挙げられる。
重複しているコンテンツの対処法については「重複したコンテンツはGoogle検索に悪影響?5つの対処法」で詳しく説明しているので確認しよう。
非HTMLページの重複
除外 | 表示:非 HTML ページの重複 |
HTMLではないウェブ上にアップロードしているPDFなどのファイルが、その他のページと重複している場合に表示される。
こちらも、ページの重複と同じ手順で対応する必要がある。また、PDFファイルが検索に必要ないのであれば「noindex」などで対応する。
マークしたページとは異なるページが正規ページとして選択されました
除外 | 表示:Google により、ユーザーがマークしたページとは異なるページが正規ページとして選択されました |
この場合、対象とされるページは重複とみなしGoogleにインデックスされていない。
Googleの認識で別のページが正規URLとしてインデックスされているケースだ。 重複と同じ手順で確認してほしい。
法的申し立てにより、ページが削除されました
除外 | 表示:法的申し立てにより、ページが削除されました |
デジタルミレニアム著作権法(DMCA)により、法的申し立てがGoogleにあり、あなたのページが削除されてしまう場合を指し、もちろんインデックスから除外される。
これは第三者が「著作権侵害による削除」を申し立て、Googleに承認されページが削除された状態だ。
もし、著作権を犯している場合はページを削除・修正する必要があり、そう思わない場合は異議申し立てを行う必要があり、合わせて「デジタル ミレニアム著作権法」のページも確認しておこう。ポイントとしては必ず対処する必要がある除外だ。
メールが届いていないか確認する
「DMCAに基づくGoogle検索から削除のお知らせ」などの内容で、Search Consoleからメールが来ている。まずはメールの有無を確認し、「異議申し立て通知」をするか、修正をする必要がある。
ページにリダイレクトがあります
除外 | 表示:ページにリダイレクトがあります |
任意でリダイレクト設定を行っている場合に表示されるURLだ。意図的に行っているケースが大半なので、問題はないが、チェックを一通り行っておこう。
クロールのキューに追加されました
除外 | 表示:クロールのキューに追加されました |
「クロールのキュー」は意味が分からないが、再度Googleがクロールするようにしているページだということだ。
そのため、数日後にクロールされているはずなので、こちらは確認しなくても問題なく、対処法も放置で構わない。
送信された URL は削除済みです
除外 | 表示:送信された URL は削除済みです |
何らかの事情で、削除されたURL(ページ)が該当として記載されている。
対象ページを確認して、任意に削除したページかどうかチェックしておこう。
送信された URL が canonical として選択されていません
除外 | 表示: |
対象のページが重複していることを意味している。
- ページA:canonicalタグでページBを指定
- ページB:重複したページだと認識されている
上記の場合におこる除外だ。
そのため「ページが重複しています(canonical タグなし)」と同じ手順で修正が必要だ。
robots.txt によりブロックされましたが、インデックスに登録しました
警告 | 表示:robots.txt によりブロックされましたが、インデックスに登録しました |
robots.txtでウェブページをブロックしているのにも関わらず、Googleの認識でインデックスされたという警告だ。
Googleでは常にrobots.txtに従うが、他のユーザーからリンクされている場合などはrobots.txtは適用外となるケースがまれにある。
この場合robots.txtはそのままで、
- 「noindex」タグを利用する
- (PWなどで)アクセスを制限する
などの方法が最適だ。もちろん、アクセスしてほしいページであれば、robots.txtを見直しておこう。
まとめ
参照コンテンツ:Search Consoleヘルプ:インデックス カバレッジ レポート
Googleからインデックスされていない場合に、Fetch as Googleを乱用する場合が多く見受けられるが、エラー、除外、警告、すべてに意味がある。
そのため、状況を確認し、対策を行ってから、Googleにインデックスされるように努めてほしい。
そうすることによって、Googleが認識しやすいウェブサイトの構築が出来るだろう。
もし、エラーが解決しない場合は私が運営する「SEO対策の無料相談フォーラム」で相談するか、下のコメント欄に追加してほしい。
Edit
コメント:1件