国内&海外SEO情報ウォッチ 「海外SEO情報ブログ」の鈴木 謙一氏が、日本と海外の検索マーケティング情報をさらっとまとめて毎週金曜日にお届け。
海外&国内SEO情報ウォッチ

404と410はなにが違うの? グーグルの扱いはどう違うの?

ページ

海外のSEO/SEM情報を日本語でピックアップ

404と410はなにが違うの? グーグルの扱いはどう違うの?
★★★★☆ ビミョーに違うだけ。どっちを使ってもいい。 (Google Webmasters on YouTube)

HTTPステータスコードの「404」と「410」に対するグーグルの処理の違いを、マット・カッツ氏が解説した。

404も410も、ブラウザなどのアクセスに対してWebサーバーが返すHTTPステータスコードだが、定義上の違いは次のとおりだ。

ステータスコード意味
404「Page not found(ページが見つからなかった)」
410「Gone(ページが削除された、なくなった)」

結果としては「そのURLのコンテンツはない」ことに変わりはないのだが、本来の意味としては、404は「ない」を表し、410は「以前は存在していたのだが、今はなくなった」ことを表す。

ページのクロールにおいてグーグルは、404が返ってきた場合と410が返ってきた場合で、異なる処理をしている。要点をまとめると、次のとおりだ。

  • 404(と410以外のそのほかの400番台のエラー)が返ってきたページに対する実際の処理は、24時間保留にしている。

  • 410が返ってきたページに対する実際の処理は、直ちに行われる。

  • 404も410も、復活していないか確かめるためにそのURLにGooglebotが定期的に再クロールを試みる。

一般的なWebサーバーでは、アクセスされたURLに対応するコンテンツがない場合は、404を返すように設定されている(410は管理者が設定した場合にのみ使われる)。

そのため、サーバーから404が返ってきたとしても、その理由が「本来の404」なのか「410相当」なのか「ミス」なのか「一時的な不具合」なのか、判断しづらい。

グーグルは、Webサイト管理者のミスが原因で404が返っている場合に問題が発生しないように、404を返すURLに対する処理は、すぐには始めないのだそうだ。一定の時間(24時間)待機し、本当になくなっているかどうかをもう一度確かめるということだ。

それに対して、410は意図的に削除したことを示すので、すぐに処理を始めるとのことである。

いずれの場合でも、Googlebotがその後繰り返し再訪問することに変わりはない。再びアクセスできるようになっている可能性があるからだ。

このように404と410に違いはあるものの、無視できるくらい微々たるものだ。普段の運用で気にかけることではない。

すぐにURLを削除したいのであれば、「URL削除ツール」を使ったほうが確実で速い。URL削除ツールを使えば404でも速やかに削除処理に入ってくれる。

サイトがハッキングされたらランキングは下がるのか
★★★☆☆ 下がることもあるし、何よりも早急な対処が求められる (Hacker News)

大手のメディアサイトがハッキングされた事件に関するディスカッションのなかで、グーグルのマット・カッツ氏が次のように尋ねられた。

サイトがハッキングされているというメッセージが検索結果に表示されたときは、PageRankやサイトのランキングにも影響が及びますか?

マット・カッツ氏は次のように返答した。

そうだね、さまざまな場合がある。なぜならマルウェアの自動検出やハッキングされたサイトの自動検出、手動によるハッキングサイトの検出があるからだ。

たとえば、もしサイトのサブディレクトリの1つがハッキングされていることを手動で発見したとしたら、そのディレクトリだけを検索結果から削除するかもしれない。

あるいは、サイト全体がハッキングされているのならば、問題が解消されるまで順位を下げたり検索結果から削除したりするかもしれない。

つまり、ハッキングされた場合には、検索順位(または検索結果に表示されるかどうか)に影響を与えるということだ。しかし、それは「ハッキングされたサイトだから評価を下げる」のではない。原則としては、あくまでも「問題のある状態のサイトに検索ユーザーを連れて行かないようにするため」の対応だ。

検索ユーザーに損害を与えないようにするために、グーグルはハッキングやマルウェア感染の検出能力を高めている。あなたが運用するサイトが万が一ハッキングされたとしたら、たとえランキングへの悪影響が一部に限られていたとしても、早急に対処しなければならない。

対処の手順を解説する専用サイトをグーグルは準備しているので、もしものときのためにお気に入りに追加しておくといい。

PCとモバイルが別URLの構成では、ウェブマスターツールの重複レポートは無視していい
★★★☆☆ 知らないと戸惑う (Google Webmaster Help Forum)

PC向けページとモバイル向けページを別URLで提供しています。

ウェブマスターツールの「HTMLの改善」で「タイトルタグの重複」と「重複したメタデータ」が数多くレポートされています。

どのように対処したらいいでしょうか?

こんな質問が、英語版のグーグル公式ヘルプフォーラムに投稿された。

グーグルのジョン・ミューラー氏によるアドバイスを次にまとめる。

  • PC向けとモバイル向けを別URLで提供するやり方自体には問題ない。グーグルがサポートしている構成の1つだ。

  • モバイル向けURLをrobots.txtでブロックしてはいけない。

  • モバイル向けURLを「URL削除ツール」で削除してはいけない。

  • PC向けページとモバイル向けページが同じtitleタグとmeta descriptionタグを使っているのだから、重複としてでるのは当然のこと。問題ない。

ウェブマスターツールの重複データは、Googlebotがクロールした時点、言い換えると正規化処理が行われる前の状態でレポートされる。正しく設定していたとしても、PCとモバイルを別URLで構成しているサイトでは重複扱いされるようだ。

仕組みを知っていれば無視できるが、すべてのページが重複扱いされたら戸惑うのが普通だ。別URL構成を採用しているサイト運営者は「本質的に問題がない限り、気にしなくていい」と覚えておこう。

重複を解消しようとして、決して、モバイルページをブロックしたりインデックスから削除したりしてはならない。

グーグルの「キーワードがnot providedだらけ問題は数か月のうちに何とかする」の内容が判明
★★★☆☆ アドワーズも巻き添え (Google Ads Developer Blog)

「(not provided)」の解決策をグーグルが近々提供する予定であることを先日お伝えした。米グーグルサーチクオリティチームのトップ、アミット・シングハル氏によるSMX Westカンファレンスでの発言だった。

具体的な内容がついに明らかになった。こういう対応だ。

「アドワーズ広告をクリックしたときのリファラーから、検索クエリのデータを取り除く」

つまり、アドワーズ広告でも検索キーワードの情報を入手できなくなったのだ。

オーガニック検索の側にはなにも変更はない。検索キーワードは、これまでと同様にわからないままだ。

オーガニック検索と有料検索の不公平さをなくすこと」が解決策の目的だったが、いわばアドワーズの広告主を巻き添えにしたような形だ。

そうは言っても、影響はさほど大きくないと思われる。

アドワーズの管理画面での検索語句レポートは今までと同様に提供される。APIも引き続き利用可能だ。

影響を受けるのは、アドワーズをクリックして訪問してきたユーザーの検索キーワードを、アクセス解析ツールなどで(リファラーから)取得していたツールだ。たとえばGoogleアナリティクスでは、アドワーズ経由のトラフィックでも検索キーワードがわからなくなる。

広告業界にとってもちろん嬉しいニュースではないが、衝撃の程度はSEO業界が受けたものよりも緩いのではないだろうか。

また、マーケターとしては残念だが、グーグルが「検索ユーザーのプライバシー保護」という本来の意図に沿って進んでいることは、評価するべきことだろう。

グーグルがSSLサイトのランキングを上げるって本当?
★★★☆☆ 検討を始めただけ (The Wall Street Journal)

SSLを導入しているサイトの検索順位を上げるべきかどうかの検討を、グーグルが始めた

米ウォール・ストリート・ジャーナルによると、グーグルのマット・カッツ氏は非公式な会話の中で、このようにコメントしたとのことだ。

グーグルは、自社が提供するサービスのほとんどでSSL(HTTPS)を採用している。ユーザーのプライバシーとセキュリティを保護することが目的だ。

また一般のサイトにもSSLを使うことを推奨する検索関係の社員も多い。マット・カッツ氏自身がそうだし、このコーナーでおなじみのジョン・ミューラー氏もSSL推進者の1人だ。

プライバシーとセキュリティに対する関心が高まるなか、SSLを導入しているサイトの優遇をグーグルが考えたとしても不思議なことではない。

ただし、まだ決まったわけではない。ただ検討を始めただけにすぎない。実施したくても解決すべき問題が多いはずだ。実施するかもしれないし、しないかもしれない。時期はおろか、何も決まっていないことを重ねて強調しておく。

実は、筆者が自分のブログで、グーグルがSSLをランキング要因にするのでは? と個人的な推測を書いたところ、あるレンタルサーバー業者がそこだけを抜き出し、上位表示に有利だからとSSLサービスの購入を持ちかけてきたという話を聞いた。

このコーナーの読者は、詐欺にも似たこんな勧誘に引っかからないように十分ご注意願いたい。

とはいえ、サイトの常時SSLそのものに筆者は賛成だ。それがユーザーに支持されるなら検討に値する。SEOのためというよりも、ユーザーのためになるのであれば、間違いなく良いことなのだから。

※Web担編注

ただし、メディア的な役割を果たすサイトでは、フルSSL化はデメリットがあることを理解してほしい。

というのも、HTTPSのページにあるリンクをクリックしてHTTPのページに飛んだ場合、リファラーが消えるからだ。

メディアは、「あのサイトからうちのサイトに来る人が多い」ということも大切な評価だが、他のサイトが非HTTPSの場合、その評価が失われるからだ。

もちろん、TwitterなどがやっているようにリダイレクトURLを使う手もあるが、そのリダイレクトURLが外部から不正に利用されないための対処なども必要であり、少し面倒なことになる。

SEO JapanSEO Japanの
掲載記事からピックアップ

プロによるSEOアドバイス記事とコンテンツマーケティングの記事を今週はピックアップ。

ページ

この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

robots.txt
ロボット型の検索エンジンが自分のページを登録しないようにするためにサイト管理者が ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]