国内&海外SEO情報ウォッチ 「海外SEO情報ブログ」の鈴木 謙一氏が、日本と海外の検索マーケティング情報をさらっとまとめて毎週金曜日にお届け。
海外&国内SEO情報ウォッチ

1ページに設置可能なリンクの上限はいくつ?

ページ

海外のSEO/SEM情報を日本語でピックアップ

1ページに設置可能なリンクの上限はいくつ?
ユーザーに必要な分だけどうぞ (John Mueller on Twitter)

ツイッターでの、ジョン・ミューラー氏とフォロワーのやりとりを紹介する。

(フォロワー)発リンクと被リンクの理想的な比率はどのくらいですか?

(ミューラー氏)そういったものはない。

(フォロワー)でも、1ページに設置できるリンクの数には制限がありますよね? 何%かを知りたいのです。

(ミューラー氏)とにかく、すばらしいページを作りなさい。リンクの数なんて気にする必要はない。

1ページに置くリンク数として100本程度をグーグルが推奨していた時期があった。しかしそれは、はるか昔の話だ(筆者の記憶が間違っていなければ、江戸時代中期だったと思う)。またこの制限があった理由も、技術上の問題からだった。当時のGooglebotは大量のリンクを認識できなかったのだ。

しかし、今はそういった制約はないので、何も気にしなくていい。

それでも、1ページに何本のリンクを置くかという疑問を抱いたのであれば、「ユーザーに提示すべきリンクを必要な数だけ設置する」と考えるのがいいだろう。

もちろん、情報としてユーザーに価値があっても、1ページに1,000本も2,000本もリンクが列挙されていたら、そのページのUXが良いとは言えない。

ユーザーにとって必要なリンクを、見やすい形で提供していれば、1ページに何本のリンクがあるかなど気にする必要はない。

★★★☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)
  • ホントにSEOを極めたい人だけ

リンクの否認の解除にかかる時間はどのくらい?
どうでもいいこと!? (John Mueller on Twitter)

いったん否認したリンクを、後ほど否認ファイルから削除した場合、元の状態に戻るまでにはどのくらいの時間がかかるのか?

この疑問について、過去のグーグル社員の発言を持ち出しながら、しつこく尋ねてくるSEOコンサルタントたちをグーグルのジョン・ミューラー氏は次のようにたしなめた。

あらゆるインデックスの変更には、はっきりと定まった所用時間なんてものは、存在しない。だから私ならそういった(否認処理にかかる)タイミングを気にしたりしない。正しいことをやり、自然に落ち着くのを待つようにしなさい。

リンクの否認にかぎらず、クロールやインデックス、その後の処理など、一律には確定できない要因がかかわってくるものだ。

SEOコンサルタントやSEO担当者は、検索エンジンの動作を分析することも大切な仕事だ。だから、こうしたことを詳しく知りたいと思うのは、わからないでもない。

だが、このコーナーの対象であるウェブ担当者は、SEOにのめり込むあまり、サイト運営に実質的に大きな意味をもたないことに夢中にならないように気をつけてほしい。本当に重要なことにフォーカスしよう。

★★★☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)
  • ホントにSEOを極めたい人だけ

noindexタグとrobots.txtの違い、あなたは理解できていますか?
似ているようで働きが異なる (John Mueller on Twitter)

noindex robots meta タグrobots.txtの働きは、似ているようで、まったく異なる。両者の働きや使い道を正しく理解してできていないサイト管理者が、グーグルのジョン・ミューラー氏に質問していた。

それぞれの仕組みについて、ウェブ担当者としてしっかり理解しておくべきことを、筆者が簡潔にまとめよう。

  • noindex robots meta タグ:

    HTMLのheadセクションに記述するタグ。

    そのページをGooglebotはクロールする。言い換えれば、ページの中身を見る。

    グーグル内部では実際にはインデックスするが、検索結果には表示しない

  • robots.txt:

    サイトのルートディレクトリに置くテキストファイル。

    Googlebot(検索エンジンのクローラ)のクロールを拒否できる(サイト全体、ディレクトリ単位、ページ単位で設定可能)。クロール拒否されたURLをGooglebotはクロールしない。つまり、ページの中身を見ない。

    ただし状況によっては、検索結果に表示されることがある(一般的に、タイトルはURLになりスニペットは出ない)。

簡単に言えば、検索結果表示の制御にはnoindexタグを使う。クロールの制御にはrobots.txtを使う。

noindexタグではクロールを抑えることはできないし、robots.txtでは検索結果の表示を(完全には)抑えることはできない。

また両者の併用は無意味なことも必ず認識しておこう。

★★★★★
  • すべてのWeb担当者 必見!
  • 技術がわかる人に伝えましょう

ウェブページに勝手にJSを挿入されてAMPエラー!?
HTTPSなら防げる (Paul Bakaus on Twitter)

グーグルでAMP開発に中心的な役割を果たしているポール・バカウス氏がリツイートしたツイッターの投稿を紹介する。AMPの実装に問題が発生したサイト管理者による投稿だ。

ボーダフォンよ、ありがとう。私のAMPページに魔法のようにあなたがJavaScriptを追加したおかげで、不適切なAMP HTMLになってしまった :(

このサイト管理者のサイトは、インターネットへの接続に(スペインの)ボーダフォン社を使っているようだ。ボーダフォン社は、サイトがユーザーのブラウザと通信する際に、何らかのJavaScriptを勝手に挿入したらしい。

AMPではJavaScriptの使用が厳しく制限されている。AMPで許可されたJavaScriptしか原則的に使えない。許可されていないJavaScriptがページにあれば、一発でAMPエラーになる。

プロバイダが、たとえば広告をウェブページに勝手に挿入するというのはよくある話だ。見方によっては、ウェブページの改ざんだとも言える。

こうしたことを防ぐのに有効な方法は、ページをHTTPSで提供することだ。そのページがHTTPSであれば第三者による不正な書き換えを防ぐことができる。暗号化による盗み見防止のほかにも、改ざん防止(となりすまし防止)の役割もHTTPSは持っているのだ。

リツイートしたバカウス氏も、次のようにコメントしている。

HTTPS化するのに説得力がある理由がどうしても必要なら、これがいい例だ。

機密情報を扱っていないとしても、HTTPSへの移行が望まれる好例だ。

★★★★☆
  • すべてのWeb担当者 必見!
※SEO Japanは更新停止状態が続いているため、このコーナーでの紹介枠もいったん終了する(更新再開の際には改めて)。

ページ

この記事が役に立ったらシェア!
tweet99はてなブックマークに追加
みんなが読んでるWeb担メルマガで、あなたも最新情報をチェック
  • SEOやアクセス解析のなどノウハウをゲット
  • 事例やインタビューも見逃さない
  • 要チェックのセミナー情報も届く
  • 編集長コラムを一足先に読める

日本赤十字社 東日本大震災 義援金募集
みんなが読んでるWeb担メルマガで、あなたも最新情報をチェック
  • SEOやアクセス解析のなどノウハウをゲット
  • 事例やインタビューも見逃さない
  • 要チェックのセミナー情報も届く
  • 編集長コラムを一足先に読める

人気記事トップ10(過去7日間)

今日の用語

robots.txt
ロボット型の検索エンジンが自分のページを登録しないようにするためにサイト管理者が ... →用語集へ

インフォメーション

Web担のメルマガを購読しませんか?
Web担の記事がコンパクトに毎週届くメールマガジン「Web担ウィークリー」は、10万人が読んでいる人気メルマガ。忙しいあなたの情報収集力をアップさせる強い味方で、お得な情報もいち早く入手できます。

Web担に広告を掲載しませんか?
購読者数10万人のメールマガジン広告をはじめとする広告サービスで、御社の認知向上やセミナー集客を強力にお手伝いいたします。

サイトマップ
RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]