2012年から激変の時代となったSEO業界。最近では、パンダアップデートペンギンアップデートの更新が立て続けに行われました。
これらのアップデートにより、スパムと呼ばれる違反行為に関する監視の目は厳しくなり、Googleが目指すユーザーにとって有益な検索結果を表示する傾向が、より一層近づきました。

運営者自身は悪意がなかったにも関わらず、実はスパムに該当する行為を行っていたことでペナルティや順位が下落してしまったというケースも少なくありません。

そのため、SEOにおいてGoogleの動向をチェックすることはもちろんですが、ホームページを運営するうえで守るべきルール(ウェブマスター向けガイドライン)は公式にも公表されているため、運営者であれば必ずチェックしておきましょう。

今回は、Googleが定めるウェブマスター向けガイドラインの解説と補足情報を追記してまとめました。

Googleが公表するウェブマスター向けガイドラインは、日本語訳が正確でないため解読ができないことが多いです。当記事は見解に基づく補足が含まれていることをご留意ください。
また、10/28に、11番目の技術に関するガイドラインの項目が更新されました。

【旧項目】
11. Lynxなどのテキストブラウザを使用して、サイトを確認します(ほとんどの検索エンジンのスパイダーには Lynx で見えるようにサイトが映ります)。JavaScript、Cookie、セッション ID、フレーム、DHTMLFlash などの特殊な機能が使用されているためにサイトの一部がテキストブラウザで表示されない場合、検索エンジンのスパイダーがサイトをうまくクロールできない可能性があります。

▼補足▼
スパイダーは、Lynxに代表されるテキストブラウザのように表示されるため、特殊な表示方法を使う場合、スパイダーが認識しない可能性があるということです。

また、ガイドライン自体も知らぬ間に更新されていることもあるため、執筆時の2014年10月28日時点での内容となります。

ウェブマスター向けガイドラインとは?

ウェブマスター向けガイドラインとは、Google検索結果に表示されているホームページ(表示される前のホームページも含む)が守るべきルールです。
このルールに沿ったホームページ作成や運用を行うことで、正しくGoogleに認識してもらうことができます。

このウェブマスター向けガイドラインの項目は、「これをやれば順位が上がるのか?」ということではなく、SEOの評価以前にホームページ運営で行うべき『お作法』と言えます。
つまり、このお作法が出来ていなければ適正な評価をすることが難しいということです。

運営者は、Googleからの評価に関する情報をウェブマスターツール(Google Search Console)を通じて知ることができますので、必ずウェブマスターツール(Google Search Console)の登録を行いましょう。

ウェブマスターツール(Google Search Console)の登録方法:SEO対策には必須なウェブマスターツール(Google Search Console)の使い方
参照:ウェブマスター向けガイドライン

ウェブマスター向けガイドラインは大きく3つ

ウェブマスター向けガイドラインは、ホームページ運営で守るべきルールを3つに分けて明記されています。
以下では、各項目の補足となる情報を記載しています。

・デザインとコンテンツに関するガイドライン
・技術に関するガイドライン
・品質に関するガイドライン

デザインとコンテンツに関するガイドライン

デザインとコンテンツに関するガイドラインは、検索結果からホームページを見つけるユーザーに最適な情報の表示方法や、閲覧するユーザーに対して有益なホームページのありかたについてのルールです。

ホームページを閲覧するユーザーとホームページの情報を収集し評価につなげるスパイダー(別名、クローラー)2つの観点から、考えられるメリットについて紹介します。

1. わかりやすい階層とテキストリンクを持つサイト構造にします。各ページには、少なくとも 1つの静的なテキストリンクからアクセスできるようにします。

▼ユーザーのメリットに関する補足▼

・階層構造を整理することで、ユーザーがホームページ上での現在位置把握ができ、目的の情報を見つけやすいこと。

テキストリンクで明示(パンクズやメニューなど)することで誰でも理解しやすくすること。

▼スパイダーのメリットに関する補足▼

テキストリンクページ先の情報を明示することで情報取得がしやすいと言われている。
例えば、Webマーケティングのノウハウを提供するページへのリンクであれば、以下のようなテキストリンク

例)Ferretが提供するWebマーケティングのノウハウはこちら

・階層構造が整理されていることで、どんなテーマに特化したページ・ディレクトリなのかを判断し評価しやすい

・動的なリンクを必ず判断するとは限らないため、保険として静的なリンクを最低1つ入れる事で判断されないリスクが減る

2. サイトの主要なページへのリンクを記載したサイトマップを用意します。サイトマップ内にリンクが非常に多数ある場合は、サイトマップを複数のページに分けることをおすすめします。

▼ユーザーのメリットに関する補足▼

・サイト全体を俯瞰して把握できるページがあることで、目的の情報を見つけやすい
サイトマップとは、sitemap.xmlのことではありません。

▼スパイダーのメリットに関する補足▼

・ホームページ全体の目次となるサイトマップページより、どんなテーマに特化したページ・ディレクトリなのかを判断し評価しやすい

3. 1ページのリンクを妥当な数に抑えます。

※妥当な数について、以前は100程度と言われていたが最近では100以上でも問題ないと公式に言われている

▼ユーザーのメリットに関する補足▼

リンクが少ないことで他のページに移動し難い、多すぎることで見つけにくいという事を防ぐ目的で適正な数の調整。

▼スパイダーのメリットに関する補足▼

リンクが多すぎる場合、スパイダーの情報収集に支障がでる可能性もあるため、円滑に回遊(クローリング)できる適正な数に調整。

4. 情報が豊富で便利なサイトを作成し、コンテンツをわかりやすく正確に記述します。

【ユーザーのメリットに関する補足】

検索結果から探してきたユーザーにとって目的の情報であること、更には専門的であったり具体的で有益な情報が分かりやすい構成で記載されている

▼スパイダーのメリットに関する補足▼

・情報量が多いほど情報収集がしやすく、更に分かりやすければ(見出しなどのマークアップ)より情報収集が効率的になる

5. ユーザーがあなたのサイトを検索するときに入力する可能性の高いキーワードをサイトに含めるようにします。

▼ユーザーのメリットに関する補足▼

検索結果から見つけやすくなる

▼スパイダーのメリットに関する補足▼

・どんなテーマのホームページなのか理解しやすくなる

6. 重要な名前、コンテンツ、リンクを表示するときは、画像ではなくテキストを使用します。Google のクローラでは、画像に含まれるテキストは認識されません。テキスト コンテンツの代わりに画像を使用する必要がある場合は、alt 属性を使用して簡単な説明テキストを組み込みます。

▼ユーザーのメリットに関する補足▼

※どちらかというスパイダー寄りのため記載しません。

▼スパイダーのメリットに関する補足▼

・スパイダーは画像認識できないため、alt属性にテキストを記載することで認識しやすくなる

7. titleタグの要素とALT属性の説明をわかりやすく正確なものにします。

▼ユーザーのメリットに関する補足▼

検索結果から、どんなページかを理解しやすくなる

▼スパイダーのメリットに関する補足▼

・どんなテーマのホームページなのか理解しやすくなる

8. 無効なリンクがないかどうか、HTML が正しいかどうかを確認します。

▼ユーザーのメリットに関する補足▼

リンクが問題ないほうがユーザーにとって使いやすい

▼スパイダーのメリットに関する補足▼

・無効なリンクや正しいHTMLで記載されたページは、円滑なクローリングが可能になる

9. 動的なページ(URL に「?」が含まれているページなど)を使用する場合、検索エンジンのスパイダーによっては、静的なページと同じようにはクロールされない場合があることを考慮します。パラメータを短くしたり、パラメータの数を少なくしたりすると、クローラに見つけられやすくなります。

▼ユーザーのメリットに関する補足▼

※どちらかというスパイダー寄りのため記載しません。

▼スパイダーのメリットに関する補足▼

・動的なURLを確実に判断とは限らないため、スパイダーに負担をかけないURLのほうが判断しやすい

10. 画像、動画、リッチスニペットの各注意事項をご覧ください。

※ここに関しては、画像、動画、リッチスニペットを使用する際の注意点が下記にまとめられています。

画像
https://support.google.com/webmasters/answer/114016

動画
https://support.google.com/webmasters/answer/156442

リッチスニペット
https://support.google.com/webmasters/answer/2722261#2

技術に関するガイドライン

技術に関するガイドラインは、ユーザーが閲覧する際のサポートを行うシステムやホームページ運営における技術的な部分で守るべきルールです。
こちらに関しては、補足情報を追記してご説明します。

11. Google がサイトのコンテンツを完全に把握できるように、サイトのアセット(CSS や JavaScript ファイル)がすべてクロールされるようにしてください。Google インデックス登録システムは、ページの HTML やそのアセット(画像、CSS、Javascript ファイル)を使用してウェブページをレンダリングします。Googlebot がクロールできないページアセットを確認し、robots.txt ファイルのディレクティブをデバッグするには、ウェブマスター ツールの Fetch as Google ツールとrobots.txtテスターツールを使用します。

▼補足▼
CSSファイルやJavaScriptファイルもスパイダーがクロールできるようにしましょう。
robots.txtなどを使って、スパイダーがクロールできない(もしくは制御している)場合、インデックスに影響をあたえる可能性があります。

12. セッションIDやサイト内のパスをトラッキングする引数がなくても、検索ロボットがサイトをクロールできるようにします。これらの技術は個々のユーザーの行動をトラッキングする場合には便利ですが、ロボットがアクセスするパターンとはまったく異なります。そのため、これらの技術を使用すると、実際は同じページにリンクしている別の URL をロボットが排除できず、そのサイトのインデックスが不完全なものになる可能性があります。

▼補足▼
Googleアナリティクスなどのアクセス解析でユーザーの行動を記録する際に、クエリパラメータを使用する場合があります。その際、以下のように不要なクエリパラメータが追記されていても同様のページが表示される場合は重複ページとなる可能性があります。そのため、URLの正規化を行いましょう。(rel=”canonical”や301リダイレクト

13. ウェブサーバーが If-Modified-Since HTTP ヘッダーに対応していることを確認します。この機能を使用すると、Google が前回サイトをクロールした後にコンテンツが変更されたかどうかがサーバーから Google に通知されるため、帯域幅や負荷を軽減できます。

▼補足▼
If-Modified-Since HTTPヘッダーとは、一度訪れたページの情報を保存し、再び訪れた際は保存した情報をもとに表示する機能(キャッシュ)のことです。

Googleのスパイダーも同様にキャッシュを利用して情報収集するため、使用しているサーバーが対応していることで円滑に情報収集ができます。
※一般的なサーバーはほとんどが対応しているので、あまり気にしなくても大丈夫です。

14. ウェブサーバーのrobots.txtファイルを活用します。このファイルでは、クロールを実行するディレクトリと実行しないディレクトリを指定できます。誤って Googlebot クローラがブロックされることのないよう、このファイルにサイトの最新の状態が反映されていることを確認してください。サイトへのロボットによるアクセスを制御する方法については http://code.google.com/web/controlcrawlindex/docs/faq.html をご覧ください。Google ウェブマスター ツールの robots.txt 分析ツールを使用して、robots.txt ファイルを正しく使用しているかどうかをテストできます。

▼補足▼
robots.txtファイルを使う事で、検索結果に表示させたくないページにスパイダーが来ないように制限を設ける事が出来ます。ただし、誤ってスパイダーが制限されないように注意しましょう。(例えば、ホームページ自体に来れない等)

15. 広告が検索エンジンの掲載順位に影響を与えないように、適切な対処をします。たとえばGoogleのAdSense広告やDoubleClickのリンクは、robots.txtファイルでクロールをブロックします。

▼補足▼
AdSense広告やDoubleClickのリンクが設置されている場合、評価を渡してしまうことやスパイダーの無駄な回遊をなくす意味でrobots.txtを使って制御するということです。

16. コンテンツ管理システムを導入する場合は、検索エンジンがサイトをクロールできるようなページやリンクを、システムが作成することを確認します。

▼補足▼
コンテンツ管理システム(CMS)を使用する際、動的なURLとして"&id="のようなパラメータを含む場合、スパイダーが円滑に情報収集できない可能性があるためURLリライトなどを行ってURLを簡略化するということです。

17. robots.txt を使用して、検索結果ページや、検索エンジンからアクセスしたユーザーにとってあまり価値のない他の自動生成ページをクロールしないよう制御します。

▼補足▼
例えば、ホームページ内にある検索機能を使った後に表示される検索結果ページは、同じ条件で検索したいユーザーにしか価値がありません。
また、自動生成のため、ページが多くなれば多くなるほどスパイダーに不要な情報収集を行わせることにも繋がります。

18. サイトをテストして、各ブラウザで正しく表示されることを確認します。

▼補足▼
どんな環境のユーザーでもホームページが見れるようにブラウザ間での表示の違い(ブラウザチェック)を確認するということです。

19. サイトのパフォーマンスを監視して、読み込み時間を最適化します。Google の目標は、最も関連性の高い検索結果と優れた利便性をユーザーに提供することです。表示が速いサイトは、ユーザーの満足度を高め、ウェブ全体の質を向上させます(特にインターネット接続速度が遅い場合)。そのため、Google では、ウェブマスターがサイトを改善することで、ウェブ全体の速度が上がることを期待しています。

ウェブマスターの皆様には、Page Speed、YSlow(英語)、WebPagetest(英語)、その他のツールを使用して定期的にサイト パフォーマンスを監視することを強くおすすめします。ツールやリソースなどの詳細については、ウェブ高速化をご覧ください。

▼補足▼
ホームページの読み込み時間が長い場合、ユーザーにとって利便性の欠けているページとなります。そのため、読み込み時間が短くなるよう最適化し、ユーザーの満足度を高めるホームページにしましょうということ。

品質に関するガイドライン

品質に関するガイドラインは、主にスパム行為と呼ばれる順位上昇を目的とした偽装や不正行為についてのルールです。

Googleに記載されている公式でも、品質に関するガイドラインや基本方針といった内容が細かく記載されていますので、ホームページ運営者にとっては特に重要な項目です。
こちらに関しては、補足情報を追記してご説明します。

【品質に関するガイドライン - 基本方針】

検索エンジンではなく、ユーザーの利便性を最優先に考慮してページを作成する。ユーザーをだますようなことをしない。

検索エンジンでの掲載位置を上げるための不正行為をしない。ランクを競っているサイトや Google 社員に対して自分が行った対策を説明するときに、やましい点がないかどうかが判断の目安です。その他にも、ユーザーにとって役立つかどうか、検索エンジンがなくても同じことをするかどうか、などのポイントを確認してみてください。

◆ どうすれば自分のウェブサイトが独自性や、価値、魅力のあるサイトといえるようになるかを考えてみる。同分野の他のサイトとの差別化を図ります。

上記の基本方針を踏まえ、以下のようなスパム行為に該当しないかを確認しましょう。

20. コンテンツの自動生成

▼補足▼
テキスト情報をクローラーが認識するということを踏まえ、意味不明な文章の羅列や上位に表示させたいキーワードの羅列で順位上昇を意図的に行うスパム行為です。ユーザーにとって価値が無く、パンダアップデート後、ほとんどが淘汰された昔の手法です。

21. リンクプログラムへの参加

▼補足▼
日本で最も横行していたスパム行為です。リンク外部リンク)が最も検索順位に影響を与えると考えられていた頃から、意図的にリンクを増やす行為を指します。
例えば、リンクをお金で購入、相互リンクといって過剰にリンクを獲得する、アンカーテキストに順位上昇させたいキーワードを詰め込む、リンクを獲得するためのコミュニティに登録するといった行為全般が該当します。

22. オリジナルのコンテンツがほとんどまたはまったく存在しないページの作成

▼補足▼
コンテンツを複製したコピーページやユーザーを商品に誘導するためだけのページ(ドアウェイページ)などを指します。
特にコピーページに関しては、コンテンツ自体が重複しやすいアフィリエイトやまとめ系コンテンツ(2chまとめ等)が該当しやすい傾向にあります。

23. クローキング

▼補足▼
1つのホームページに対して、スパイダーとユーザーで表示させるコンテンツを変える行為です。
例えば、ユーザーにはデザイン(Flashなど)をしっかりした施したページを見せているのに対し、スパイダーにはSEO対策のみ(対策キーワードを沢山含めたりするなど)を意識したページを見せ順位上昇を意図的に行うことです。
そのため、ユーザーとスパイダーには同一のコンテンツを表示させなければいけません。

24. 不正なリダイレクト

▼補足▼
リダイレクトの本来の使い方は、ページにアクセスしようとしたユーザーを別ページに移動させることです。例えば、ホームページ移転の際に古いページに訪れたユーザーを新しいページリダイレクトで移動させる際に用います。

一方で、スパイダーはリダイレクトを辿らないため、元のページの情報収集を行います。
そのため、この方法を応用してクローキングと同様にユーザーとスパイダーで表示させるコンテンツを変える偽装行為が不正なリダイレクトとなります。

25. 隠しテキストと隠しリンク

▼補足▼
ユーザーには見えない様に偽装して検索順位を上げたいキーワードを含むテキストを配置したり、リンクを配置する行為です。
以下のような項目が該当します。

・白の背景で白のテキストを使用する
テキストを画像の背後に置く
CSSを使用してテキストを画面の外に配置する
フォントサイズを0に設定する
・小さな1文字(段落中のハイフンなど)のみをリンクにしてリンクを隠す

26. 誘導ページ(ドアウェイページ)

▼補足▼
コンテンツの自動生成と同様に、特定のページに誘導することだけを目的としたページやホームページ全体が誘導ページ(ドアウェイページ)となります。
例えば、各都道府県別で作成しただけで、内容の変わらないコンテンツがあるホームページなどが該当します。

27. コンテンツの無断複製

▼補足▼
誰か別の人が保有するホームページから、許可のない転載や完全コピーしたコンテンツが該当します。また、語句や言葉じりを多少変えただけであってもコンテンツの無断複製に該当します。

28. アフィリエイトプログラム

▼補足▼
質の低いアフィリエイトサイトを指します。具体的に言うと、アフィリエイトプログラムを実施している販売元が開示している情報のみを記載していて、独自性のないアフィリエイトサイトです。

注意点として、全てのアフィリエイトサイトが当てはまるわけではなく、独自の感想であったり比較情報を掲載したコンテンツは、ユーザーにとって価値あるページとなるため該当しません。

29. キーワードの乱用

▼補足▼
順位上昇させたいキーワードをコンテンツ内やtitleタグ、altタグに詰め込む行為が該当します。このようなSEO対策のみを過剰に意識したページペンギンアップデートにより順位下落したケースが多く見受けられました。

30. 悪意のある動作を伴うページの作成

▼補足▼
ユーザーが意図しない動作を行う行為を指します。例えば、ユーザーの同意なくダウンロードさせる、コンピュータウイルスをインストールさせる、ユーザーの使用するブラウザの設定を勝手に変えてしまう行為などが当てはまります。

31. リッチスニペットマークアップの悪用

▼補足▼
検索結果に表示されるリッチスニペットと呼ばれるページの追記情報(著者名、商品の販売情報など)を設定する際に以下のような項目が禁止となっています。

・ユーザーに一切表示されないコンテンツをマークアップする。
・関連性がない、または誤解を招くコンテンツ(虚偽のレビュー、ページの内容と関係のないコンテンツなど)をマークアップする。

32. Google への自動化されたクエリの送信

▼補足▼
この項目は、ホームページへの影響を与えるものではありません。主に、順位チェックツールを使って検索順位を自動で調べる行為が禁止されているということです。
チェックツールを使ってGoogleにクエリを送信し続けると、検索結果が使えなくなる場合があります。

この項目に関しては、認識している人も多くはないため、自動で順位をチェックするツールの使用には注意しましょう。

その他の注意点

33. サイトがハッキングされていないかどうかを監視し、ハッキングされたコンテンツを見つけたときはすぐに削除する

▼補足▼
ハッキングやウィルスに感染したホームページは、ユーザーにとっても危険なため突如として順位下落になる場合もあります。そのような、状況になった場合は早急に対処しましょう。

34. サイトにユーザー生成スパムが掲載されないようにし、見つけたら削除する

▼補足▼
ホームページ運営者が意図しない方法で、スパム行為に該当してしまう場合もあります。例えば、ブログにコメント欄を設けている場合、コメントスパムといった方法で悪用される可能性もあるため、そのようなコメントや投稿があった場合も早急に対処しましょう。