今回も、私伊佐敷が實川に代わりましてお届けします。今回のテーマは、「低品質コンテンツ」についてです。
「Googleに目をつけられるような手法をせず、健全にサイトを運営してたはずなのに、突然検索トラフィックが下がってしまった...」あるいは「それなりに頑張ってサイト運営をしているのに、検索トラフィックが全然伸びない・・・」等の悩みを抱えてはいませんでしょうか。考えられる要因は様々ありますが、中々気づきにくい要因の1つとして、サイト内に「低品質コンテンツ」が存在している可能性が挙げられます。
後で述べるように、低品質コンテンツの存在により、検索エンジンから適切な評価を受けられなくなってしまったり、パンダアップデートや手動対策により大幅に評価を下げられてしまう可能性があります。
そんな、「低品質」だなんて、失礼な、と思われてしまうかもしれませんが、一旦落ち着いて、「低品質コンテンツ」について、検索エンジンの思想に基づき考えてみましょう。
Googleの公式ウェブマスター向けガイドラインに書かれている、コンテンツに関する基本的な考え方が現れているのが次の一文です。
情報が豊富で便利なサイトを作成し、コンテンツをわかりやすく正確に記述します。
Google等の検索エンジンは、原則として「情報が豊富で、ユーザーにとって有益なコンテンツを持つページを検索者に提供したい(=検索結果上位に表示したい)」という考えを持っています。独自の有用な情報を豊富に提供しているサイトは、「良質」なコンテンツを保有しているとして検索エンジンから高い評価を受けやすくなります。
例えば、このマーケター通信に配信されている記事の多くは、その道の専門家の知見に基づく、独自性と有用性の高い内容で構成されている為、質の高いコンテンツと言えるでしょう。
逆に、「情報量に乏しく、ユーザーにとって役に立たない、付加価値の少ないコンテンツ」は、低品質と見なされ、評価を下げられてしまう可能性が高くなります。(低品質コンテンツの具体例については後述します。)
検索エンジンは、ユーザーの検索体験を向上させる為、ユーザーにとって有用でないコンテンツを、検索結果から排除する為に様々な工夫をしているのです。
質の低いコンテンツがサイト内に存在すると、次のような不利益を被る可能性があります。
そもそも、ユーザーにとって有益な情報を提供していないページが検索エンジンから高い評価を受けることは原則ありません。
パンダ・アップデートは、主に、低品質なコンテンツを検索上位に表示させない為のGoogleのアルゴリズムです。
2011年に初めて実施され、数回の更新を経て、現在はGoogleの通常のアルゴリズムに組み込まれ、定期的に実施されています。それまで、数多くのWebサイトに影響を与えて来ました。
2014年の5月、10月には大規模な更新を行い、(それぞれパンダ4.0、パンダ4.1と呼ばれています)多くのサイトに影響を与えました。
この時期に検索トラフィックが大きく減ってしまった傾向があるサイトは、パンダアップデートの影響を受けた可能性があります。
極めて低品質なコンテンツに対しては、Googleより手動での対策を受け、大幅に評価を下げられる恐れもあります。ウェブマスターツールを利用している場合は、「手動による対策」ページにメッセージが表示されます。
手動対策を受けてしまった場合は、下記URLに記載されているGoogleの推奨する必要に従い、迅速な対応をする必要性があります。
https://support.google.com/webmasters/answer/2604719?hl=ja
基本的な思想としては、「ユーザーにとって有益でないコンテンツは品質が低いと見なされやすい」ということになりますが、その中でも特に低品質と判断されやすい、代表的な例を下記に紹介します。
極端に情報量の少ないコンテンツは、低品質と見なされる可能性が高くなります。情報量の有無は簡単に定義出来るものではありませんが、「ユーザーが見て、役に立つと思えるかどうか」が1つの基準になります。検索エンジンの特性上、テキスト量が少ないページは、低品質と見なされやすい傾向があります。
このようなページがサイト内に存在しているからと言って、サイト全体に影響をあたえるような手動対策やアップデートの対象になってしまうわけではありません。ただし、評価させたいページの情報量が乏しいのであればそれを増やすことが望まれますし、このようなページが大量に生成されているような状況であれば、インデックス制御やページ削除等の対処が必要になる場合もあります。
重複コンテンツとは、サイト内・サイト外含め、「ページのURLが異なるが、その内容が完全に、またはほぼ同じであるコンテンツ」のことを指します。
Web上においては、同じ内容のページが複数存在する必要性はありませんので、仮にその情報が有益なものであったとしても、コピーされた情報の価値はとても小さくなります。原則として、複数の重複コンテンツが同時に検索結果上位に表示されることはありません。
求人サイトや不動産サイトなどでありがちなこととして、メインコンテンツである求人情報や不動産情報が、他サイトで扱っている情報と同一であるため、重複コンテンツと見なされ検索エンジンに評価されにくい状況が挙げられます。そのような場合はオリジナルの情報を加える等、独自の付加価値を持たせる施策が望まれます。
重複コンテンツの存在自体が手動対策やパンダアップデートの直接の原因になることは原則ありませんが、他サイトからの無断転載を行っている場合は手動対策の対象となる場合があります。
いずれにせよ、同一サイト内に重複コンテンツが大量に存在している状況や、他サイトも持っている情報をそのままメインコンテンツとする状況はあまり望ましく無いことは理解しておきましょう。
ここでいう自動生成されたコンテンツとは、プログラムによって自動的に生成された、ユーザーにとって意味を持たないコンテンツを指します。自動生成コンテンツは、手動対策などの厳しい対処を取られる可能性があります。
検索エンジンがこのようなコンテンツを厳しく取り締まっている背景としては、かつて検索エンジンの精度が今ほど高く無かった時期に、検索エンジンの裏をかいて上位表示を狙う手法として自動生成コンテンツが用いられていたことがあります。そういった手法への取り締まりを、Googleは年々厳しくしています。
※参照:自動的に生成されたコンテンツ(Google公式ウェブマスター向けガイドライン)
誘導ページは、特定のキーワードで上位表示させ、他のページに誘導する目的の為だけに作成された、中身の無いページを指します。
これも、かつて検索エンジンを欺く為の手法としてよく用いられたもので、現在ではほぼ効果が無いどころか、厳しい対処を受ける対象となっています。
※参照: 誘導ページ(Google公式ウェブマスター向けガイドライン)
独自の価値ある情報に乏しく、広告先に誘導することを主目的としているアフィリエイトサイトも、低品質と判断されやすいものです。
アフィリエイトサイトそのものが悪いということでは決してありませんが、ユーザーの利便性を無視し、自身の収益のみを重視するような考えを元に作成されたサイトは、検索エンジンからは評価されにくいのです。
※参考:アフィリエイトプログラム(Google公式ウェブマスター向けガイドライン)
ここまで読んで頂いた方の中には、「うん、低品質コンテンツが悪いのは分かったけど、うちのサイトにはそんなのは無いよ!」と思われる方もいらっしゃるかもしれません。しかし、やましいことをしていないのにも関わらず、コンテンツの質が低いと見なされ評価を下げられた、と考えられる事例に遭遇することもあるのです。
実際の事例として、スパム的な手法も行わず、しっかりユーザーのことを考えて運営していたサイトが、ある日突然様々なキーワードでの検索順位が下がってしまう事態に見まわれてしまうことがありました。
調査の結果、その順位変動が起きる数日前に、サイトのほとんどのページのファーストビュー(最初にユーザーの画面に表示される範囲)に表示される広告量を、やや増やすマイナーチェンジを行っていたことが原因となっていたことが判明しました。広告量を減らし、数日待ったところ、順位は回復しました。
このように、ページに表示させる広告が多いことにより、そのページがユーザー体験を阻害すると認識されてしまうことがあります。
また、広告を強制的にポップアップウィンドウで見せたり、動画広告を自動再生するようなページも、同様の理由で評価を下げられることもあるようです。
このようにページの広告量や表示方法、コンテンツの配置によりページを評価するアルゴリズムは「ページレイアウトアルゴリズム」と呼ばれています。
広告が重要な収益源になるサイトも多いかと思いますが、ユーザー体験を大きく損ねないように気をつけ、広告収入と検索流入のバランスを上手にとっていく必要があります。
中~大規模サイトにおいてはありがちなのが、「インデックス(検索エンジンに認識)させる必要の無い、内容の薄いページが大量にインデックスされてしまう」状況です。
見落としがちなところですが、実はウェブマスター向けガイドラインには、ユーザーにとって価値のないページを検索エンジンに認識させないようにすることを推奨する次の一文が書かれています。
(前略) 検索結果ページや、検索エンジンからアクセスしたユーザーにとってあまり価値のない他の自動生成ページをクロールしないよう制御します。
例えば、様々な検索条件で絞り込んだ結果、検索結果が0件となる検索結果ページ。このページ自体は有益な情報を持たないはずなので、ユーザーにも検索エンジンにも積極的に見せる必要がありません。本来ならば、存在しないページとして404のステータスコードを返すように設定する、robots.txtでクロール対象から排除する、若しくはnoindexを設定してインデックス対象としない、等の対処をすべきところです。
しかし、そのような対処が行われていないことに加え、サイト内でリンクされている・XMLサイトマップに記述されている等により、大量の0件ページがGoogleに認識・インデックスされてしまう場合があります。
そのような場合、検索エンジンに「あれ、中身が無い何の役にも立たないページがいっぱいある・・・」と認識され、適切な評価が受けられない恐れがあります。
運営側としては何の悪気も無かったのに、いつの間にか「低品質」なページが多く出来てしまっていた、ということになります。規模の大きいサイトについては特に気をつけたい部分です。自分のサイトがそのような作りになっていないかは一度チェックしてみると良いでしょう。
尚、このような場合、検索エンジンがソフト404ページとして、404ページと同様に処理してくれる場合もあります。その場合は大きな問題にはなりませんが、いずれにせよ望ましい状態ではありませんので対処をすべきでしょう。ソフト404と見なされているページが存在するかどうかはウェブマスターツールにて確認できます。
上記に述べたように、「そんなつもりは無いのにコンテンツの質を下げていた/低品質なコンテンツがいつのまにか生成されていた」ことはしばしば起こりうる事態ですので、注意することが必要です。
今回のお話のまとめは次のようになります。
- 検索エンジンは、原則として「ユーザーにとって有益なコンテンツ」を良質と判断し、検索結果上位に表示させようとする。 - 逆に、検索エンジンは、品質の低いコンテンツをなるべく検索結果上位から排除すべく、様々な工夫を行っている。代表的なものにパンダアップデートが挙げられる。 - ユーザーの利便性を無視し、検索エンジンを欺くようなコンテンツは極めて低品質であると見なされる可能性がある。 - 悪意が無くても、低品質なコンテンツが生成されている場合があるので、注意する。検索エンジンの精度が上がるにつれて、サイトの保有するコンテンツの「品質」の重要性は高まっています。今後のSEOは、良質なコンテンツを充実していく為の取り組みは必須となります。
また、スパム的な手法を行わず、まっとうなサイト運営を行っていたとしても、思わぬところで「低品質コンテンツを持っている」と見なされてしまう恐れはあります。自サイトが、本当に低品質なコンテンツを持っていないかは今一度チェックすることをおすすめします。場合によっては、多くのページをインデックス対象から外す、または削除するなどの対処が望まれる場合もあります。
思わぬ低品質コンテンツが生成されないようなサイト構築をしっかり行った上で、ユーザーのニーズに合致する、より良質なコンテンツを提供出来るような運営を行っていきましょう。
伊佐敷 一裕 (イサシキ カズヒロ)
ヴォラーレ株式会社 Webコンサルティング事業部 コンサルタント
東京大学在学中からインターンとしてヴォラーレに参画し、その後新卒入社。 SEO・ユーザビリティ改善のコンサルティングに従事。
Copyright© 2018 ITmedia, Inc. All Rights Reserved.