[レベル:上級]
今日は、コンテンツの質の善し悪しを測る指標として直帰率や滞在時間をパンダ・アップデートが見ているかどうかという問題について考えてみます。
先週レポートしたJim Boykin(ジム・ボイキン)氏によるSESでの「リンクビルディング上級編」のプレゼンテーションは2部構成で、前半がパンダ・アップデートについて、後半が記事にしたリンクビルディング上級編でした。
ボイキン氏はパンダ・アップデートは次のようなユーザー行動を見ていると言っていました。
- ページの滞在時間:15秒以下はよくない
- 訪問したページ:奥のページまで見られているか
- ロイヤリティ:リピータが多いか
- 離脱率・直帰率:そのページで求めている答えを見つけられたか
- Pogo Sticking(ポゴ スティッキング):検索結果を行ったり来たりしていないか
たしかにパンダ・アップデートはユーザーの行動も見ていると思われますが、直接アルゴリズムに組み込んではいないと僕は判断しています。
たとえば、ボイキン氏は「15秒以下の滞在時間は質が低いとみなされる」とか「クリックしてすぐに検索結果に戻ることを繰り返すこと(以前に書いたクリックバックの繰り返し)も低品質とみなされる」と分析しています。
ただ、滞在時間や直帰は不確定な要因によって左右されやすいし、不正に操作されやすい要素でもあります。
サイトを見始めた瞬間に電話がかかってきて5分以上そのままにしておくかもしれません。
ライバル会社をやっつけようとして、1秒で直帰しろと全社員に指示することだってできます(さらにどこかの電力会社みたいに念を入れて、IPアドレスでばれないように自宅からやらせるとかもw)。
パンダ・アップデートの「パンダ」はアルゴリズム開発の中心になったメンバーの名前にちなんで付けられたGoogle社内のコードネームです。
このパンダさんは、Biswanath Panda(ビスワナス・パンダ)氏だと推測されます。
Panda氏らが表した論文とそれに続いて出された論文を素に考えると、直帰率を直接的な指標としては見ていないだろうと判断できそうなのです。
直帰率そのものを見ているわけではなく、直帰をもたらしている原因を探るための仕組みをこの論文では説明しています。
※論文自体は、スポンサードサーチ広告の直帰率を予測するモデルについて書かれたものですが、オーガニックサーチに応用されていたとしても不思議はありません。
たとえば、ユーザーの気を散らせるような広告が原因になって直帰率を高めているのかもしれません。
メインコンテンツがページの下に埋もれてしまっていて見つけづらいことが原因かもしれません。
文字が小さすぎる、配色が目に痛い、ページの表示時間が遅いなんていういうのも考えられるかもしれませんね。
短い滞在時間や高い直帰率のページの共通点を見付け出したほうが汎用性があるはずです。
滞在時間や直帰率を使っているとしたら、それは裏付けとしてです。
パンダ・アップデートで低品質とみなしたコンテンツがあって、そのコンテンツがあるページは滞在時間が短く直帰率が高いとしたら、低品質という判断を補強できます。
パンダ・アップデート v2では、特定のドメインからのページが検索結果に出てくるのをユーザーが拒否できるブロックデータも利用していますが、これも直接利用するわけではなく、裏付けとしての補助的な役割です。
パンダ・アップデートは、Decision Tree(デシジョン・ツリー)とかMachine Learning(マシーン・ラーニング)とかとっても複雑なモデルを使っているようです。
簡単に操作できる直帰率や滞在時間をアルゴリズムの核の部分に組み込んでいるとは思えません(「パンダだって結局はバックリンクでしょ」という意見も僕は短絡的だと思う)。
ボイキン氏が、「滞在時間15秒」と言ったのは聴いている僕たちにインパクトがあるように言っただけで、「滞在時間を伸ばして直帰率を下げるようなコンテンツやデザインを作り上げろ」といったメッセージが裏には込められているんじゃないかと僕には思えます。
ツイートでの「滞在時間は15秒」だけが独り歩きしてしまっているようにも思えます。
もっとも今日書いた僕の記事もGoogleが言ったことではなく、僕自身が集めた情報からの推測になるので、絶対に正しいとは言うつもりはありません。
判断はあなたに任せます。
でも、「滞在時間を伸ばして直帰率を下げるようなコンテンツやデザインを作り上げろ」、これはパンダが滞在時間と直帰率を直接見ていようがいまいが、もっと言えばパンダが来ていなくても実現すべきことですよね。