[レベル:全員]
昨日に引き続き、PubCon Las Vegas 2011のレポートです。
今日は、Matt Cutts(マット・カッツ)氏のプレゼンテーションに続けて行われた、Matt Cutt氏とAmit Singhal(アミット・シンガル)氏のQ&Aセッションになります。
Amit Singhal氏は、米GoogleのサーチクオリティチームのトップでMatt Cutt氏の上司でもあります。
SSL検索でキーワードの取得ができなくなったが、どうしてGoogleアナリティクスでもっとデータを提供しないのか?
Googleウェブマスターツールで上位1,000件までのキーワードデータを取得できる。96%のサイトはすべてのデータを取得できる。残りの4%のサイトがすべてのデータを取得できるようにすると、3~5倍のデータストレージが必要になってしまう。ダウンロードかAPIで取得できるようにしたい。
パンダ・アップデートについて:質の低いサイトが自分より上位に来ている。なぜか?
アルゴリズムで常に処理できることが好ましい。そのほうがあらゆるサイトや国、言語に対してスケーラブルだから。
全体的にはパンダ・アップデートはポジティブな更新だった。Googleのユーザーエクスペリエンスは以前より良くなったと、すべての計測で良い結果が出ている。
しかし、どのアルゴリズムも完全ではない。今回のようなケースがあれば改良のためにフィードバック送ってほしい。ただし変更を実行するには時間がかかる。
誤解があるようだが、Googleは(ユーザーの声を)聴いている。ウェブマスター向けヘルプフォーラムの(パンダ・アップデートの)スレッドから500以上のサイトをExcelシートに落としている。誤検知のためにチームの1人を担当に付けている。物事を正しく行うようにしているが、時間がかかることもある。
家電製品を検索するとSearsのような大手ばかりが出てくる。Googleはブランドを優遇しているのではないか?
ウェブは、小さなものが大きなものに唯一勝てる場所だ。スモールビジネスは大きな奴らよりも速く動ける。恐竜ではなく哺乳類になれる。(スモールビジネスには)ウェブマスターツールが力を貸してくれる。
たとえば、大きなサイトは盲目的にFlashを使うが、小さなサイトは賢くテキスト中心でやっている。オフラインで起こっていることはウェブにも反映していることがある。小さなニッチに集中すれば、大きな奴らに勝ることができる。
ユーザーが本当に求めているのは質の高いサイトだということが分かり、一連の変更(パンダ・アップデート)を実行した。ビッグブランド(が目立つようになったこと)と関係があるかもしれない。しかし、関連性を犠牲にしてまで(ブランドを優遇する)ということはやらない。検索の改良の定義は、より関連性が高く質の高い結果を返すことだ。
Googleマップのスパムがひどいのだがどうなっているのか?
Googleは、スパムと戦うスタッフを40の言語で持っている。ウェブスパムチーム(Matt Cuttsのチーム)は、マップチームを援助している。
SSL検索について
検索はよりパーソナルになってきている。今後数か月でもっとパーソナルになるだろう。
(SSL化したことを)人々が不満に感じているのは分かっている。Googleウェブマスターツールを使えば96%のサイトはキーワードデータの上位1,000個をダウンロードできる。
広告(AdWords)は依然としてキーワードを取得できることに対する不平があることも理解している。”Hilton”(ヒルトンホテル)の広告が”Paris Hilton”(女優)で表示されたいとは広告主は望まない。正しいキーワードにお金を払っていることを広告主は知る必要がある。
SSL検索を元に戻すことはない。もしさらに推し進めるとしたら、広告主もキーワードを取得できなくなるくらいだ。
プレスリリースは重複コンテンツを発生させるか?
人々が取り上げたいと思うような(プレスリリース)を書いたほうがいい。プレスリリースをピックアップして独自に書かれた記事からのリンクに価値がある。コンテンツはハイクオリティで有益でなければならない。そうであれば問題ない。
Authorshipに焦点を当てる — 誰が何を書いたか、著者は誰か、ソーシャルな関係はどうなっているか。
ハイクオリティが最後には勝つ。
ドアウェイページ(誘導ページ)を作ったら、サイト全体がペナルティを受けるのか、それともドアウェイページだけがペナルティを受けるのか?
「それって、ドアウェイページの作り方を聞いているのか?」(と、Matt Cutts氏がビックリ)
「そんなこと(ドアウェイページ)はやっちゃダメだ」(と、Amit Siingal氏がピシャリ)
サイトを部分的にスパム判定することもあるし、サイト全体をスパム判定することもある。無料ホームページサービスでスパムサイトが多いと、そのドメイン全体をスパム扱いすることがある。
誰もがリンクが必要だと言うがリンクが質を高めるとは思えない。自分は操作するようなことをしたくないから、アドバイスが欲しい。
大切なことは上位表示ではなく収益を上げることだ。リンクは検索の一部にすぎない。
多くのリンクレポートツールがあるが、どれもGoogleが信頼しているリンクを見せることはできない。Googleウェブマスターツールでさえもだ。
ニューヨークタイムズが10,000本のスパムリンクを集めているサイトを告発したが、1本もフィルタを通過できず評価されていなかった。ウェブマスターツールはnofollowの付いたリンクも表示する。(外部の)人々は、Googleがどのリンクを信用してどのリンクを信用していないかを知ることはできない。
本当に自発的に張られたリンクは他の200以上の指標とともに評価される。無作為に選ばれたリンクはたいして評価されない。
(再びSSL検索について)影響を受けるのは10%未満と言っていたが30%が“not provided”だった。
SSL検索は徐々に展開している。
パワーユーザーが多いサイトは10%を超えるかもしれないが、通常は10%未満だ。
(会場の参加者に挙手でアンケート)「Googleウェブマスターツールの改良を考えているが、キーワードデータを1,000個から2,000個に増やすのと、期間を30日から60日に延ばすのはどちらがいいか?」 ⇒ 4対6で期間延長
SSL検索は批判があるのは分かってるけど、多くのユーザーが望んでいることでもある。
質の高いサイトやコンテンツとは?
自分の子供に見せて学ばせたいと思うようなサイトやコンテンツ。
30分ほどの間、Matt Cutts氏とAmit Singhal氏の両氏が参加者からの質問に答えてくれました。
SSL化した検索についての話題が多めで米国の検索関連の人たちにはいちばんのホットトピックだったのでしょう。
「ユーザーが求めている」、「元に戻すことはない」ということで米国以外への展開も十分あり得るかなと個人的には思いました。
全部で10個のQ&Aをレポートしました。
あなたにとってどれがいちばんの役に立つ情報になったでしょうか?
【おまけ】セッション終了後にMatt Cutt氏と話ができました。
大部分はスペシフィックな話題だったのでブログには書けないのですが、2つシェアします。
第三者によるスパムリンクかどうかはどうやって判断しているのか?
今あるリンクとの比率やどんなリンクがどんなふうに増えているか、いろいろな要素を見ている。第三者によるものか見分けられる。
スパムリンクについて質問したわけではなくて、ほぼ同じように作られたバックリンク用のサテライトサイトなのにあるものはインデックス削除されていてあるものは普通にインデックスされたままで、何が違うのかを尋ねたときに出てきたコメントです。
サイト全体やページ単位、キーワード単位分けて分析しているとも言っていました。
パンダ・アップデートの日本導入はどうなってるの?
日本にも導入したいとは考えている。しかし英語以外の言語への導入に4、5ヶ月かかったようにテストに時間がかかる。
僕が「Can you promise?」と日本導入の約束を(笑いながら)迫ると、「No, I can’t.」と苦笑いしていました。
でも日本導入には興味があるとも言っていました。
「日本のみんながパンダがやってくるのを楽しみに待っている」と伝えてきたので首を長くして待ち続けましょう。