Googleがこれまでに発見したURLは、1,000,000,000,000(1兆)以上とも言われています。
発見しただけであって、これらをすべてインデックスしているわけではありませんが、想像を絶する数であることに間違いはありません。
Amazon.comやWikipediaは、膨大な数のページがインデックスされているでしょうが、それでも全体のインデックス数の1%を超えているのかどうか、僕には推測ができません。
そもそも1つのサイトにつきインデックスされるページ数に、上限はあるのでしょうか?
YouTubeのWebmaster Central Channelで、GoogleのMatt Cutts(マット・カッツ)氏が回答していいます。
How many pages can Google index from a single site?
「うぅん、いい質問だねぇ・・・」と始まって、ズバリの答えに窮している様子です。
それでも、確信はないけれどたぶん上限値はないだろうと回答しています。
有益なコンテンツが十分にあるか、PageRankがどのくらいか、リンクがたくさん張られているかなどで、インデックスは影響を受けますが、ここまでというリミットは設けていないと思うとのことです。
もっとも、AmazonやWikipedieの超大規模サイトでなければ、心配する必要のない問題の気もします。
インデックス数の上限を気にする前に、確実にクローリングされてインデックスされるサイトストラクチャを設計することが先決ですね。