ロボット型検索エンジン

ロボット型検索エンジンにホームページのデータを収集されることは、SEO対策の大前提になります。検索エンジンに収集されなければ、せっかく作ったホームページの価値は評価されませんし、サイトにたくさんの訪問者を呼ぶことは出来ません。
サイトを、Yahoo!Japan、dmozといった著名なディレクトリ型検索エンジンに登録すれば、ロボット型検索エンジンに確実にホームページのデータを収集してもらうことができます。
ただし、登録してもらうためには、「エディター」「サーファー」と呼ばれる人たちによる審査に合格しなければなりません。
さて、サイトがロボット型検索エンジンの収集対象になったとして、ロボット型検索エンジンはどのような動きをするのかを下記に簡単にまとめました。

1.クロール

クローラやロボットと呼ばれるプログラムが、サイトを巡回し、ホームページのデータを収集します。

2.インデックス

HTML文書に記述されている内容やリンク情報、論理構造などを分析し、ホームページが何について記述されているものかを解読し、検索エンジンのデータベースに登録します。

3.ホームページの評価

検索エンジンは、ユーザが入力した検索キーワードに基づいて、データベースを検索して検索結果を表示します。その際、検索キーワードに応じて、評価の高い順番に並び替えます。

おすすめ本