検索エンジンの仕組み

公開日:2013年10月20日
 最終更新日:2014年1月10日

SEOは検索エンジンに対して行います。検索エンジンの仕組みを知らなくてもSEOを行なうことはできます。しかし、仕組みを知っておくことで、何故そのようなSEOの施策を行うのかが分かるようになり、より効果的なSEOを行えるようになります。

検索エンジンの主流はロボット型

ユーザーが検索窓にキーワードを入れると、検索エンジンは関連性の高い順番で情報を示してくれます。検索エンジンは情報を提示するためにあらかじめ、情報を収集してどんな情報があるかをデータベースに整理しています。

この収集整理の仕方で検索エンジンは、ディレクトリ型検索エンジンとロボット型検索エンジンの2種類に分かれます。

ディレクトリ型検索エンジンは、情報を人間が収集しカテゴリごとに分類します。一方、ロボット型検索エンジンは、クローラと呼ばれるプログラムが情報収集し整理します。

インターネットの情報量は爆発的に増え続けており、人力に頼るディレクトリ型検索エンジンでは対応できなくなったため、現在はロボット型検索エンジンが主流です。

その中でも最もシェアが高いのがGoogleです。日本では、90%以上のシェアを誇っています。SEOを考えるのであればGoogleを対象にするのが一般的です。

ロボット型検索エンジンの特徴

ロボット型検索エンジンがユーザーに情報を提供するまでの手順は、次のとおりです。検索エンジンは、次の3つの要素が組み合わさって1つのシステムとして動作しています。

  • クローラ
  • インデクサ
  • サーチャー

検索エンジンの次のような流れで情報を集め、ユーザーに検索結果を提供しています。

  1. クローリング
    クローラと呼ばれるプログラムがリンクを辿ってネット上のWebページを収集していきます。
  2. インデックスにデータ格納
    インデクサはクローラが収集したWebページを検索アルゴリズムが扱いやすい形に処理し、ファイルとしてまとめたものをインデックスに格納します。
  3. データ要求と引き渡し
    ユーザーが検索窓にキーワードを入力するとサーチャーはインデクサにキーワードに対応するデータを要求します。インデクサはインデックスの中からデータを取り出してサーチャーに渡します。
  4. 検索結果の表示
    データを受け取ったサーチャーは、検索アルゴリズムに従ってデータの順番を並べて検索結果一覧に表示させます。

これらの作業は自動化されているので、人の手で行うディレクトリ型検索エンジンとは比べ物にならないほど大量の情報を収集整理することができます。

ウェブページの重要度の評価を行うための技術を検索アルゴリズムといいます。Googleの場合、検索アルゴリズムには200以上の評価基準があり、それらの基準に従って、ウェブページの評価を行っています。

ロボット型検索エンジンをディレクトリ型検索エンジンと比べた場合の長所と短所には、次のようなものがあります。

長所

  • 検索精度が高い

サイト単位で評価を行っているディレクトリ型に対して、ロボット型の場合、ウェブページ単位で評価を行っており、検索キーワードに対して関連する情報が載っているウェブページをユーザーに提示することができます。

  • 情報量が多く、反映速度が速い

ロボット型はクローラを使って情報収集しているので、ディレクトリ型に比べ膨大な情報を所有しています。また、クローラはそれぞれのページを定期的に巡回しているので、新しい情報が追加した場合、すみやかに検索結果に反映されます。

短所

  • Webスパムが上位表示される

検索アルゴリズムの隙をついて中身の無いウェブページが上位表示されることがあります。ただ、検索エンジン側も検索アルゴリズムをアップデートして、こういったWebスパムを排除しようと取り組んでいます。

ペンギンアップデート – Webスパム対策の検索アルゴリズム

パンダアップデート – コンテンツ評価の検索アルゴリズム

コメントを残す

サブコンテンツ

このページの先頭へ