以前、紹介した Google が配布している Sitemap Generator と比較してどのような違いがあるのか、GSiteCrawler の特徴をまとめてみました。
Windows アプリケーションである事、Google Sitemap Generator より扱い易く、Webマスター、サーバー管理者など立場を問わず一般の方でも簡単に利用できる事は勿論ですが、それだけではありません。
GSiteCrawler の最も重要な特徴は、その名が示す通り Crawler として動作し、URLを収集する点です。ファイルから収集する一般的な Generator(生成ツール)と異なり、リンクを辿る(クロール)する事でURLを取得します。これにより様々な恩恵が得られます。
Google sitemapプロトコル リファレンスでは更新頻度を示す changefreq があり、always , hourly , daily , weekly , monthly , yearly , never の7つのオプションを指定する事が出来ます。GSiteCrawler では、前回のクロールと比較して自動的に更新頻度を割当ててくれます。
FTPクライアントとしての機能を有しています。XMLサイトマップ作成時に自動的に所定の公開ディレクトリにアップロードする事が出来ます。また、自動的にGoogleにXMLサイトマップが更新されたことを伝える事も出来ます。
Google Sitemap プロトコルには、更新頻度やサイト内での相対的な優先順位などいくつかのオプションが用意されています。これらの重要なオプションをURLリストテーブルを使用する事で直感的にサイトマップをカスタマイズする事が可能です。
SEO的に有利になると思われる(現状では効果なし)最適化されたXMLサイトマップを作成するのに優れています。
URLリストテーブルでは、ページタイトル、Description 、Keywords もリストに表示されます。重複するキーワード、ページタイトルがないか確認する事も出来ますし、これらの情報からリスト内を検索する事も可能です。ページタイトルごとに優先順位を調整するなどの活用方法も考えられます。
残念なことに日本語には対応しておらず、HTMLの文字コードに関係なく文字化けします。GSiteCrawler の設定を見る限り、英語、ドイツ語のみですが、言語選択が行えるため、今後利用できるようになると思います。
Google に公式グループも設置されていますので 質問、要望などされてみてはいかがでしょうか。
Google Sitemap では、sitemal.xml に記載できるURL数は 50,000 まで、非圧縮の状態で10MB 以内までと制限が設けられています。
GSiteCrawler では、任意に上限を100 URL など設定することが出来ます。50,000 URL を一つのURLにまとめた処で、現状では Google がまともに処理する事が出来るのか甚だ疑問です。 sitemap.xml を効果的に分ける必要が今後出てくるかも知れませんので、このような機能はとても気が利いていると思います。
Googleが提供している "Sitemap Generator" は、Webサーバー管理者向けで、Crond により定期実行する事でサイトマップ通知を意識しないという使い方が出来ます。(つまり、ホームページが更新されれば定期的に報告してくれる。ただし、更新頻度や優先度の設定は一括作成を行う場合は行えない。)
あくまで、google の sitemap プロトコルに必要な XML サイトマップファイルを生成するツールであって、更新頻度やファイル間の相対間重要性を細かく設定するには最終的に手書きで行う必要があります。編集機能は持ち合わせていません。
また、cronデーモンで定期的に実行するといっても、サーバー管理権限が必要で利用者が限られる上、本来サイトマップが更新された地点でgoogleに通知する方が望ましい事もあり、Sitemap Generator を使う然したる理由も見つかりません。