サイト上のロボットの動作を監視するためのツール

ご挨拶!

今日は、私のプロジェクトについてお話ししたいと思います。プロジェクトの開始は2008年に行われました。 それ以来、データストレージのアーキテクチャと情報処理アルゴリズムの両方で多くの変化がありました。



SEOスペシャリストおよび/または通常のウェブマスター向けのサービスです。 BotHunterは、サイト上のユーザーエージェントを(リアルタイムで)受動的に監視するシステムです。 以下のインターフェースの例を参照するか、システムのウェブサイトのデモアカウントでご覧ください (デモモードでは機能が制限されています)。 続きを読む











背景



私の食欲と分析されたデータの量を考えると、私は自分でこのサービスを書きました。 私にとって、すべての質問に対する「図解」は​​より理解しやすいものです。 BotHunterが回答するよくある質問:









完成した自転車があります



「なぜ?」という質問をする準備ができている人たちをすぐに止めたいです。 Yandex.webmasterとgoogle webmastersは何ですか?”

はい、これらのサービスは便利でよく知られていますが、次の質問には答えません。



1.ボットが知っているがSitemap.XMLにないページが私のサイトにありますか?

2.ボットがアクセスしたサイトにページがありますが、トラフィックは一度もありません(リストが必要です)。

3.クローラーは常にどの割合のURLにアクセスしますが、検索されていませんか?

4.サイトに同じウェイト(バイト単位)のページ(重複トピックもあります)はありますか?

5.特定の番号の検索ベースを更新(またはアルゴリズムを変更)した後。 ボットがアクセスしなくなったサイトのページ数 そして、それらのうちどれだけがオーガニック発行からのトラフィックのエントリポイントではなくなっていますか?

6.など

興味深い質問のリストを続けることができ、私たちはそれぞれこのリストを持っています...







サービスの利点は何ですか











簡単でわかりやすいレポートに加えて、BotHunterは各サイトのrobots.txtおよびsitemap.xmlファイルの整合性を毎日チェックします。 別の歌であるsitemap.xmlに関して、ファイルはサイトマッププロトコルの有効性とコンプライアンスについてテストされます。 システムは、レポートを毎日生成するすべてのチェックと事実に関するジャーナルを書き込みます。



元気?







TTXについての簡単な説明:





この投稿の主な目標はあなたのアドバイスを得ることです。

他にどのようなデータをどのような形式で受け取りたいですか?

どのようなアイデアを提案しますか?



建設的な批判を事前にありがとう...



All Articles