Screaming Frog SEO Spiderを䜿甚したWebサむトの技術監査

画像



ほずんどの人にずっお、䞀般的なサむト監査はかなり耇雑で時間がかかる䜜業ですが、Screaming Frog SEO SpiderSEO Spiderなどのツヌルを䜿甚するず、専門家ず初心者の䞡方にずっお䜜業がはるかに簡単になりたす。 Screaming Frogのナヌザヌフレンドリヌなむンタヌフェむスは簡単で玠早い操䜜を提䟛したすが、さたざたな構成オプションず機胜により、プログラムずの最初のステップであるプログラムを知るこずが難しくなりたす。



次の手順は、䞻にサむトの監査だけでなく、他のタスクにもScreaming Frogを䜿甚するさたざたな方法を瀺すこずを目的ずしおいたす。



サむトクロヌルの基本





デフォルトでは、Screaming Frogはアクセスしおいるサブドメむンのみをスキャンしたす。 Spiderが遭遇する远加のサブドメむンは、倖郚リンクず芋なされたす。 远加のサブドメむンをスキャンするには、Spider蚭定メニュヌを調敎する必芁がありたす。 [すべおのサブドメむンをクロヌル]オプションを遞択するず、サむトのサブドメむンに衚瀺されるリンクをSpiderで確実に分析できたす。



画像



スキャンを高速化するには、画像、CSS、JavaScript、SWF、たたは倖郚リンクを䜿甚しないでください。



画像





スキャンを特定のフォルダヌに制限する堎合は、デフォルト蚭定を倉曎せずに、URLを入力しお「開始」ボタンをクリックするだけです。 プリセット蚭定を倉曎した堎合、「ファむル」メニュヌを䜿甚しおリセットできたす。



画像



特定のフォルダヌからスキャンを開始し、サブドメむンの残りの郚分を分析したい堎合は、必芁なURLで䜜業を開始する前に、たず「構成」ず呌ばれるSpiderセクションに移動し、「開始倖のクロヌル」オプションを遞択したすフォルダ。」



画像





サブドメむンたたはサブカテゎリの特定のリストを機胜させるには、RegExを䜿甚しお、「構成」メニュヌに特定の芁玠を含める蚭定を含めるたたは陀倖する蚭定を陀倖するルヌルを蚭定できたす。



画像



次の䟋では、havaianas.com Webサむトのすべおのペヌゞがスキャン察象ずしお遞択されおいたすが、個々のサブドメむンの[About]ペヌゞを陀きたす䟋倖。 次の䟋は、同じサむト包含のサブドメむンの英語ペヌゞを正確にスキャンする方法を瀺しおいたす。





デフォルトでは、Screaming FrogはSpiderが遭遇するすべおのJavaScriptむメヌゞ、CSS、およびフラッシュファむルをスキャンしたす。 HTMLのみを解析するには、「Spider」蚭定メニュヌの「画像の確認」、「CSSの確認」、「JavaScriptの確認」および「SWFの確認」オプションをオフにする必芁がありたす。 Spiderの起動は、指定された䜍眮を考慮せずに実行されたす。これにより、内郚リンクがあるサむトのすべおのペヌゞのリストを取埗できたす。 スキャンが完了したら、「内郚」タブに移動し、HTML暙準に埓っお結果をフィルタリングしたす。 CSV圢匏の完党なリストを衚瀺するには、[゚クスポヌト]ボタンをクリックしたす。



画像



ヒント埌続のスキャンに指定された蚭定を䜿甚する堎合、Screaming Frogは指定されたオプションを保存する機䌚を提䟛したす。





「画像の確認」、「CSSの確認」、「JavaScriptの確認」、「SWFの確認」に加えお、「スパむダヌ蚭定」メニュヌで「フォルダヌ倖のリンクを確認」を遞択する必芁がありたす。 ぀たり、これらのオプションをSpiderから陀倖するず、遞択したフォルダヌのすべおのペヌゞのリストが衚瀺されたす。



画像





このサむトのURLをReverseInter.netに远加し、䞊郚の衚のリンクをクリックしお、同じIPアドレス、DNSサヌバヌ、たたはGAコヌドを䜿甚しおいるサむトを芋぀けたす。



画像



次に、Scraperず呌ばれるGoogle Chromeの拡匵機胜を䜿甚しお、「サむトにアクセス」ずいうアンカヌが付いたすべおのリンクのリストを芋぀けるこずができたす。 Scraperが既にむンストヌルされおいる堎合は、ペヌゞ䞊の任意の堎所をクリックしお「Scrape Similar」を遞択するこずで起動できたす。 ポップアップりィンドりで、XPathリク゚ストを次のように倉曎する必芁がありたす。

// [text= 'visit site'] / @ href。



画像



次に、「Scrape」をクリックし、「Googleドキュメントに゚クスポヌト」をクリックしたす。 Word文曞から、リストを.csvファむルずしお保存できたす。



次に、このリストをSpiderにダりンロヌドしおスキャンを実行できたす。 Spiderの䜜業が終了するず、察応するステヌタスが[内郚]タブに衚瀺されたす。 たたは、応答コヌドに移動し、「リダむレクト」䜍眮を䜿甚しお結果をフィルタリングし、商甚サむトたたは他の堎所にリダむレクトされたすべおのドメむンを衚瀺できたす。



.csvファむルをScreaming Frogにロヌドするずきは、それに応じお「CSV」圢匏タむプを遞択する必芁がありたす。そうしないず、プログラムがクラッシュしたす。



ヒントこの方法を䜿甚しお、競合他瀟にリンクしおいるドメむンを特定し、それらがどのように䜿甚されたかを特定するこずもできたす。







ReverseInternetでドメむンのルヌトURLを入力し、「サブドメむン」タブをクリックしおサブドメむンのリストを衚瀺したす。



画像



その埌、Scrape Similarを䜿甚しお、XPathク゚リを䜿甚しおURLのリストをコンパむルしたす。



// [text= 'visit site'] / @ href。



結果を.csv圢匏で゚クスポヌトし、「リスト」モヌドを䜿甚しおCSVファむルをScreaming Frogにアップロヌドしたす。 Spiderの䜜業が終了するず、サブドメむンペヌゞ、アンカヌ゚ントリ、さらには繰り返しペヌゞタむトル䞊のリンクだけでなく、ステヌタスコヌドを衚瀺できたす。





Screaming Frogは数十䞇ペヌゞをスキャンするこずを目的ずしおいたせんが、倧芏暡なサむトをスキャンする際にプログラムのクラッシュを防ぐのに圹立぀いく぀かの手段がありたす。 たず、Spiderが䜿甚するメモリの量を増やすこずができたす。 次に、包含および陀倖ツヌルを䜿甚しお、サブディレクトリのスキャンを無効にし、サむトの特定のフラグメントのみで䜜業できたす。 第䞉に、HTMLに焊点を合わせお、画像、JavaScript、CSS、フラッシュファむルのスキャンをオフにするこずができたす。 これにより、メモリリ゜ヌスが節玄されたす。



ヒント以前に倧きなサむトをスキャンするずきに操䜜が完了するたで非垞に長い時間埅機する必芁があった堎合、Screaming Frogを䜿甚するず、倧量のメモリを䜿甚する手順を䞀時停止できたす。 この最も䟡倀のあるオプションを䜿甚するず、プログラムがクラッシュしおメモリサむズを増やす準備が敎ったず思われる瞬間たでに、既に取埗した結果を保存できたす。



画像



珟時点では、このオプションはデフォルトで有効になっおいたすが、倧芏暡なサむトをクロヌルする堎合は、Spiderの蚭定メニュヌの[詳现蚭定]タブで、[高メモリ䜿甚量で䞀時停止]フィヌルドにチェックマヌクを入れおください。





堎合によっおは、叀いサヌバヌが1秒あたりのURLリク゚スト数を凊理できないこずがありたす。 [構成]メニュヌでスキャン速床を倉曎するには、[速床]セクションを開き、ポップアップりィンドりで同時に䜿甚するスレッドの最倧数を遞択したす。 このメニュヌから、1秒あたりに芁求されるURLの最倧数を遞択するこずもできたす。



ヒントスキャン結果で倚数のサヌバヌ゚ラヌが芋぀かった堎合は、Spider蚭定メニュヌの[詳现蚭定]タブに移動しお、[応答タむムアりト]倀ず新しいリク゚ストの詊行回数5xx応答再詊行を増やしたす。 これにより、より良い結果を埗るこずができたす。





怜玢ボットはCookieを受け入れたせんが、サむトのスキャン時にCookieを有効にする必芁がある堎合は、[構成]メニュヌの[詳现]タブで[Cookieを蚱可]を遞択したす。



画像





蚭定メニュヌで「プロキシ」を遞択し、適切な情報を入力したす。 別の゚ヌゞェントを䜿甚しおスキャンするには、構成メニュヌで[ナヌザヌ゚ヌゞェント]を遞択し、ドロップダりンメニュヌから怜玢ボットを遞択するか、その名前を入力したす。



画像





Screaming Frog SpiderがIDを芁求するペヌゞに入るず、りィンドりが衚瀺され、ナヌザヌ名ずパスワヌドを入力する必芁がありたす。



この手順を行わずに続行するには、構成メニュヌの[詳现蚭定]タブで、[認蚌の芁求]オプションをオフにしたす。



画像



内郚リンク





サむトの画像、JavaScript、Flash、たたはCSSを確認する必芁がない堎合は、メモリリ゜ヌスを節玄するためにこれらのオプションをスキャンモヌドから陀倖したす。



Spiderがスキャンを完了したら、Advanced Exportメニュヌを䜿甚しお、All LinksデヌタベヌスからCSVを゚クスポヌトしたす。 これにより、すべおの参照堎所ずそれに察応するアンカヌ゚ントリ、ディレクティブなどが提䟛されたす。



各ペヌゞのリンク数をすばやく蚈算するには、「内郚」タブに移動し、「倖郚リンク」オプションで情報を䞊べ替えたす。 100番目の䜍眮より䞊にあるものはすべお、远加の泚意が必芁な堎合がありたす。





い぀ものように、プロセスを最適化するために、スキャンオブゞェクトから画像、JavaScript、Flash、たたはCSSを陀倖するこずを忘れないでください。



Spiderでスキャンした埌、「ステヌタスコヌド」機胜を䜿甚しお「内郚」パネルの結果をフィルタリングしたす。 404、301、およびその他のステヌタスコヌドはすべお明確に衚瀺されたす。



プログラムりィンドりの䞋郚にあるスキャン結果で個々のURLをクリックするず、情報が衚瀺されたす。 䞋郚のりィンドりの[リンク内]をクリックするず、遞択したURLにリンクするペヌゞのリスト、およびこれらのペヌゞで䜿甚されるアンカヌ゚ントリずディレクティブが衚瀺されたす。 この関数を䜿甚しお、曎新が必芁な内郚リンクを識別したす。



壊れたリンクたたはリダむレクトを含むペヌゞのリストをCSV圢匏で゚クスポヌトするには、「高床な゚クスポヌト」メニュヌの「リダむレクト3xxリンク」たたは「クラむアント゚ラヌ4xxリンク」たたは「サヌバヌ゚ラヌ5xxリンク」オプションを䜿甚したす「。





同様に、「倖郚リンクの確認」ボックスにチェックを入れるこずを忘れずに、最初にHTMLコンテンツのスキャンに焊点を圓おたす。



スキャンが完了したら、䞊郚りィンドりの[倖郚]タブを遞択し、[ステヌタスコヌド]を䜿甚しおコンテンツをフィルタリングしお、200以倖のステヌタスコヌドを持぀URLを識別したす。スキャン結果の任意のURLをクリックし、[リンク内]タブを遞択したす䞋のりィンドりに-遞択したURLを指すペヌゞのリストがありたす。 この情報を䜿甚しお、曎新が必芁なリンクを特定したす。



アりトバりンドリンクの完党なリストを゚クスポヌトするには、[内郚]タブの[゚クスポヌト]をクリックしたす。 たた、倖郚画像、JavaScript、CSS、Flash、およびPDFぞのリンクを゚クスポヌトするフィルタヌを蚭定するこずもできたす。 ゚クスポヌトをペヌゞのみに制限するには、「HTML」オプションを䜿甚しお゜ヌトしたす。



アりトバりンドリンクのすべおの堎所ずアンカヌ゚ントリの完党なリストに぀いおは、[詳现゚クスポヌト]メニュヌから[すべおのアりトリンク]を遞択し、゚クスポヌトしたCSVの[宛先]列をフィルタヌしおドメむンを陀倖したす。





スキャンが完了したら、䞊郚りィンドりの[応答コヌド]パネルを遞択し、[リダむレクト3xx]オプションを䜿甚しお結果を䞊べ替えたす。 これにより、リダむレクトされるすべおの内郚リンクおよび発信リンクのリストが取埗されたす。 「ステヌタスコヌド」フィルタヌを適甚するず、結果をタむプ別に分類できたす。 䞋のりィンドりで[リンク]をクリックするず、リダむレクトリンクを䜿甚するすべおのペヌゞが衚瀺されたす。



このタブから盎接情報を゚クスポヌトするず、䞊郚のりィンドりに衚瀺されるデヌタ元のURL、ステヌタスコヌド、リダむレクトが行われる堎所のみが衚瀺されたす。



リダむレクトリンクを含むペヌゞの完党なリストを゚クスポヌトするには、[詳现゚クスポヌト]メニュヌの[リンクのリダむレクト3xx]を遞択する必芁がありたす。 これにより、すべおのリダむレクトリンクの堎所を含むCSVファむルが返されたす。 内郚リダむレクトのみを衚瀺するには、「宛先」列を䜿甚しお、ドメむンに関するデヌタでCSVファむルのコンテンツをフィルタリングしたす。



ヒント゚クスポヌトされた2぀のファむルの䞊で、VLOOKUPを䜿甚しお、Source列ずDestination列を最終URLの堎所にマップしたす。



数匏の䟋は次のずおりです。

= VLOOKUP[@ Destination]、 'response_codes_redirection_3xx.csv'$ A $ 3$ F $ 50.6、FALSE。 「response_codes_redirection_3xx.csv」はリダむレクトURLを含むCSVファむルで、「50」はこのファむルの行数です。



サむトコンテンツ





Spiderの䜜業が完了したら、HTMLフィルタリングを蚭定しお[内郚]パネルに移動し、[単語数]列たで右にスクロヌルしたす。 単語数の原則に埓っおペヌゞのコンテンツを゜ヌトし、テキストが最も少ないペヌゞを特定したす。 察応するURLの暪に[単語数]列を巊にドラッグするず、情報がさらに明らかになりたす。 CSV圢匏のデヌタを䜿いたければ、[内郚]タブの[゚クスポヌト]ボタンをクリックしたす。



画像



ワヌドカりントを䜿甚するず、投皿されたテキストの量を掚定できたすが、このテキストが商品/サヌビスの名前だけなのか、キヌワヌドに最適化されたブロックなのかに぀いおの明確な情報は提䟛したせん。





すでにサむト党䜓たたは別のフォルダをスキャンしおいる堎合は、䞊のりィンドりでペヌゞを遞択し、䞋のりィンドりで[画像情報]をクリックしお、このペヌゞで芋぀かった画像を衚瀺したす。 写真は「宛先」列にリストされたす。

ヒント䞋郚のりィンドりの゚ントリを右クリックしお、URLをコピヌたたは開きたす。



画像



この特定のURLをスキャンするこずにより、単䞀のペヌゞに画像を衚瀺できたす。 Spiderスキャン構成の蚭定でスキャンの深さが「1」に蚭定されおいるこずを確認したす。 ペヌゞがスキャンされた埌、「画像」タブに移動するず、Spiderが怜出できたすべおの画像が衚瀺されたす。



最埌に、CSVを垌望する堎合は、[詳现゚クスポヌト]メニュヌの[すべおの画像の代替テキスト]オプションを䜿甚しお、すべおの画像、その堎所、および関連する眮換テキストのリストを衚瀺したす。





たず、Spiderの[構成]メニュヌで[むメヌゞの確認]の䜍眮が遞択されおいるこずを確認する必芁がありたす。 スキャンが完了したら、「画像」タブに移動し、「欠萜しおいる代替テキスト」たたは「100文字を超える代替テキスト」オプションを䜿甚しおコンテンツをフィルタリングしたす。 䞋のりィンドりの[画像情報]タブをクリックするず、少なくずもいく぀かの画像が配眮されおいるすべおのペヌゞが衚瀺されたす。 ペヌゞは[差出人]列にリストされたす。



画像



同時に、「高床な゚クスポヌト」メニュヌで時間を節玄し、「すべおの画像の代替テキスト」すべおの画像、すべおのテキストたたは「代替画像のない画像」代替タグのない画像をCSV圢匏に゚クスポヌトできたす。





Spider蚭定メニュヌで、スキャンする前に「CSSをチェック」を遞択したす。 プロセスの最埌に、「CSS」オプションを䜿甚しお「Internal」パネルで分析結果をフィルタリングしたす。



画像





Spider蚭定メニュヌで、スキャンする前に、「JavaScriptをチェック」を遞択したす。 プロセスの最埌に、「JavaScript」オプションを䜿甚しお「内郚」パネルで分析結果をフィルタリングしたす。





たず、構成メニュヌで「JavaScriptをチェック」が遞択されおいるこずを確認したす。 スキャンが完了したら、「内郚」パネルで「JavaScript」フィルタヌを適甚し、「jQuery」を怜玢したす。 これにより、プラグむンを含むファむルのリストを取埗できたす。 衚瀺しやすいように、「アドレス」オプションでリストを䞊べ替えたす。 次に、䞋郚のりィンドりでInLinksを衚瀺するか、情報をCSVに゚クスポヌトしたす。 ファむルを䜿甚するペヌゞを芋぀けるには、「差出人」列で䜜業したす。



これに加えお、「Advanced Export」メニュヌを䜿甚しお「All Links」をCSVに゚クスポヌトし、「Destination」列を陀倖しおjquery URLのみを衚瀺できたす。



ヒントすべおのjQueryプラグむンがCEOに悪いだけではありたせん。 jQueryを䜿甚しおサむトを衚瀺する堎合、むンデックスを䜜成しようずしおいるコンテンツがペヌゞの゜ヌスコヌドに含たれおおり、その埌ではなくペヌゞの読み蟌み時に衚瀺されるこずを確認するのは理にかなっおいたす。 この偎面がよくわからない堎合は、むンタヌネット䞊のプラグむンに぀いお読んで、その仕組みに぀いお詳しく孊んでください。









スキャンする前に、構成メニュヌで「SWFをチェック」を遞択したす。 そしお、スパむダヌの䜜業の最埌に、「内郚」パネルの結果を「Flash」ずいう倀でフィルタリングしたす。



画像





この方法では、ペヌゞにある.SWFファむルのみを怜玢できるこずに泚意しおください。 プラグむンがJavaScriptを介しおプルされる堎合、カスタムフィルタヌを䜿甚する必芁がありたす。









スキャンが完了したら、「内郚」パネルの「PDF」オプションを䜿甚しおSpiderの結果をフィルタリングしたす。









異垞なコンテンツを含むサむト䞊のペヌゞを怜玢する堎合は、このペヌゞに固有ではないHTML印刷を衚瀺するカスタムフィルタヌを蚭定したす。 これは、Spiderの起動前に行う必芁がありたす。









これを行うには、Spiderを起動する前に、カスタムフィルタヌをむンストヌルする必芁がありたす。 それをむンストヌルするには、構成メニュヌに移動し、「カスタム」をクリックしたす。 その埌、ペヌゞの゜ヌスコヌドから任意のコヌドを入力したす。



䞎えられた䟋では、タスクはそれぞれFacebook゜ヌシャルネットワヌクの「いいね」ボタンを含むペヌゞを芋぀けるこずであり、http//www.facebook.com/plugins/like.php圢匏のフィルタヌが䜜成されたした。









これを行うには、<iframeタグに適切なナヌザヌフィルタヌを蚭定する必芁がありたす。









これを行うには、YouTubeたたはサむトで䜿甚される他のメディアプレヌダヌの埋め蟌みコヌドスニペットにカスタムフィルタヌを蚭定したす。





メタデヌタずディレクティブ









スキャンが完了したら、「ペヌゞタむトル」タブに移動し、「70文字以䞊」でコンテンツをフィルタリングしお、過床に長いペヌゞタむトルを衚瀺したす。 Meta DescriptionパネルずURLパネルでも同じこずができたす。 たったく同じアルゎリズムを䜿甚しお、ヘッダヌたたはメタデヌタが欠萜たたは短いペヌゞを識別できたす。



画像











スキャンが完了したら、[ペヌゞタむトル]タブに移動し、[重耇]でコンテンツをフィルタヌ凊理しお、重耇したペヌゞタむトルを衚瀺したす。 Meta DescriptionパネルずURLパネルでも同じこずができたす。









Spiderが䜜業を完了したら、「URL」タブに移動し、「Underscores」、「Uppercase」たたは「Non ASCII Characters」を䜿甚しお結果をフィルタリングし、より暙準的な構造に曞き換えられる可胜性のあるURLを明らかにしたす。 耇補ツヌルでフィルタリングしお、耇数のURLバヌゞョンを持぀ペヌゞを衚瀺したす。 動的フィルタヌを適甚しお、パラメヌタヌを含むURLを認識したす。



さらに、「HTML」フィルタヌから「内郚」パネルに移動し、さらに「ハッシュ」列たで右にスクロヌルするず、各ペヌゞに文字ず数字の䞀意のシヌケンスが衚瀺されたす。 [゚クスポヌト]をクリックするず、Excelの条件付き曞匏蚭定を䜿甚しお、この列の重耇する倀を匷調衚瀺し、最終的にペヌゞが同䞀で衚瀺されるこずを瀺すこずができたす。









スキャン埌、[ディレクティブ]パネルに移動したす。 ディレクティブのタむプを衚瀺するには、右にスクロヌルしお、どの列が埋められおいるかを確認したす。 たたは、フィルタヌを䜿甚しお、次のタグのいずれかを芋぀けたす。



  1. 玢匕
  2. むンデックスなし
  3. フォロヌする;
  4. Nofollow;
  5. アヌカむブなし
  6. Nosnippet;
  7. Noodp;
  8. Noydir;
  9. 画像むンデックス
  10. 翻蚳しない
  11. Unavailable_after;
  12. リフレッシュ
  13. 正芏










デフォルトでは、Screaming Frogはrobots.txtず䞀臎したす。 優先順䜍ずしお、プログラムはナヌザヌ゚ヌゞェント専甚に䜜成されたディレクティブに埓いたす。 存圚しない堎合、SpiderはGoogleボットの指瀺に埓いたす。 Googlebot甚の特別なディレクティブがない堎合、Spiderはすべおのナヌザヌ゚ヌゞェントで受け入れられるグロヌバルディレクティブに埓いたす。 この堎合、Spiderは、埌続のすべおのディレクティブに圱響を䞎えるこずなく、ディレクティブのセットを1぀だけ遞択したす。



Spiderからサむトの䞀郚をブロックする必芁がある堎合は、これらの目的のためにナヌザヌ゚ヌゞェントScreaming Frog SEO Spiderで通垞のrobots.txtの構文を䜿甚したす。 robots.txtを無芖する堎合は、プログラム構成メニュヌで適切なオプションを遞択するだけです。









スキヌママヌクアップたたはその他のmicrodataを含むすべおのペヌゞを怜玢するには、カスタムフィルタヌを䜿甚する必芁がありたす。 [構成]メニュヌで[カスタム]をクリックし、探しおいるマヌカヌを挿入したす。



スキヌママヌクアップを含むすべおのペヌゞを怜玢するには、次のコヌドスニペットをカスタムフィルタヌに远加したすitemtype = http//schema.org。



特定のタむプのマヌクアップを芋぀けるには、より具䜓的にする必芁がありたす。 たずえば、カスタムフィルタ‹span itemprop =” ratingValue”›を䜿甚するず、評䟡を構築するためのスキヌママヌクアップを含むすべおのペヌゞを怜玢できたす。



スキャンには5぀の異なるフィルタヌを䜿甚できたす。 その埌、「OK」をクリックしお、゜フトりェアスキャナヌでサむトたたはペヌゞのリストを衚瀺するだけです。



スパむダヌの䜜業が終了したら、䞊郚りィンドりの「カスタム」タブを遞択しお、探しおいるマヌカヌのあるすべおのペヌゞを衚瀺したす。 耇数のナヌザヌフィルタヌを定矩した堎合、フィルタヌペヌゞ間でスキャン結果を切り替えお、それらを1぀ず぀衚瀺できたす。







サむトマップ









スパむダヌがサむトのクロヌルを完了したら、[詳现゚クスポヌト]をクリックしお[XMLサむトマップ]を遞択したす。



サむトマップを保存し、Excelで開きたす。 「読み取り専甚」を遞択し、「XMLテヌブルずしお」ファむルを開きたす。 䞀郚の回路を統合できないずいうメッセヌゞが衚瀺される堎合がありたす。 「はい」ボタンをクリックするだけです。



サむトマップが衚圢匏で衚瀺されたら、頻床、優先床、その他の蚭定を簡単に倉曎できたす。 サむトマップには、各URLの優先正芏バヌゞョンが1぀だけ含たれおいるこずを確認しおください。パラメヌタやその他の重耇芁因はありたせん。



倉曎を行った埌、ファむルをXMLモヌドで保存したす。

 







たず、PCにサむトマップのコピヌを䜜成する必芁がありたす。 URLに移動しおファむルを保存するか、Excelにむンポヌトするこずにより、ラむブサむトマップを保存できたす。



その埌、「Mode」ず呌ばれる「Screaming Frog」メニュヌセクションに移動し、「List」を遞択したす。 ペヌゞの䞊郚で[ファむルの遞択]をクリックし、ファむルを遞択しおスキャンを開始したす。 [内郚]タブの[サむトマップの未加工]セクションでのSpiderの䜜業が完了するず、リダむレクト、404゚ラヌ、URLの重耇などを確認できたす。







䞀般的なトラブルシュヌティングのヒント









䞀郚のペヌゞがむンデックスに登録されないのはなぜですか 最初に、それらがrobots.txtになく、noindexずしおマヌクされおいないこずを確認したす。 次に、スパむダヌがサむトのペヌゞにアクセスしお内郚リンクをチェックできるこずを確認する必芁がありたす。 クモがサむトをクロヌルした埌、[内郚]タブのHTMLフィルタヌを䜿甚しお、内郚リンクのリストをCSVファむルずしお゚クスポヌトしたす。



CSVドキュメントを開き、2番目のシヌトで、むンデックスたたはランク付けされおいないURLのリストをコピヌしたす。 VLOOKUPを䜿甚しお、同様の問題のあるURLがクロヌル結果に存圚するかどうかを確認したす。









Screaming Frogを䜿甚しお、叀いURLがリダむレクトされおいるかどうかを確認できたす。「リスト」モヌドはこれに圹立ちたす。これにより、ステヌタスコヌドを確認できたす。叀いURLで404゚ラヌが発生した堎合、リダむレクトが必芁なURLが正確にわかりたす。









スキャンプロセスが完了したら、[応答コヌド]タブに移動し、[応答時間]列を "倧から小"の基準で䞊べ替えお、読み蟌み速床が遅いペヌゞを芋぀けたす。









たず、マルりェアやスパムによっお残された痕跡を特定する必芁がありたす。次に、構成メニュヌで[カスタム]をクリックし、探しおいるマヌカヌの名前を入力したす。1回のスキャンで最倧5぀のマヌカヌを分析できたす。必芁な情報をすべお入力し、「OK」をクリックしおサむト党䜓たたはペヌゞのリストを調べたす。



プロセスが完了したら、䞊郚りィンドりにある[カスタム]タブに移動しお、指定した䞍正プログラムやりむルスプログラムの「痕跡」が芋぀かったすべおのペヌゞを衚瀺したす。耇数のナヌザヌフィルタヌを蚭定した堎合、それぞれの結果は別のりィンドりに衚瀺され、フィルタヌ間を移動しおそれらに慣れるこずができたす。







PPCず分析









アドレス䞀芧を.txtたたは.csv圢匏で保存し、モヌド蚭定を「モヌド」から「リスト」に倉曎したす。次に、ダりンロヌドするファむルを遞択しお、「開始」をクリックしたす。[内郚]タブで各ペヌゞのステヌタスコヌドを衚瀺したす。





こする









できるだけ倚くの情報を取埗するこずが重芁なURLがたくさんありたすか「モヌド」モヌドをオンにしおから、アドレスのリストを.txtたたは.csv圢匏でダりンロヌドしたす。Spiderが䜜業を完了するず、リスト内の各ペヌゞのステヌタスコヌド、発信リンク、単語数、そしおもちろんメタデヌタを確認できたす。









たず、マヌカヌ自䜓を扱う必芁がありたす-必芁なものを正確に決定したす。その埌、「構成」メニュヌで「カスタム」をクリックし、目的のマヌカヌの名前を入力したす。最倧5぀の異なるマヌカヌを入力できるこずに泚意しおください。次に、[OK]をクリックしおスキャンプロセスを開始し、指定された「トレヌス」の存圚によっおサむトのペヌゞをフィルタリングしたす。



画像





この䟋は、商品のコストに関連するセクションに「お電話ください」ずいう蚀葉を含むすべおのペヌゞを芋぀ける必芁がある状況を瀺しおいたす。これを行うために、HTMLコヌドが芋぀かり、ペヌゞの゜ヌスコヌドからコピヌされたした。



スキャン埌、指定されたマヌカヌを含むすべおのペヌゞのリストを衚瀺するには、䞊郚りィンドりの「カスタム」セクションに移動する必芁がありたす。耇数のマヌカヌが入力されおいる堎合、それぞれのマヌカヌに関する情報が個別のりィンドりに衚瀺されたす。



ヒントこの方法は、サむトに盎接アクセスできない堎合に適しおいたす。クラむアントのサむトからデヌタを受信する必芁がある堎合、必芁な情報をデヌタベヌスから盎接取埗しお転送するように䟝頌する方がはるかに簡単か぀迅速になりたす。





URLの曞き換え









IDセッションたたはその他のパラメヌタヌでURLを識別するには、デフォルト蚭定に基づいおサむトをスキャンするだけです。Spiderの䜜業が完了したら、「URL」タブに移動しお「動的」フィルタヌを適甚し、必芁なパラメヌタヌを含むすべおのURLを衚瀺したす。



スキャンしたペヌゞの衚瀺からパラメヌタヌを削陀するには、蚭定メニュヌで「URL Rewriting」を遞択したす。次に、「パラメヌタヌの削陀」パネルで「远加」をクリックしお、URLから削陀するパラメヌタヌを远加し、「OK」をクリックしたす。倉曎を有効にするには、Spiderを再起動する必芁がありたす。









スパむダヌによっお解決されたアドレスのいずれかを曞き換えるには、構成メニュヌで[URL曞き換え]を遞択し、[正芏衚珟の眮換]パネルで[远加]をクリックしお、眮換するものにRegExを远加したす。



必芁な修正をすべお行った埌、「曞き換え前のURL」りィンドりにテストURLを入力しお、「テスト」パネルでそれらを確認できたす。文字列「曞き換え埌のURL」は、蚭定したパラメヌタヌに埓っお自動的に曎新されたす。



すべおのURLを小文字に曞き換える必芁がある堎合は、[オプション]パネルで[怜出されたURLの小文字]を遞択したす。



倉曎を行った埌にSpiderを再起動しお、それらが匕き継ぐようにしおください。







キヌワヌド分析









䞀般に、競合他瀟は、内郚リンクによっおリンクの人気を拡倧し、最も䟡倀のあるペヌゞぞのトラフィックを促進しようずしたす。 SEOに泚意を払う競合他瀟も、䌁業ブログずサむトの最も重芁なペヌゞずの間に匷力なリンクを構築したす。



スキャンしお競合他瀟のサむトの最も重芁なペヌゞを芋぀けおから、「内郚」パネルに移動し、「Inlinks」列の結果を「倧から小」の順に䞊べ替えお、どのペヌゞに最も内郚リンクがあるかを確認したす。



競合他瀟の䌁業ブログに関連するペヌゞを衚瀺するには、Spiderの蚭定メニュヌで[フォルダヌ倖のリンクをチェック]チェックボックスをオフにしお、ブログのフォルダヌ/サブドメむンをスキャンしたす。次に、「倖郚」パネルで、メむンドメむンのURLによる怜玢を䜿甚しお結果をフィルタヌしたす。最埌たで右にスクロヌルし、「Inlinks」列のリストを゜ヌトしお、最も頻繁にリンクするペヌゞを衚瀺したす。



ヒントプログラムテヌブルを操䜜するために、ドラッグアンドドロップメ゜ッドを䜿甚しお列を巊右に移動したす。









[詳现゚クスポヌト]メニュヌから[すべおのアンカヌテキスト]を遞択しお、サむトのアンカヌ゚ントリを含むCSVを゚クスポヌトし、その堎所ずバむンドを確認したす。









スパむダヌがスキャンを完了した埌、メタキヌワヌドパネルを芋お、個々のペヌゞにあるメタキヌワヌドのリストを衚瀺したす。メタキヌワヌド1列をアルファベット順に䞊べ替えお、情報をより明らかにしたす。





参照ビル









URLのリストを収集するこずで、リストモヌドでクロヌルしお、ペヌゞに関する可胜な限り倚くの情報を収集できたす。スキャンが完了したら、[応答コヌド]パネルのステヌタスコヌドを確認し、[送信リンク]パネルで送信リンク、リンクタむプ、アンカヌ゚ントリ、およびディレクティブを調べたす。これにより、これらのペヌゞをリンクしおいるサむトずその方法がわかりたす。



[アりトリンク]パネルを確認するには、関心のあるURLが䞊郚りィンドりで遞択されおいるこずを確認しおください。



カスタムフィルタを䜿甚しお、これらの堎所に既にリンクがあるかどうかを刀断するこずをお勧めしたす。



[詳现゚クスポヌトメニュヌ]パネルの[すべおのリンク]オプションをクリックしお、リンクの完党なリストを゚クスポヌトするこずもできたす。これにより、サヌドパヌティのサむトぞのリンクだけでなく、リストの個々のペヌゞぞの内郚リンクも衚瀺できたす。









そのため、独自のリ゜ヌスぞのリンクを受け取りたいサむトがありたす。Screaming Frogを䜿甚するず、サむトのペヌゞたたはサむト党䜓ぞの壊れたリンクを芋぀けるこずができ、奜きなリ゜ヌスの所有者に連絡した埌、可胜であれば壊れたリンクをリ゜ヌスぞのリンクに眮き換えるように圌に提䟛したす。









バックリンクのリストをダりンロヌドし、リストモヌドでSpiderを起動したす。次に、「Advanced Export Menu」の「All Out Links」をクリックしお、倖郚リンクの完党なリストを゚クスポヌトしたす。これにより、これらのペヌゞのすべおのリンクのURLずアンカヌテキスト/代替テキストが提䟛されたす。その埌、CSVファむルの「Destination」列をフィルタリングしお、サむトがリンクされおいるかどうか、およびどのアンカヌテキスト/ Altテキストが含たれおいるかを刀断できたす。









これを行うには、URLのルヌトドメむンを含むカスタムフィルタヌをむンストヌルし、バックリンクのリストをアップロヌドしお、「リスト」モヌドでSpiderを起動する必芁がありたす。スキャンが完了したら、カスタムパネルに移動しお、匕き続きリンクされおいるペヌゞのリストを衚瀺したす。



ヒントスキャン結果の䞊郚りィンドりでURLを右クリックするず、特に次のこずができるこずに泚意しおください。









おわりに





そこで、Screaming Frogプログラムの䜿甚に関するすべおの偎面を詳现に調査したした。詳现な手順が、サむト監査をより簡単に、そしお同時に非垞に効果的にするのに圹立぀ず同時に、膚倧な時間を節玄できるこずを願っおいたす。








All Articles