前編では、サーバーログを使って “どこでクロール予算が消えているのか” を読み解くための KPI と可視化の型 を整理しました。
後編では、その気づきを 実際の改善施策にどう落とし込むか? をテーマに進めます。
クロール最適化の鉄則は、「減らす → 整える → 促す」の順に小さく回すこと。
これを逆にすると、ムダ巡回やエラーに予算を吸い取られ、重要URLがなかなか巡回されない“負のループ”に陥りがちです。
本稿では、ログから見えた課題を
-
重複URL・パラメータ・トラップの削減(抑制)
-
正規URLと配信品質の整備(最適化)
-
サイトマップ・内部リンク・更新シグナルによる優先配分(促進)
という 実務フロー で整理。
初心者〜中級者でも “どの順で、何を直せば、クロールが改善するのか” を迷わず実行できる状態をつくります。
「クロールは来てるのにインデックスが増えない…」
そんな悩みを“仕組み”で解消するための後編です。
📌 本記事でわかること
-
重複URL・パラメータ・無限URL など、クロールを浪費する要因の削り方
-
URL正規化・応答速度・配信サイズなど“巡回の通り道”の整え方
-
重要URLを優先して巡回させるための設計(サイトマップ/内部リンク/更新通知)
-
週次・月次で回すための監視ループとダッシュボード雛形
-
継続改善のための実務ログテンプレ(Before→After)
① 減らす(抑制の打ち手)
クロール最適化の最初のステップは 「減らす」=ムダを徹底的に削ること です。
これをせずに促進施策(サイトマップ増強・内部リンク強化)へ進むと、結局ムダ巡回が予算を食い続け、重要URLが巡回されない状態が続きます。
“抑制フェーズ”は、もっとも投資対効果が高い領域です。
ログをもとに、どこにロスが発生しているかを把握しながら、一つずつ潰していきましょう。

重複URLの統合 — canonical統一/内部リンク修正/サイトマップ正規化
重複URLはクロール予算の最大の浪費源です。
例:
-
/page/と/page/index.html -
/item?id=123と/item/123/ -
www あり・なし
-
末尾スラッシュの揺れ
bot は “すべて別URL” と判断して巡回するため、
同じ内容でも複数回クロール → 重要URLが後回しになる という連鎖が起こります。
改善の優先度はこの順が安全です:
-
canonical を正規URLに統一
-
内部リンクを正規URLへ修正
-
サイトマップも正規URLのみにする
-
3xxループを解消し、1本の正規ルートに揃える
この4つを整えるだけで、bot が向かう“正式ルート”が一本の線として定義されます。
パラメータ制御 — 並び替え/検索系は原則クロール対象外(noindex/robots/内部リンク非推奨)
前編でも触れた通り、パラメータURLは無限に増殖しやすい領域です。
-
並び替え(sort)
-
絞り込み(filter)
-
ページング(page)
-
検索結果(q)
これらは 「クロール対象にする意義が薄い」 かつ 「URLが爆発しやすい」 という厄介な性質があります。
実務では、以下の“3段階抑制”でコントロールします:
① 内部リンクで誘導しない(もっとも効果的)
② noindex で評価対象から外す
③ robots.txt でクロール抑制(使い方は慎重に)
とくに内部検索結果は “クロールトラップに直結” するため、基本は noindex+内部リンク非推奨 をセットで適用します。

クロールトラップ封鎖 — カレンダー/無限ページはリンク抑止 or 段階的読み込み
クロールトラップは、ムダ巡回のなかでも“もっとも危険”なパターンです。
例:
-
カレンダー形式で無限に遡れる
-
ページ番号が無限増殖
-
日付やIDが細かく違う生成型URL
bot は出口が見えず、ひたすら深部へ潜ってしまいます。
結果として 重要URLへの巡回機会が奪われる ため、早急に封鎖が必要です。
対策としては、次の3つが定番です:
-
リンクそのものを設置しない(=クロールされない)
-
段階的読み込み(“もっと見る”式)でURLを増やさない
-
内部検索などは noindex+リンク抑止で扱う
クロールトラップは “構造的な欠陥” なので、一気に塞ぐほど効果が出やすい領域です。
エラー縮減 — 4xx=リンク修正/5xx=負荷とアプリを分けて是正
最後が 4xx と 5xx の縮減。
これはクロール予算の“回復力”に直結する重要項目です。
● 4xx(クライアントエラー)
主な原因:リンク切れ/削除記事/パラメータ誤爆
→ 内部リンクの修正 が最優先
→ 放置すると “リンク切れエリア” と認識され、bot が遠ざかる
● 5xx(サーバーエラー)
主な原因:負荷/アプリ障害/タイムアウト
→ インフラ負荷|アプリ処理 のどちらが原因かを切り分ける
→ P95応答、ステータス比率の推移、該当パスのヒット集中で判断
5xx があると、bot は “ここ危ない” と判断して巡回を減らす ため、最優先級で潰します。
改善の順番としては:
-
5xx(最優先:予算を奪う)
-
4xx(正しい案内を失う)
-
3xx(正規化の再構築)
この順番が“予算が漏れにくい”進め方です。
② 整える(通り道の最適化)
“減らす”でムダ巡回を抑えたら、次は クローラーが進む“道”を整えるフェーズ です。
ここを整えると、クロール効率が一気に上がり、同じクロール予算でも より多くの重要URLに辿りつける状態 になります。
整備フェーズは、
-
URLの一貫性(迷わせない)
-
配信の軽さ(滞らせない)
-
応答の安定性(待たせない)
という3つの軸で考えるとシンプルです。

正規URLの一貫性 — Vol.5の型を踏襲(末尾/www/http→https)
URLの“揺れ”は、そのままクロールの“迷い”になります。
典型的な揺れはこの4つ:
-
末尾スラッシュあり/なし
-
www あり/なし
-
http/https 混在
-
index.html の有無
どれも意図せず“別URL扱い”になり、重複クロールや 3xx 増加を引き起こします。
実務での解決ステップは、Vol.5 で扱った“正規化の型”をそのまま適用するのが安全です。
-
正規URLを1種類に決める(例:https+wwwなし+末尾スラッシュあり)
-
canonical を正規URLに統一
-
3xx は 1→1 の「一本ルート」だけにする
-
内部リンクをすべて正規URLへ統一
この4ステップで、クローラーの“迷い”をなくし、3xx の比率も自然と下がります。
正規URLが一本線で引けると、重要URLへ巡回が早まり、インデックスの更新頻度も安定します。
配信を軽く — 画像の実寸化/圧縮、不要JSの削減(INP/CLS連動)
配信サイズは、クロール効率に直接影響します。
1URLあたりの転送量が大きい=巡回コストが高い ため、重要URLが後回しになることさえあります。
そこで見直すべき代表的なポイントがこちら:
-
画像サイズ(実寸+軽量化)
例:実際の表示幅 400px しかないのに 2000px の画像を配信しているケース -
不要な JS / CSS の読み込み
ABテストツール、広告タグ、古いウィジェットなど“積み残しリソース”が肥大化しがち -
複数のトラッキングを重複ロード
GA・広告タグ・計測タグが二重三重で読み込まれているパターン
ここを軽くすると何が良いか?というと:
-
クロール速度が上がる
-
P50/P95 の応答が安定する
-
INP / CLS など UX 指標にも好影響
つまり「クロール効率」と「UX改善」が同じ方向を向く領域なのです。
デザイン変更やリニューアル時は、必ず“配信サイズの比較”を行うだけで安定性が大きく変わります。
応答の安定 — P95が重いパスのキャッシュ/分割などで渋滞回避
応答速度はクロール効率に直結するため、特に P95(遅い側5%) を中心に見るのが鉄則です。
P95 が悪化する原因は大きく3つ:
-
データベースや外部APIへの依存が重い
-
キャッシュが適切に効いていない
-
1ページで読み込む処理が多すぎる
P95 が重いと、bot はその領域を“負荷の高いエリア”と見なし、巡回頻度を落としたり、途中で打ち切ったりします。
結果として 重要URLの巡回が日によりブレる という不安定さにつながります。
改善ポイントはシンプルで、以下のどれかを行うだけでも効果が出ます:
-
キャッシュを適切に張る(TTLの設計)
-
外部APIの非同期化 or 必要なときだけ読み込む
-
重い処理を分割してページ負荷を平準化
これらはユーザー側の体験改善にも直結するため、
“クロール × UX × パフォーマンス改善” の三方良しの領域と言えます。
特に、P95 が一定幅で安定しているか は週次監視でも重要な項目です。
少しでも乱れが出たら、どのパスが渋滞の原因なのかを URL粒度で確認しましょう。
③ 促す(優先配分の設計)
“減らす”でムダを取り除き、“整える”で巡回の通り道を滑らかにしたら、いよいよ 「重要URLへ予算を寄せる」 フェーズに入ります。
ここではサイト側から “このページを優先してね” とクローラーに伝える設計を行います。
促進フェーズのキーワードは 「選抜」「導線」「更新シグナル」。
この3つの仕掛けをセットで整えることで、クロール頻度とインデックス更新が安定し、重要ページが“放置される”リスクを最小化できます。

サイトマップの“選抜” — 重要URLのみ収載/lastmodは意味ある更新時だけ
まず最初にやるべきは、サイトマップ(sitemap.xml)の“ダイエット” です。
よくある悪手は、
-
全URLをそのまま入れてしまう
-
下層の質の低いページまで大量に収載
-
lastmod を毎日自動更新する
こうした状態だと 重要URLの位置づけが希薄になり、bot の巡回が分散してしまいます。
実務での最適な作り方は次の通り:
-
重要URLだけを“選抜”して載せる
-
lastmod は“本当に更新した日”だけ付ける(自動更新は禁止)
-
不要URL(検索結果・重複・パラメータ)は掲載しない
-
画像・動画SEOを意識するなら XML を分割して管理
選抜サイトマップは“クローラーへの名刺”のようなもので、
URL数が絞られているほど、bot が回しやすい“シンプルな案内図”になります。
内部リンクの強化 — ハブ→クラスターへ章末3本の固定導線(Vol.2の型)
次に重要なのが 内部リンク です。
これは “重要URLへクロールを誘導するための最強要素” と言ってもいいぐらい効果が大きい施策です。
実務では、以下の型にすると安定します:
-
ハブページ(カテゴリ/主要記事)から、関連クラスター記事へ安定導線
-
クラスター側からもハブへ戻す(双方向リンク)
-
記事末尾に「関連記事3本」の固定導線を設置
-
孤立URL(どこからもリンクされていない)を0にする
内部リンクを整備すると何が起こるか?
-
リンクの流れ=クロールの流れ
-
重要URLが早く・頻繁に巡回される
-
インデックス更新が早くなる
つまり、内部リンクの最適化は “クロール予算の分配装置” として機能します。
更新シグナル — 定期更新と Index 通知で新陳代謝を明示
最後に、更新シグナル(Freshness Signal) の管理です。
検索エンジンは「最近よく更新されている領域」を優先して見に来る傾向があります。
そのため、重要URL群は次の2点をセットで行うと効果的です:
① 定期更新(内容の微調整でもOK)
重要URLが長期間まったく更新されないと、bot の巡回が年単位まで落ちるケースがあります。
② Index 通知(概念的なもの)
更新があったことを外部シグナルとして伝える考え方。
※具体的なUIやサービス名は本記事ではぼかします。
これらの更新シグナルによって、
-
クロール→インデックス→順位反映 のサイクル
-
重要URLの新陳代謝
が改善され、SEO全体の“鮮度”が保たれやすくなります。
監視ループ(週次/月次)
クロール最適化は「一度整えたら終わり」ではありません。
“減らす → 整える → 促す” の施策は、日々の更新や新規記事追加によってすぐ変質します。
そこで必要になるのが、週次/月次で回す軽量の監視ループ です。
この監視ループを仕組み化しておくと、
-
どこでクロール予算が漏れているか
-
どの施策が効いているか
-
どのURLが“見られなくなってきているか”
が数値と表で一目で分かるようになります。

週次 — 2xx/3xx/4xx/5xx の比率推移/P95 応答/急増UA
週次で見るべきものは “変化点”の発見 に向いた指標です。
主に以下の5点をセットで確認します:
-
2xx/3xx/4xx/5xx の比率推移
→ 特定パスの崩れ、リンク切れ、負荷増加のシグナル -
P95 応答の急変(遅延)
→ キャッシュ漏れ、外部API障害、DB負荷などの“渋滞” -
ヒット数の急増または急減
→ トラップ・負荷・更新停止などの異常を即時発見できる -
特定UA(bot)の急増
→ 解析クローラー・偽装bot・内部検索の巻き込みが発生 -
サイトマップのクロール頻度の変化
→ 重要URLへの“気づいてもらえる度合い”の変化を察知
週次は“短距離走”として、予算の漏れを素早く発見して止める 役割です。
月次 — 一意URL数/重要URLの巡回率/ムダ巡回(検索結果・パラメータ)の残量
月次で見るべきは 構造改善の成果 です。
短期ノイズに影響されにくい、やや長期スパンの指標を中心にします。
-
一意URL数(bot がどれだけの領域を見たか)
→ 範囲の広がりと月次の変化を把握 -
重要URL巡回率
→ “重要URLの何%が今月クロールされたか” を追跡
→ 70〜90% を目指すイメージ(幅として提示) -
ムダ巡回の残量(検索結果・パラメータ・同一URL連打)
→ 減らすフェーズが効いているかの判定に最適 -
サイトマップ収載URLの巡回率(選抜が適切か)
→ 優先順位付けが機能しているかを確認
特に 重要URL巡回率 と ムダ巡回の残量 は、
後編で解説した「抑制→整備→促進」が順序通り効いているかを判断する最強コンビです。
ダッシュボード雛形
以下は最小構成の“毎月1回更新するダッシュボード”の型です。
指標 | 今週 | 先週 | 差分 | 目標幅 | コメント
2xx比率 | 86% | 80% | +6pt | 85–95% | 5xx減少が寄与
一意URL | 2,100 | 1,850 | +250 | +200/月 | 新ガイド投入
重要URL巡回率 | 78% | 62% | +16pt | 75–90% | サイトマップ選抜が効果
ポイントは、
“差分” と “コメント” の2行だけは必ず書くこと。
これにより、翌月振り返ったときに“何が効いて、何が効いてないか”が一目で理解できます。
実務ログテンプレ(コピペ用)
クロール最適化は 「施策 → 変化 → 次の一手」 を積み重ねる連続作業です。
そこで役に立つのが、改善内容を記録するための “実務ログテンプレ”。
毎週・毎月の振り返り時にこの1枚を見れば、どこで何を実行したか、どんな変化が出たかが一目で思い出せます。
下記テンプレはそのままコピーして使えるよう、できるだけ抽象化した構造にしています。
日付 | 施策(削/整/促) | 対象URL/パス | Before→After(KPI) | 次の一手 | メモ
● 書き方のポイント
-
施策は「削る/整える/促す」で分類
→ Vol.12 のフレームと対応しており、改善フェーズが分かりやすい -
Before→Afterは“幅”で記録
例)P95 1,200ms → 620ms、4xx 12% → 4% など
→ 数字を追う習慣が巡回率改善につながる -
次の一手は必ず書く
→ 改善が“その場で止まらない”よう、連続性を担保する -
対象URLはパス単位でもOK
→ 大規模サイトでも無理なく継続できる
テンプレを使い続けるだけで、改善の流れが“仕組みとして回る”ようになります。
用語ミニ辞典
● ムダ巡回(Low-value Crawl)
検索結果・フィルタ・並び替えなど、価値の薄いURLへの過剰クロール のこと。
クロール予算を大量に消費し、重要URLの巡回を圧迫する。
● 重要URL巡回率(Priority URL Crawl Rate)
自サイトで“重要と定義したURL”のうち、一定期間内にクロールされた割合。
クロール最適化の最重要指標。70〜90%で安定するのが理想的(幅として目安)。
● トラップ(Crawl Trap)
無限カレンダー・動的フィルタの無限増殖など、bot が抜け出せず予算を吸われる構造 のこと。
最優先で封鎖すべき危険領域。
まとめ:クロール予算の最適化——“減らす→整える→促す”で重要URLへ配分を集中させる
クロール予算は“有限のリソース”だからこそ、ムダを削り・通り道を整え・優先度を明示する ことで最大限に活かせます。
後編では、前編で可視化した課題をもとに
-
重複・パラメータ・トラップの削減(減らす)
-
正規URLと配信品質の整備(整える)
-
サイトマップ・内部リンク・更新シグナルによる優先配分(促す)
という“再現性のある3ステップ”で改善を進めました。
この順番で小さく回すと、
重要URLの巡回率が安定し、インデックス更新の遅延も自然と解消 していきます。
クロールは“制御できないもの”ではなく、“仕組みで誘導できるもの”へと変わります。
次回の Vol.13 では、UX×内部SEOの観点から 「回遊導線・目次・CTA」 を設計し、読者の“読み切り率”を高める方法を扱います。
クロール改善の次は、いよいよ“読まれる導線づくり”です。
別記事への導線:クロール改善の先へ—回遊導線とUXの最適化
クロール予算を最適化し、重要URLが安定して巡回されるようになったら、次に取り組むべきは “ユーザーの回遊最適化” です。
Vol.13 では、UX × 内部SEO の観点から 目次構造・CTA配置・関連記事導線 を使って“読み切り率”を高める実践フローを解説します。
-
Vol.13 予告|UX×内部SEO:目次・CTA・回遊導線で読み切り率を上げる方法
-
Vol.12【前編】復習|ログ解析の設計と URL粒度KPI の読み解き方
-
Vol.5/Vol.7|正規化・リダイレクト・INP/CLS の基礎構造
クロール最適化の次は、いよいよ“読まれるサイト”への進化です。
今回はここで終わりにしたいと思います!
最後までお読みいただきありがとうございました!
このブログでは「ChatGPT×副業」をテーマに、AIをフル活用したリアルな副業チャレンジを発信しています🎶
むずかしい話はナシで、「ちょっとやってみたいかも」と思えるような内容を目指しています😁
私は現在、ChatGPTを使ってTシャツのデザインを作って販売したり、
LINEスタンプのキャラ制作に挑戦したりしています👍
デザインの知識ゼロでも、AIの画像生成機能を使えばかなりいい感じになりますよ!
ブログの内容やSEO対策も、ぜんぶChatGPTに相談しながら書いています。
アイデアが出ないときも、相棒みたいに助けてくれます🎶
さらに、楽天ルームのレビュー文章もChatGPTと一緒に考えたり、
X(旧Twitter)の投稿や運用方法も提案してもらったりと、あらゆる場面でAIに頼っています。😅
「AIって便利そうだけど、自分にも使えるのかな?」
と思っている人には、ぜひ読んでほしいです。
このブログは、AI初心者でも副業が始められるように、
体験ベースでわかりやすく書いています。
私の成功も失敗もまるごとシェアしていくので、よかったら気軽に読んでいってくださいね。
Xでも日々の活動をゆるっと更新しているので、ぜひのぞいてみてください!
明日のあなたがより豊かになりますように😌
それでは、おやすみなさい😴
