robots.txtファイルの編集は、高度なSEO機能であり、SEOの柔軟性を高め、販売者の個別のSEO要件に対応します。
robots.txtファイルは、検索エンジンに対して検索結果に含めるページやスキップするページを指示するためのファイルです。検索エンジンは、ウェブサイトをクロールおよびインデックスする際にrobots.txtファイルを参照します。サイトへのクロールリクエストをより良く制御したい場合は、robots.txtファイルを変更することができます。
目次
robots.txtを編集するタイミング
デフォルトのrobots.txtファイルは、ほとんどのストアで問題なく機能しますが、特定のURLに対してGoogleや他の検索エンジンのクローラーによるアクセスを制限したい場合には、編集が必要になることがあります。よくあるシナリオとしては、以下のような場合があります。
- 特定のURLのクロールを許可または禁止する場合
- 特定のクローラーに対してクロール遅延ルールを追加する場合
- 追加のサイトマップURLを組み込む場合
- 特定のクローラーをブロックする場合
robots.txtの編集方法
robots.txtを編集するには、基本的なコーディングの知識とSEOの原則を理解していることが必要です。
robots.txtの編集手順
- SHOPLINE管理画面から、チャネル > オンラインストア > プリファレンス設定 に移動します。
-
robots.txtの管理を見つけ、[設定] をクリックします。
- robots.txtエディタを使用して、必要な変更を加えます。詳細な手順については、Googleサーチセントラルの「robots.txtの概要」と「robots.txt の書き方、設定と送信」をご参照ください。
注:この機能は、従来の「アンチクローラー設定」の最適化バージョンです。以前にアンチクローラー設定を編集した場合、システムは対応する「disallow」テキストをrobots.txtファイルの末尾に自動的に追加します。 |
コメント