• Topic 主题 トピック Topic Topic
  • Sign in

高度なSEOのためのrobots.txt設定方法

robots.txtファイルの編集は、高度なSEO機能であり、SEOの柔軟性を高め、販売者の個別のSEO要件に対応します。

robots.txtファイルは、検索エンジンに対して検索結果に含めるページやスキップするページを指示するためのファイルです。検索エンジンは、ウェブサイトをクロールおよびインデックスする際にrobots.txtファイルを参照します。サイトへのクロールリクエストをより良く制御したい場合は、robots.txtファイルを変更することができます。

 

目次

 


 

robots.txtを編集するタイミング

デフォルトのrobots.txtファイルは、ほとんどのストアで問題なく機能しますが、特定のURLに対してGoogleや他の検索エンジンのクローラーによるアクセスを制限したい場合には、編集が必要になることがあります。よくあるシナリオとしては、以下のような場合があります。

  • 特定のURLのクロールを許可または禁止する場合
  • 特定のクローラーに対してクロール遅延ルールを追加する場合
  • 追加のサイトマップURLを組み込む場合
  • 特定のクローラーをブロックする場合

 


 

robots.txtの編集方法

robots.txtを編集するには、基本的なコーディングの知識とSEOの原則を理解していることが必要です。

 

robots.txtの編集手順

  1. SHOPLINE管理画面から、チャネル > オンラインストア > プリファレンス設定 に移動します。
  2. robots.txtの管理を見つけ、[設定] をクリックします。
    2.3.png
  3. robots.txtエディタを使用して、必要な変更を加えます。詳細な手順については、Googleサーチセントラルの「robots.txtの概要」と「robots.txt の書き方、設定と送信」をご参照ください。
    2.4.png
:この機能は、従来の「アンチクローラー設定」の最適化バージョンです。以前にアンチクローラー設定を編集した場合、システムは対応する「disallow」テキストをrobots.txtファイルの末尾に自動的に追加します。
他にご質問がございましたら、リクエストを送信してください

コメント