robots.txtファイルは、検索エンジンのクローラーに対して、ウェブサイト内のどの部分にアクセス可能かを指示するためのテキストファイルです。このファイルを活用することで、検索エンジンの結果に含めたいページや除外したいページをコントロールできます。
robots.txtファイルを作成または編集することで、検索エンジンがウェブサイトをクロールし、インデックス化する方法を細かく制御でき、SEO戦略の柔軟性を向上させることが可能です。
目次
robots.txtを編集するタイミング
デフォルトのrobots.txtファイルは、ほとんどのストアで問題なく機能しますが、特定のURLに対してGoogleや他の検索エンジンのクローラーによるアクセスを制限したい場合には、編集が必要になることがあります。よくあるシナリオとしては、以下のような場合があります。
- 特定のURLのクロールを許可または禁止する場合
- 特定のクローラーに対してクロール遅延ルールを追加する場合
- 追加のサイトマップURLを組み込む場合
- 特定のクローラーをブロックする場合
robots.txtを編集する
robots.txt ファイルを編集するには、基本的なコーディングスキルとSEOの原則についての理解が必要です。以下の手順でファイルをアクセス・編集できます。
- SHOPLINE管理画面から、チャネル > オンラインストア > プリファレンス設定 に移動します。
-
robots.txtの管理を見つけ、[設定] をクリックします。
-
ロボットエディター内で、robots.txtファイルのリンクをクリックします。
- ファイルの内容をコピーし、Robotsエディターに貼り付けます。
- 必要に応じてDisallowおよびAllowディレクティブを修正し、検索エンジンがクロール可能なページを指定します。
- [更新] をクリックして変更を保存します。その後、robots.txtファイルのリンクを再度クリックして、変更が反映されていることを確認してください。
robots.txt についてさらに詳しく知りたい場合は、Google Search Central の「robots.txt の概要」および「robots.txt の書き方、設定と送信」をご参照ください。
注: この機能は、以前の「アンチクローラー設定」を最適化したものです。アンチクローラー設定で変更を行っている場合、対応するDisallowルールがrobots.txtファイルの末尾に自動的に追加されます。このプロセスを通じて、検索エンジンのクロール動作を効率的に管理し、SEO戦略を強化することができます。 |
コメント