• Topic 主题 トピック Topic Topic
  • Sign in

robots.txtを活用したSEO設定

robots.txtファイルは、検索エンジンのクローラーに対して、ウェブサイト内のどの部分にアクセス可能かを指示するためのテキストファイルです。このファイルを活用することで、検索エンジンの結果に含めたいページや除外したいページをコントロールできます。

robots.txtファイルを作成または編集することで、検索エンジンがウェブサイトをクロールし、インデックス化する方法を細かく制御でき、SEO戦略の柔軟性を向上させることが可能です。

 

目次

 


 

robots.txtを編集するタイミング

デフォルトのrobots.txtファイルは、ほとんどのストアで問題なく機能しますが、特定のURLに対してGoogleや他の検索エンジンのクローラーによるアクセスを制限したい場合には、編集が必要になることがあります。よくあるシナリオとしては、以下のような場合があります。

  • 特定のURLのクロールを許可または禁止する場合
  • 特定のクローラーに対してクロール遅延ルールを追加する場合
  • 追加のサイトマップURLを組み込む場合
  • 特定のクローラーをブロックする場合

 


 

robots.txtを編集する

robots.txt ファイルを編集するには、基本的なコーディングスキルとSEOの原則についての理解が必要です。以下の手順でファイルをアクセス・編集できます。

  1. SHOPLINE管理画面から、チャネル > オンラインストア > プリファレンス設定 に移動します。2.1.png
  2. robots.txtの管理を見つけ、[設定] をクリックします。
    2.2.png
  3. ロボットエディター内で、robots.txtファイルのリンクをクリックします。2.3.png
  4. ファイルの内容をコピーし、Robotsエディターに貼り付けます。
    2.4.png
  5. 必要に応じてDisallowおよびAllowディレクティブを修正し、検索エンジンがクロール可能なページを指定します。
    2.5.png
  6. [更新] をクリックして変更を保存します。その後、robots.txtファイルのリンクを再度クリックして、変更が反映されていることを確認してください。

robots.txt についてさらに詳しく知りたい場合は、Google Search Central の「robots.txt の概要」および「robots.txt の書き方、設定と送信」をご参照ください。

注:

この機能は、以前の「アンチクローラー設定」を最適化したものです。アンチクローラー設定で変更を行っている場合、対応するDisallowルールがrobots.txtファイルの末尾に自動的に追加されます。このプロセスを通じて、検索エンジンのクロール動作を効率的に管理し、SEO戦略を強化することができます。

この記事は役に立ちましたか?

Need more help? Contact us via the chatbox in your admin panel.

需要更多帮助?通过您商店后台的对话框与我们联系。

Need more help? Contact us via the chatbox in your admin panel.

Need more help? Contact us via the chatbox in your admin panel.

さらにサポートが必要ですか?必要なすべてのサポートをご提供いたします。

Log In and Get Help 登录并获取支援 Log In and Get Help Log In and Get Help お問い合わせ
他にご質問がございましたら、リクエストを送信してください

コメント