【サーチコンソールでエラーが出た】

はい、今日はグーグルアナリティクスとサーチコンソールの話です。
いきなりサーチコンソールからメールが来て、エラーが出たから対処するべし、と通達がありました。

メール件名:
サイト http://xxxx で「対象範囲」の問題が新たに検出されました

はい、対象範囲ってなんのことやら、と思ってサーチコンソール見たら、詳細のリンクがありました。
https://support.google.com/webmasters/answer/7440203#crawl-error

超要約すると、エラーかどうか判断できないから一旦警告にしたよ、と。
インデックス対象にしないなら除外措置をして、インデックス対象とするならrobots.txtを更新しなさい、と出てきました。

該当のエラーが出ているのは2記事なのですが、10年以上前の記事であり、文字数も少なく写真もない。その辺でこの記事が妥当なのか悩んで警告にしたのかもしれません(推測)。

とりあえず、URL 検査ツールで検査してみてもう一度リクエストを送ってみる方法で対応予定です。

ダメならrobots.txtを更新してみるので、その方法もメモしておきます。

--
とりあえず別にインデックスされなくても良いほど古いページなので、robots.txtで除外対象にしてみます。

サーチコンソール上で編集画面を出す
https://www.google.com/webmasters/tools/robots-testing-tool?hl=ja&siteUrl=http://xxxx
なんか作業している今現在(2018年12月)は新バージョンへの移行中みたいですが、移行画面にはこれが見当たりません。

ここにrobots.txtの記載方法に則って書きます。

User-agent : * 
Disallow: /xxx

--

User-agentは必須みたいです。
DisallowはアクセスしないURLを相対パスで表記。

参考:
https://croja.jp/knowledge/robots_txt