【やっと修正できた】カバレッジエラーの原因は robots.txt でした。サーチコンソール。

倉庫
スポンサーリンク

カバレッジエラーの原因は robots.txt でした。

 

Googleサーチコンソールで、カバレッジでエラーが出ました。

原因が分からず、約1ヶ月かかりました。。。

調べると色々情報があって、該当することもあったのですが結局治らず。

幾つか試したことを記載していきます。

 

 

 

noindexタグが追加されています

サーチコンソールで確認すると、エラーは1件でした。

 

理由は、送信されたURLに noindexタグが追加されています と表示されてました。

問題のURLを確認すると

https://tagatameni.org/index.php?xml_sitemap=params=;html=true

 

sitemap は設定したけど、こんなファイルもアドレスも見たことないよ。

 

原因は Google XML Sitemaps 

これは、ワードプレスでサイトマップを設定してくれるプラグイン。

これが原因で、noindexタグが自動で挿入されていました。

FTPソフトでファイルを調べると、noindex がありました!

ファイルの場所は、ルートディレクトリ → wp-content → plugins →google-sitemap-generator → 「sitemap.xsl」というファイル。

 

デスクトップなどへダウンロードして、このファイルをメモ帳等で開きます。

一応バックアップは取った方が良いです。

記述の

<meta name=”robots” content=”noindex,follow” />

削除して上書き保存して、同じ場所へアップロード して完了。

 

 

1週間経ってもエラーは消えず

 

何度確認してもエラーは消えてない。。。

2,3日もあればエラー表示はなくなるそうで、ということは、まだエラーがあるということか。。。

1週間経っても変わらないので、さすがに諦めてまたまた調査。

そして情報が。

Google XML Sitemapsは、静的から動的にURLが作られるように変わってエラーが増えたようです。なんのこっちゃ。上述の noindex の削除等で使用は特に問題ないようですが、サーチコンソールの仕様も分からずなので、安定しているやり方にしよう。

 

Google XML Sitemaps バージョン3.4.1にする

Google XML Sitemaps は、3.4.1というバージョンだと以前のように静的なURLになるそうで、https://○○○/sitemap.xml になるとのこと。

早速実行あるのみ!

やり方は、Google XML Sitemaps のページへ行きます。

 

XML Sitemap Generator for Google
Generate multiple types of sitemaps to improve SEO and get your website indexed quickly.

 

サイトの右側あたりの 詳細を表示 をクリック

左下あたりに 開発バージョン があるので、クリックして 3.4.1 を選択→右のダウンロード。ワードプレスのプラグインからそのファイルをアップロードすれば使えます。

これで、完了。

 

 

でも 1週間経ってもエラーは消えず

 

修正を検証しています のメールのあと、何も来ません。

サーチコンソールも以前変わらない。

 

 

問題は何も解決されていない

 

エラーのURL、index.php?xml_sitemap=params=;html=true が一向に消えてない。

Google XML Sitemap はバージョンを落としたのでこのURLを作っていないはずなのに。

そしてまた調査開始。

そして、クロール?クロールエラー?このURLはなくなったのに、Googleの検索エンジンがまだ知らないのかも。

なら、教えてあげるしかない。

 

Fetch as Google でクローラーを呼び込み

このサイト、細かなことは分かりませんが、「うちのURLはここやで」とリクエストができます。

リンクを貼りたかったのですが、自分の登録したサーチコンソールに飛ぶので辞めました。検索したらすぐ出てきますよ。

 

これは、旧サーチコンソールの画面で使用します。

恐らく、登録済の方はこちらに飛ぶと思います。旧サーチコンソールは間もなく使用ができなくなるようですが。

 

黄色のところへ、ファイルの場所を入力します。

取得は、クローラーに見てもらう。

取得してレンダリングは、見てもらったURLが実際にどのように見えるのかも分かります。

どちらでも良いようですが、取得してレンダリング にすると、ページの映り方が分かり、自分でも思いもしなかった画像の配置とかが分かるようなので、私はレンダリングも試してました。

すぐに読み込んでくれますので、チェックが付けば完了。

 

 

それでもエラーは続く

 

robots.txt の修正で解決 

エラーメールが届いてから1ヶ月が経過しました。

そして、robotx.txt がSeo対策に必要?とかの記事を見つけました。

ワードプレスを使っている私、全く知りませんでしたが、設置されてたんですね。

 

クローラーrobotx.txt をチェックするそうなので、念のため確認。

FTPソフトで、ファイルの場所はルートディレクトリの直下にありました。

すぐに見つかると思います。

そして、ダウンロードしてメモ帳で開いたところ

 

あーっ!あのURLが!

ということで、https://tagatameni.org/sitemap.xml   と変更して再度アップロード。

これで完了。

 

そして ついにカバレッジエラーが解消!!!

1時間程度だったか、確認したらエラーが0件に!!!

そうして、3時間程度後にメールで解消された旨が届きました。

 

そもそも、サーチコンソールもSeoのこともあまり知らないので、一つの問題に対して大変な時間と手間が費やされます。

ま、仕方ない。

ちょっとした発見が誰かのためになればと思い、アップしました。