Google detected a significant increase in the number of URLs that return a 404 (Page Not Found) error. Investigating these errors and fixing them where appropriate ensures that Google can successfully crawl your site's pages.
Google detected a significant increase in the number of URLs that return a 404 (Page Not Found) error. Investigating these errors and fixing them where appropriate ensures that Google can successfully crawl your site's pages.
上記をウェブマスターツールから言われたお話です。経緯を書きます。
「なんか全然サイトが検索結果に反映されないどころから順位が落ちてる。」
Internet Archive: Wayback Machine ここで中古ドメインだった場合の以前の使われようがわかる。例えば以前のドメイン所有者がエッチなサイトを作っていたり。
www.aguse.jp
ドメインを入力するだけ。下の方にブラックリストとかリストにされてて全部「safe」になってるといいんだろうけど、特に問題はないように見えるだけで、問題箇所の見分け方が正直わからない。
Worldwide URI black list check 世界のURI (ドメイン)ブラックリストチェック
ここもaguse.jpと同じような感じ。
サイトをリニューアルした直後にFetch as Googleをしていたにも関わらず、「クローラー行かせたら404が出てページがなくなってるよ〜」とエラーがでていたのです(冒頭文章)。
でもさ、サイトをリニューアルしたら容易に想定できることでしょこれ?
いろいろまた検索したら「ほっとけ」という結果になりそうです。参考サイトはこちら!ありがとうございます。
ただ、このページの中にgoogleへの再審査リクエストというのがありました。
うーーーーーーーん。再審査リクエストのボタンは出てこない。「手動による対策」をクリックしても「手動によるウェブスパム対策は見つかりませんでした。」となるだけ。
うーーーーーーーん。でもやっぱりおかしいよ。新しいサイトにしてから1週間経つ(Ferch as Googleもしてる)のに、検索結果がむしろ悪化してる。
なんだ。どういうことなんだ。