<meta name="robots" content="noindex">
このタグ自体は悪いものではなく、プライバシーポリシーなど本公開した後もインデックスしてほしくない場合などは記述した方がいいタグの一つだと思いますが、実際に体験したトラブルなどを基に、使用する際の注意などを紹介します。
目次
noindexすることのデメリット
新規サイト制作なので、本番のURLで制作をしてしまうパターン
本公開した際にサーチコンソールからURL検査をすれば1日2日すれば普通にインデックスされるというケースも見かけますが、一度クロールを拒否してしまっているページという事もあり、一向にインデックスしてもらえずに、本公開日が過ぎてしまうといった形でトラブルになっているケースもよく見かけます。
インデックスされるタイミングなどが不安定になってしまう可能性があるので、リスクヘッジとして、こういった形でのnoindexは避けた方が良いと思います。
本番公開時にnoindexを外し忘れてしまってインデックスされない
新人さんやフリーランスの方でよく見かけます。
インデックスされずに結局クレームに繋がってしまう他、一度noindexと検索エンジンに読み取られているなど、SEO的にもマイナスになってしまう可能性をふえてしまいます。
サーチコンソールのURL検査で申請はできるものの、いつインデックスされるのかが安定しなくなってしまうこともあり、こういった場合ではnoindexでの管理は避けた方がよさそうです。
noindexしていい例
プライバシーポリシーページや利用規約ページなど、後にも先にもインデックスをさせないと確定しているページなどではnoindexをさせてしまう方がSEO的にもよさそうです。
お問い合わせフォーム、サンクスページ、エラーページもnoindexにしている会社をよく見かけます。
一時的にnoindexにしたい時の対処法
robots.txtで制御をすれば、キャッシュの削除(更新)なども自分でできるので、消し忘れ等があったとしてもmetaで制御している時よりスムーズにGoogleに読み込んでもらえます。
記載方法などは過去の記事で紹介していますので、是非ご覧いただければと思います。
https://t3l.org/web/robots-txt/
まとめ
基本出来にはプライバシーポリシーページ・利用規約・特商法・お問い合わせ・フォーム・サンクスページ・エラーページ以外にはnoindexを使用しないようにするのが、事故を防止する対策になると思います。