最低限やっておきたいSEO内部対策2
Webサイトの中身に対して行うSEOの施策を内部対策といいます。「最低限やっておくべきこと4つ」まとめ。
「最低限やっておきたいSEO内部対策1」に続いて「SEO内部対策2」です。
コンテンツはテキストを重視しているか
Googleはテキストを重視
なぜ重視されるかというと、テキスト情報はさまざまな環境で
利用しやすいから
主な理由
—
・画像内にあるテキストは認識できない
・テキストは画像よりもデータとして軽いので早く表示される
・必要な部分をコピーしてメールやSNSに貼り付けやすい。
—
テキストを充実させるには?
1.Webフォントを使用して、デザインを崩さないようにテキストを利用
2.サービス・商品紹介で足りない部分を「FAQ」や「マニュアル」でおぎなう
3.専門的な知識は「知識ブログ」を運営するなど
注意したいこと
ただし、コピーコンテンツや当たり前のことを解説するのは評価されない。
また、設置箇所も重要でサイドではなくメインタグ
<main>
のなかに入れること
誤ってnoindexを設定していないか
noindexは解除しよう
検索エンジンにヒットさせたくない場合にnoindexを指定する
以下のこの記述があるページは検索結果に表示されないので注意が必要。
<meta name="robots" content="noindex">
また、wordpressで作成した際には、
設定>表示設定の「検索エンジンがサイトをインデックスしないようにする」に
チェックを入れたままになっていることがあるので外すこと。
noindexの設定注意
不要なページをnoindexを設定し、
検索エンジンに検知させないようにする方法はあまり推奨されない。
そもそも不要なページは、改善もしくは削除をするのがよい。
robot.txtにミスはないか
robot.txtとはクローラーの巡回指示をするためのファイル。
正しく設定しないと評価を下げてしまうことになるので注意が必要。
トップページと同じディレクトリに設置して使用する。
wordpressなどにはあらかじめ設定されている。
robot.txtの確認の仕方
URL/robot.txtとアドレスに入力すれば確認できる。
「searchconsoleのrobots.textテスター」を使用すると正しいかどうか内容が確認できる。
—–
1.searchconsoleにログインする
2.クロール>robots.textテスターへすすむ
3.主要ページのURLを入力しテストボタンをクリック
4.ブロック済み(ブロックされている)or許可済(巡回できている)を確認
—–
間違っていた場合は、この画面で記述を修正編集し、
送信をクリックすると更新されたrobots.textファイルをダウンロードできる。
あとは手順に従い、ファイルの差し替えを行う。
robot.txtの注意点
—–
1.1つのページに対してnoindexと併用しない
2.JavaScriptやCSSをブロックしない
—–
1は、ページをたどることができなくなるので、noindexの記述を見つけられなくなるため
2は、ディレクトリごとにブロックしてしまうと、クローラーがページ内容を正しく表示できないため
URLを統一させているか
「canonical属性」の設定ミスを避ける
・ wwwの有無
・ https: or http
・ URLの末尾のパラメータ有無 など
のURLのちがいを検索エンジンは別のコンテンツだと認識することがある
「canonical属性」を正しく使うことで分散した評価を1つのURLに
集約して統合することができる。これをURLの正規化という。
パラメーターの有無とは?
www.0000.com/?ref=blog の「?ref=blog」部分
www.0000.com/index.php とかも !
すべてのページにトップページを設定しない
集約させる目的で全ページを
<link rel="canonical" herf="https://00000.com"/>
といった具合にしてしまうことはNGです。
canonical属性で指定するURLはあくまで同じコンテンツであることが条件。
パスの記述は絶対パスにすること
また相対パスも設定可能であるが、なにかの拍子におかしくなるといけないので
絶対パスが推奨。