テクニカル SEO の総合ガイド
公開: 2021-08-20テクニカルSEO。 SEO担当者もSEOに関心のないマーケティング担当者も同じように恐れを抱かせる短いフレーズです。
それは理にかなっている。 サブドメイン、robots.txt ファイル、クロール バジェット、schema.org マークアップ、および通常開発者が処理するその他すべての要素の間で、技術的な SEO は困難に思える場合があります。
ただし、基本に飛び込み、Google や他の検索エンジンが達成しようとしていること (Web ページのクロールとインデックス作成) を理解したら、Web サイトを最適化するためのチェックリスト アプローチの開発を開始できます。
ここでは、技術的な SEO とは何か、上位表示に重要な理由、考慮すべき重要な考慮事項、将来の成功のためにサイトを最適化する方法について説明します。
テクニカルSEOとは?
テクニカル SEOは、Google やその他の検索エンジンのクロール ボットを支援する技術的またはウェブサイト コードに関連する実装を説明し、Web サイトを効率的かつ正確にクロールしてインデックスに登録します。
テクニカル SEO の最適化の例には次のようなものがありますが、これらに限定されません。
- XML サイトマップを作成して、検索エンジンがインデックスを作成したいページをより簡単に見つけられるようにする
- Google のインデックスに含めたい、またはそのままにしておきたいページをクロール ボットに指示する <meta> タグを挿入する
- 新しく削除されたページを 301 (永久) リダイレクトでリダイレクトする
技術的な SEO の最適化はユーザー エクスペリエンスを向上させることができますが、主にこれらの要因は、検索エンジンのクロール ボットがより効果的に仕事を行えるようにすることを目的としています。
学ぶ:技術的な SEO について理解を深める前に、通常の SEO とその仕組みについてよく理解しておいてください。
テクニカル SEO が重要な理由
リンクの構築やその他のページ上の最適化よりも理解しにくいですが、テクニカル SEO は、SEO キャンペーンの強力な基盤を構築するために不可欠です。 これらが適切に実装されていないと、Google は、あなたが誰で、何を提供し、どのようにウェブサイトを適切にランク付けするかを把握するのに苦労します。
優れたコンテンツを作成し、技術的な基盤が整っていない状態でサイトへの多数のリンクを構築することは、ボートの底に 50 個の穴があるのと同じです。 できるだけ早くすべての水を汲み出すことができますが、ボートが浮かんでいるのを妨げる漏れが常に発生します。
クロールとインデックス作成 – それらとは何か、どのように機能するのか?
これらの最適化が重要である理由を理解するには、検索エンジンが Web 上のコンテンツをどのようにクロールしてインデックスに登録するかを理解することが重要です。 理解すればするほど、サイトを最適化するための洞察が深まります。
クロール
ウェブ、クモ、クモ...この巨大な比喩は手に負えなくなりました。 しかし、それは正確です。 検索エンジンは基本的に、既存の Web ページとそれらの Web ページ内のリンクを使用して新しいコンテンツを見つけるこれらの「クローラー」 (ソフトウェア プログラム) を送信します。 Web サイトを「クロール」 (すべてのコンテンツとリンクを見つけた) したら、次の Web サイトに移動します。
Web サイトの規模、人気、信頼性に応じて、クローラーは定期的に戻ってきてコンテンツを再クロールし、何が変更され、何が新しくなったかを確認します。
索引付け
Web サイトがクロールされた後、検索エンジンはその Web サイトを検索可能にする必要があります。 検索エンジンのインデックスは、特定の検索用語を検索したときに表示される検索結果のページのコレクションです。
検索エンジンは、ウェブサイトのコードで与えられたディレクティブ (ページが削除されているかどうか、コンテンツへのアクセス可能度、新しいコンテンツがいつ投稿されたか) に基づいて、インデックスを定期的に更新します。
また、Google のミステリアスでインパクトのあるアルゴリズムの更新など、検索エンジンの基盤となるソフトウェアに大きな変更が加えられることもあります。
検索エンジンは、多くの複雑なことを行う強力なソフトウェア ツールですが、その目的を理解すれば、独自の戦略のために部品を組み合わせ始めることができます。 その大部分は、テクニカル SEO とその他の要因カテゴリの違いを知ることです。
テクニカル SEO は、オンページおよびオフページの SEO 要因とどう違うのですか?
これらのランキング要素のそれぞれの目的は同じで、ターゲット キーワードの検索可視性を向上させることですが、各ランキング要素カテゴリの目的はわずかに異なります。
オンページ SEOは、ユーザーが操作する可能性が最も高い要素に焦点を当てます。 これらには以下が含まれます:
- 内部リンク
- H1-H6 タグ
- キーワードの配置
- コンテンツ URL スラッグ
- 画像の代替タグ
オフページ SEOには、Web サイトの外にあるすべてのランキング要因が含まれます。 コントロールできる主な要因は、被リンクの構築と獲得です。
バックリンクとは、別のウェブサイトがあなたのウェブサイトにリンクすることです。 これらのリンクは、Web の親指アップと親指ダウンのシステムです。 検索エンジンは、他の Web サイトから自分の Web サイトに戻るリンクの質、量、および関連性に基づいて、サイトとそのランク付けの可能性を評価します。
その他のオフページ SEO 要因には次のものがあります。
- ビジネス ディレクトリに会社情報を含める
- ソーシャル メディアでの言及
- 他のウェブサイトや出版物でリンクされていないブランドの言及
- 人気のあるプラットフォームでのレビュー
これらの要素とその意図された目的の主な違いを理解することは、実装戦略をより適切に知らせるのに役立ちます。 基本を理解したところで、Web サイトの技術的な SEO を改善するための具体的な手順を次に示します。
サイトのテクニカル SEO を改善するための 11 のヒント
SEO に関連する技術的なランキング要因をそれぞれ理解することは重要ですが、それぞれの修正を正しく実装し、サイトを長期的に健全に保つことが本当の目標です。 継続的にウェブサイトを完全に最適化する際に最も重要な 10 の領域を次に示します。 独自の Web プレゼンスを確認する際に、この情報をチェックリストとして使用してください。
1. サイト構造とナビゲーションをユーザーフレンドリーにする
検索エンジンがあなたをより高く、より一貫してランク付けできるようにする1つの方法は、ユーザーフレンドリーで明確なナビゲーションを備えたWebサイト構造を計画することです. サイト ナビゲーションは、Web サイトの上部にある単なるプライマリ メニューではありません。 理想的な Web サイト構造は、ユーザーと検索エンジンの両方にとって最も重要なページをすばやく簡単に見つけるのに役立ちます。
関連する要因は次のとおりです。
- 深さをクリックします。 クリックの深さは、ホームページから特定の Web ページに到達するまでに必要なクリック数です。 ホームページは、多くの場合、特定の Web サイトで最も訪問されたランディング ページの 1 つであるため、これは重要です。 経験則として、クリックの深さは 3 クリックに制限してください。
- 孤立したページはありません。 孤立したページとは、そのページを指す内部リンクがないページです。 これにより、ユーザーが Web サイトをナビゲートしているときにそのページを見つける可能性がなくなるだけでなく、そのページが重要ではないことを検索エンジンに伝えることができます。 以下のツールを使用してこれらのページを特定し、サイトの別の関連ページからそれらのページにリンクしてください。
- プライマリ ナビゲーション。 通常、すべての Web サイトの上部にあるプライマリ ナビゲーション メニューは、Web サイトの最も重要なページを伝える上で非常に重要です。 含めたページとそれに関連するアンカー テキストは、Google に何をランク付けするかを伝えます。 覚えておくべきいくつかのベスト プラクティスを次に示します。
- サービスまたはソリューションに焦点を当てたページをナビゲーションに含めます。
- アンカー テキストは、できるだけキーワードに焦点を当てたものにしますが、可能な限り広くもします。
- 個々のリンクの価値が希薄になり始めるため、ここに 30 個を超えるリンクを含めないでください。
- 二次ナビゲーション。 ブログのサイドバーやフッターなどのこれらの要素は、ユーザーがウェブサイトのトップやコア以外のページにいない場合でも、探しているものを簡単に見つけられるようにする必要があります。 ブログの場合、これはカテゴリであり、フッターの場合は、プライバシー ポリシー情報またはパートナー Web サイトへのリンクです。
- パン粉。 ブレッドクラムは、現在のページの URL フォルダー構造をビジュアルに表示する、プライマリ ナビゲーション メニューにはない内部リンクです。 これにより、ユーザーはサイト内のどこにいるのかを確認し、元の場所に簡単に戻ることができます。つまり、「パンくず」 (ヘンゼルとグレーテルを考えてください)。
2. 戦略的でスケーラブルな URL 構造を作成する
一貫した URL 構造は、ユーザーが Web サイトをナビゲートするときに自分がどこにいるのかをよりよく理解するのに役立ちますが、検索エンジンにあなたが何をしているかを正確に知らせることにもなります.
URL のベスト プラクティスには次のようなものがあります。
- 論理的な親子フォルダー構造の関係を作成します。 すべてのページをルート ドメインの 1 レベル下に配置する代わりに、可能な限り親子の URL 関係を追加することを検討してください。 あなたがマーケティングサービスを提供しているとしましょう。 親 URL は https://yourdomain.com/marketing-services/ のようになり、提供するすべてのサービスのリストが含まれます。 この場合、各サービスを説明する個別のページを作成することをお勧めします。 子 URL は、https://yourdomain.com/marketing-services/social-media-management/ のようになります。
- 簡潔にしてください。 「and」、「the」、「or」などの接続詞や冠詞は、ほとんどの場合、SERP からのコンテンツに対するユーザーの理解を向上させたり、ランキングを向上させたりすることはありません。 広い範囲をカバーし、最も関連性の高い用語のみを URL に含めます。
- 幅広いキーワードをターゲットにすることを忘れないでください。 これらは、主要なターゲット キーワードに関連する、関連するキーワードです。
- スケーリングするフォルダー構造を作成します。 将来どのようなコンテンツやオファーを作成する可能性があるかを考え、それを念頭に置いて URL 構造を整理します。
- 変なキャラは避けてください。 一見しただけでユーザーを混乱させたり、検索エンジンでつまずく可能性があるものはすべて、URL から除外する必要があります。 より単純であるほど良い。
- ハイフンを使用します。 Google では、すべての単語を詰め込んだりアンダースコアを使用したりするのではなく、ハイフンを使用して URL をシンプルに区切ることをお勧めしています。
3. サイトの速度が遅くなっていないことを確認する
ウェブサイトのパフォーマンスとページの読み込み時間は、常に検索でのパフォーマンスを向上させるための重要な考慮事項でしたが、2021 年 6 月の時点で、Google のページ エクスペリエンス アップデートにより、正しく行うことが絶対に重要です.
Google は、Web サイトのCore Web Vitalsに関する期待値を明確に示し、数値化しました。これは、ページ読み込みパフォーマンスの品質の基準を設定することを目的とした一連の指標です。 これらの中で最も重要なのは、最大のコンテンツ ペイント、最初の入力遅延、および累積的なレイアウト シフトです。 ユーザーは、Google を喜ばせるだけでなく、Web サイトが 3 秒以内に読み込まれることを期待しています。 読み込みに時間がかかるほど、サイト ユーザーがサイトに留まる可能性は低くなります。
ロード パフォーマンスにプラスの影響を与えるために実行できる最適化の概要を以下に示します。
- サードパーティ リソースの読み込みを制限します。 分析スクリプト、ピクセル、またはソフトウェア スクリプトをロードする必要があるときはいつでも、Web サイトを表示するためにブラウザーが処理しなければならない要求の合計に追加されます。 これらのリソースは最小限に抑えてください。
- 不要なスクリプトの遅延/非同期ロード。 最も重要なリソースのみが読み込まれるようにするのと同様に、リソースが正しい順序で読み込まれるようにする必要があります。 「Defer」と「async」は、スクリプトに追加して、これらのスクリプトがページ上の他のスクリプトや要素と同時に読み込まれるか (非同期)、または他のスクリプトや要素が読み込まれるまで待機するかを指示する属性です。ロード(遅延)する前に。
- 画像と動画を最適化します。 適切に最適化されていない画像や動画などの大きなリソースを使用することは、優れた読み込みパフォーマンスに対する主な障壁です。 画像や動画をアップロードするときは、不要なメタデータを取り除いて圧縮し、ページに表示するのに必要な大きさに縮小してください。
- Google の Page Speed Insightsツールを使用します。 これにより、Google がサイトをクロールしたときに何を確認し、主要な問題を解決するためにどの最適化を推奨するかが正確に示されます。
- コンテンツ配信ネットワーク (CDN) を実装します。 コンテンツ配信ネットワークは、ユーザーの物理的な場所に最も近いサーバー (Web サイト ファイルが格納されている場所) を利用することで、Web サイトをより迅速にユーザーに提供するのに役立ちます。 CDN は、ユーザーの場所の近くのサーバーに Web サイトのコピーを保持し、ユーザーがサイトにアクセスするたびに提供されます。
- 実績のあるホスティング会社を選択してください。 ウェブサイト ホスティング サービスが原因で、ウェブサイトの速度が低下している可能性があります。 特に、ホスティング スペースを共有している場合は、特定の時間にアクセスできる帯域幅の量を他の Web サイトと共有していることになります。 それらの他の Web サイトがユーザーベースを拡大し、その共有スペースをさらに占有し始めると、負けてしまいます。 一部のホストは、すぐに使用できる Web サイトの読み込みパフォーマンスに対してより最適化されています。 ホストを選択するときは、どのホストの平均負荷速度が最も優れているかを比較検討してください。
- 画像を WebP に切り替えます。 WebP は、Google が開発した画像形式で、読み込みパフォーマンスを向上させるために特別に設計されています。 画像を WebP に変換する最も簡単な方法は、一括オンライン コンバーター ツールを使用するか、CMS を使用している場合はプラグインを使用することです。
4. 検索エンジンがサイトをクロールできるかどうかを確認する
テクニカル SEO の基本的な目標の 1 つは、Google がサイトを見つけて検査できるようにすることです。 これを達成し、コンテンツが現在 Google によってクロールされているかどうかを確認するには、主に 3 つの方法があります。
- Google のインデックスを直接確認してください。 サイトのどのページが Google によってインデックス登録されているかを確認する最も簡単な方法は、Google を直接確認することです。 「site:」検索でこれを行うことができます。 WebMD にインデックスされているページ数を確認する場合は、「site:https://www.webmd.com/」で検索します。 睡眠時無呼吸コンテンツの索引付けを確認したい場合は、「site:https://www.webmd.com/sleep-disorders/sleep-apnea/」になります。
- Googleサーチコンソールを確認してください。 Google Search Console は、Google によって作成された素晴らしい検索発見とウェブサイトの健康ツールです。 その機能の 1 つは、現在 Google のインデックスに登録されているページの数、インデックスに登録されているページ、および現在インデックスに登録できないページとその理由を確認することです。
- スクリーミングフロッグをチェック。 Screaming frog は、Googlebot がサイトをクロールする方法を反映する優れたツールであり、現在インデックス可能かクロール可能か、または両方の組み合わせであるかを示すステータスを含むすべてのページを返します。
サイト全体で必要なインデックスを作成するために、Web ページを定期的に監査する必要があります。 すべてのページには、ステータスと、インデックスを維持するかどうか、インデックスが作成されていないページを意図的にインデックスを作成するページに切り替えるか、現在インデックスが作成されているページのインデックスを作成しないかなどの対応するアクションを指定する必要があります。

ヒント: SEO テストと SEO 監査の違いと、どちらをいつ使用するかを学びます。
これらのアクションを特定したら、それを実行に移します。 方法は次のとおりです。
ロボット.txt
Robots.txt ファイルは、Web サイトのフォルダー構造に配置する小さなファイルで、クロールしてインデックスを作成するサイト上の Web ページについて、検索エンジンのクローラーに指示を与えます。
Google は、このドキュメントの実装方法といくつかの特定のユース ケースの優れた概要を提供していますが、一般的に、ここに提供できる主な指示があります。
- ユーザーエージェント。 これは、特定のルールに従う特定のクローラーへの指示です。 すべてのクローラーを一度に指定することもできます。
- 許可/禁止。 これは、クローラーがサイトの望ましくない部分にアクセスするのを防ぐための指示です。
- サイトマップの場所。 サイトマップが存在する URL を検索エンジンのクローラーに伝えて、見つけて戻ってきやすくすることができます。
すべてのクローラーがすべてのコンテンツにアクセスできるようにし、それらをサイトマップの方向に向けさせる非常に基本的なサイトマップは次のようになります。
ユーザーエージェント: *
許可しない:
サイトマップ: https://yoursite.com/sitemap.xml
メタ ロボット タグ
また、Web ページのコード内で「Index vs. no index」ディレクティブを利用して、検索エンジンにページをインデックスに含めるかどうかを指示することもできます。 これは、<meta name="robots" content="noindex"> または <meta name="robots" content="index"> として記述されたページ コード内にメタ タグを追加することで実行できます。
同様に、あるページをインデックスに含めるように検索エンジンに指示することもできますが、そのページのリンクをたどったり、Web サイト内外の他のページにその権限を渡したりすることはできません。 これは、同じメタ ロボット タグ内で <meta name="robots" content="follow"> または <meta name="robots" content="nofollow"> として表現できます。
5. schema.org 構造化データ マークアップを使用する
スキーマ マークアップは、Google、Bing、Yahoo!、および Yandex によって作成された構造化データの形式です。 構造化データは、検索エンジンに情報を伝えるコードに追加される言語の形式です。 スキーマの公式 Web サイトでは、詳細を学習するためのリソースと、スキーマ語彙の完全なライブラリが提供されています。
スキーマ マークアップは、企業がプロセス、製品、サービス、その他の提供物について検索エンジンとより明確にやり取りできるようにするために作成されました。 また、ビジネスに関する重要な情報なども伝えます。 現在、検索エンジンは複雑なアルゴリズムを使用して、これらの側面について非常に知識に基づいた推測を行っています。
Schema.org マークアップは、ItemTypes と ItemProperties という 2 つの主要なコンポーネントに分けることができます。
- アイテムタイプ。 これにより、検索エンジンは Web ページがどのタイプのエンティティであり、何に焦点を合わせているかを認識できます。 これは、映画、地元のビジネス、賞、ブログ投稿、ビジネス レビューなどです。
- ItemProp (プロパティ)。 これらは、上記の ItemType の特定のプロパティです。 これは、本の著者の名前、会社の設立日、ソフトウェア製品の価格などです。
この構造化データは、コンテンツの内容を正確に検索エンジンに知らせるだけでなく、リッチ スニペットが表示される可能性を高めるのにも役立ちます。 これらは、タイトル、メタディスクリプション、および URL を超えた SERP の特別な機能です。
Schema.org がこれらのリッチ スニペットを使用して Web サイトと検索の可視性を向上させる方法の例を次に示します。
- 製品情報
- ブログ情報
- イベント情報
- 地元のビジネス情報
- 組織のナレッジ グラフ
- ビジネスまたは製品のレビュー
6. サイトのリンク切れをなくす
壊れたリンクは、ユーザー エクスペリエンスを低下させるだけでなく、ランキングに悪影響を与える可能性があります。 意図的または意図せずに削除されたページがある場合、404「見つかりません」エラーとして表示されます。 このエラーにより、ユーザーと検索エンジン ボットの両方が「404 ページ」に移動するか、何も設定していない場合は空白のページに移動します。
サイトでページが削除されるたびに行動計画を立て、それらの壊れたページへのリンクが中断されないようにすることが重要です。 これらの破損したページやリンクを見つけてクリーンアップする方法は次のとおりです。
- サイトをクロールして、既知の 404 ページをすべて見つけます
- 新しいページへのリダイレクトを実装するか、正当に削除する必要がある場合はそのページを無視するように指示します。 これは、301 (永続的) または 302 (一時的) リダイレクトのいずれかです。
- 壊れたページにリンクしているすべてのページを見つけて、リンクを転送されたページの更新された URL に置き換えます。
7.重複コンテンツの問題を修正する
重複コンテンツとは、Web サイトに互いに類似している 2 つ以上のページがある場合です。 これは通常、シンジケート コンテンツとも呼ばれる、完全にコピー アンド ペーストまたはテンプレート化されたコンテンツです。
Google の目には、手間がかからない重複コンテンツは最悪です。 価値のある検索エンジンの目標は、高品質で有益で関連性の高いコンテンツをユーザーに提供することです。 不一致がわかりますか?
重複コンテンツの問題を修正するには、まずウェブサイトをクロールする必要があります。 Web サイト クローリング ツールには、ソフトウェア内に特定の機能があり、コンテンツの重複を探し、どのページが過度に類似しているかを記録します。
これらのページを特定したら、どのページを「メイン」ページにするか、および重複したコンテンツをどうするかを決定する必要があります。 消して? リダイレクト? 書き直しますか、それともリフレッシュしますか?
SEO 値のない商品ページがある場合 (同じ靴を赤、青などで販売している場合など) には、ページ間で canonical タグを使用する必要があります。
正規タグとは何ですか?
正規タグは、ページのコード内のテキストのスニペットであり、そのページを別の「メイン」ページの意図的な複製として扱い、SERPS に表示される意図的なバリエーションを無視するよう検索エンジンに指示します。
Dope Shoes というジム用シューズの会社を経営しているとします。 あなたのサイトの URL は、https://dopeshoes.com/shoes/running/dope300/ のようになります。
バリエーションやサイズごとに新しい「ページ」を作成している CMS もあるかもしれません: https://dopeshoes.com/shoes/running/dope300/red/ または https://dopeshoes.com/shoes/running/dope300 /青い/
これらのカラー バリエーションのコンテンツはメインの /dope300/ ページと同一またはほぼ同一である可能性が高いため、これらのカラー バリエーションのそれぞれがメイン ページの意図的な複製であることを宣言する必要があります。
これは、次のようにバリエーション ページのコード内に rel canonical タグを配置することで実行できます。
- <link rel="canonical" href="https://dopeshoes.com/shoes/running/dope300/" />
8. セキュリティを強化するために HTTPS を実装する
安全な Web サイトは、特に e コマースを利用している場合、ユーザーと検索エンジンにとって常に重要です。
そのことを念頭に置いて、セキュア ソケット レイヤー (SSL) が作成されました。 これにより、SSL ディストリビューターにより、サーバー上にプライベート アクセス キーとパブリック アクセス キーが作成され、Web サイトの所有権と信頼性を検証するのに役立ちます。 この検証レイヤーは、さまざまな攻撃を防ぎます。
SSL 証明書を実装すると、HTTPs (標準的で安全性の低い HTTP ではなく) プロトコルが URL に追加されます。 検索エンジンは、証明書の詳細を含め、ユーザーがあなたを見つけたら、「安全な」関連メッセージをユーザーに含めます。 これは、直接的なランキング シグナルでもあります。
9. XML サイトマップを作成する
簡単に言うと、サイトマップとは、検索エンジンがクロールしてインデックスに登録するリンクの集まりです。 拡張マークアップ言語 (XML) サイトマップを使用すると、単純なリンクのリストではなく、検索エンジンがページをより効率的にインデックス化するために使用できる特定の情報を提供できます。
XML サイトマップは、大量のコンテンツを含む大規模な Web サイト、まだ多くのインバウンドリンクを持たない新しい Web サイト、および通常、クロールとインデックス作成が必要な変更を定期的に行う Web サイトに最適です。
XML サイトマップはどのように作成しますか?
CMS を利用する場合、通常はルート ドメインの末尾に「/sitemap.xml」を追加することで作成されます。 例: https://yourwebsite.com/sitemap.xml」。
サイトマップを作成した後のベスト プラクティスを次に示します。
- ウェブサイトのフッターにリンクを含める
- URL、画像、最終更新日時のフィールドがあることを確認してください
- Google Search Console からサイトマップを個別に送信する
10. サイトがモバイル フレンドリーであることを確認する
遅れている場合、Google は 2021 年にモバイル ファースト インデックス登録に切り替えました。これは、サイトのモバイル バージョンに基づいて、ウェブサイトを評価し、ランキングの可能性を判断することを意味します。
「モバイル フレンドリー」とは、次のようなさまざまな Web サイトの機能を表します。
- ユーザーのモバイル ビューポート内にあるページ要素
- 読みやすいサイズのテキストやその他のページ要素
- モバイル ビューポートにロードできるスクリプトとプラグイン
- ページ上で常に動いているわけではなく、タップやスワイプが難しくないページ要素
Google 独自のモバイル フレンドリー テスト ツールを使用して、ウェブサイトを監査できます。
11. 内部リンクを改善する
強力で意図的な内部リンク戦略は、Web サイトの個々のページの強度とランキングを劇的に向上させることができます。 内部リンクは、ターゲット ページの内容を検索エンジン ボットに知らせるのに役立つという意味で、被リンクと同様に機能します。
Web サイトの内部リンクについて考えるとき、配置するリンクは、ユーザーがサイトをナビゲートするのに役立つだけでなく、階層と重要性を伝えるものでもあります。 主要なソリューション ページへのリンクが最も多い場合、Google はそれらが最も重要なトピックであると判断し、それに応じて関連用語でランク付けする傾向があります。
従うべきベスト プラクティス:
- ターゲット ページが削除された後、サイトの内部リンクを必ず更新してください
- 内部リンクのアンカーテキストを計画して、ターゲットページのランクを上げたいキーワードをターゲットにします
- サイトの各ページにある内部リンクの数を監査し、それらの数が最もランク付けしたいページと相関していることを確認します
- 「孤立した」ページ (受信内部リンクがない) がないかサイトを監査し、少なくとも 1 つまたは 2 つのリンクが送信されるように計画を立てます。
テクニカル SEO ツール
最も重要な技術的 SEO 要因といくつかの実装テクニックをしっかりと把握したので、ツールボックスに必須の SEO ツールをいくつか紹介します。
- カエルの叫び。 Screaming Frog は、長期的な SEO の取り組みのための毎日のリソースです。 このソフトウェアは、Google と同様に任意の Web サイトをオンデマンドでクロールし、クロールされた各ページに関する豊富な情報を提供します。
- Ahrefs。 主要な SEO 調査、キーワード分析、および競合他社のインテリジェンスツールです。 Ahrefs は、サイトの技術的ステータス、推奨される修正、および特定の問題が発生した場合の定期的なアラートに関するデータを提供できます。
- グーグルサーチコンソール。 Google が提供するこの無料ツールを使用すると、ユーザーが Web サイトを見つけるために使用したキーワードを把握できます。 また、Google がウェブサイトをどのようにクロールしてインデックスに登録しているかについて、警告と毎日のステータス更新も提供します。
- Schema.org。 schema.org 構造化データの公式 Web サイト。 ここでは、さまざまなアイテム タイプ、そのプロパティ、および構造化データを有利に使用するための実装ガイダンスに関する情報を見つけることができます。
- Google ページスピード インサイト。 デスクトップとモバイルの両方でウェブサイトの読み込み速度を示す Google の別の無料ツール。 Google モバイル フレンドリー テスト
- グーグルアナリティクス。 さらにもう 1 つのデジタル マーケティング ツールの定番であり、Google による補完的なツールです。 これは主に Web 分析ツールですが、Web サイトの技術的なパフォーマンスについても貴重な洞察を得ることができます。
最終的な考え
テクニカル SEO は、最初は困難に思えるかもしれません。 多くの可動部分があり、学習曲線が少しあります。 ただし、これらのチェックは非常に二者択一的なものであり、その背後にある意図を理解すれば、最適なプレゼンスを維持できるようになります。
結局のところ、技術的な SEO の実装が不十分だと、リンクの構築やコンテンツ戦略の作成など、他の SEO の取り組みが台無しになる可能性があります。 それは常に最も魅力的であるとは限りませんが、あなたのウェブサイトの成功にとって非常に重要であり、今後もそうあり続けるでしょう.
時間が経つにつれて、設定したものを忘れたり、これらのチェックを一度実装しただけで決して見直したくないという衝動に駆られるかもしれませんが、その衝動に抵抗する必要があります。 Web サイトの技術的な健全性を定期的にチェックインする計画を立てることが重要です。
技術的な SEO 維持のロードマップは次のとおりです。
- クローラー ツールを使用して Web サイトを定期的にクロールします。 これにより、何が起こっているかを常に把握できます。
- チームの誰かがウェブサイトの状態を確認する時間をスケジュールします。 これは、技術チームまたは開発チームとマーケティング担当者の組み合わせである必要があります。 大規模またはより動的な Web サイトでは、毎月ではなくても、四半期ごとにこれを行う必要があります。 小規模またはより静的な Web サイトは、3 ~ 6 か月ごとに回避できます。
- 好奇心を持ち続け、業界の変化について継続的に学びましょう。 既存のベスト プラクティスがどれも標準ではなかった時代がありました。 これを回避する方法は、Google やその他の検索エンジンによって設定された新しいトレンドと基準を常に把握することです。 これらの開発に遅れずについていくということは、常にアルゴリズムを満足させ、競争で優位に立つことができるということです。
- 主要なサイトの移行、更新、再設計、またはその他の大規模な変更については、開発チームと一緒に SEO の専門家に相談してください。 これらすべてのシナリオに対応する特定のチェックリストを作成し、これらのイベントの前と実装後に準備を整えておくと役立ちます。