SEOとは、主にロボット型検索エンジンにおいて、特定のキーワードが検索された際、検索結果のより上位に自らのWebサイトが表示されるように、対策を講じることである。
ロボット型検索エンジンはプログラムによって自動的にWeb上を巡回し、独自のアルゴリズムに従って様々な要素を総合的に評価し、検索結果の順位を決定していると言われている。SEOは、そのアルゴリズムにとって最も適切なWebサイトであると評価されるための各種施策の総称であると言える。
検索エンジンの検索結果ページでは、Webサイトが上位に表示されればされるほどユーザーに注目されやすくなり、その分だけWebサイトへのアクセスも増え、ひいては取扱商品の売上げの向上なども期待することができる。このためSEOは熱心に行われており、SEOを専業とする事業者(SEO業者)によってひとつの市場が形成されるに至っている。
検索エンジンがWebサイトを評価する際のアルゴリズムは原則として非公開にされており、そのアルゴリズムも検索結果の精度向上のため不断に調整・変更が行われている。このためSEO上確実に有効な、あるいは即効性のあるような手法は見出されていない。ただ、基本的に検索エンジンは有用なWebサイトを最も評価することを目指してチューニングが続けられているため、SEOにコストを割くよりも、有用なコンテンツの作成に努めることの方が結局は効果的であるという意見も多い。
主要な検索エンジンの多くが評価の際に重要視しているとされる要素としては、一般的に、Webサイトの構造やHTMLタグの記述の適切さ、サイトテーマやキーワードとサイトの内容との一致、信頼できるサイトからの被リンクの数、などのような要素があるとされている。ただし、被リンクが重要だからと言え、リンクファームに一度に大量のリンク登録を依頼するような、極端で偏った対策を行うと、逆に検索エンジンスパムと判定されてしまう可能性がある。
なお、SEOも含めて検索エンジンからのアクセス全般を対象としているマーケティング手法や戦略は、SEM(Search Engine Marketing)と呼ばれている。
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/04/14 09:43 UTC 版)
(SEO から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/01/29 09:03 UTC 版)
|
|
この記事には複数の問題があります。
|
検索エンジン最適化(けんさくエンジンさいてきか、英: search engine optimization, SEO、サーチ・エンジン・オプティマイゼーション)とは、検索エンジンのオーガニックな検索結果[注 1]において[1]、特定のウェブサイトが上位に表示されるよう、ウェブサイトまたはウェブページへのウェブサイトトラフィックの質と量を改善するプロセスである[2][3] [4]。サーチエンジン最適化ないし検索エンジン対策とも呼ばれ、ウェブポジショニングと同義である。英語表記のSEOから「セオ」とも呼ばれる[5][注 2]。 インターネットマーケティングとあわせて用いられることも多い。
ウェブマスターやコンテンツプロバイダーが検索エンジン向けにウェブサイトの最適化を開始したのは1990年代半ばであり、最初の検索エンジンが初期のウェブをカタログ化し始めた頃である。検索エンジンのユーザーがページのURLをクエリとして入力すると、そのページが検索エンジンのインデックスに存在していれば、ページ上の情報が返された。
ALIWEBや初期バージョンの検索エンジンでは、検索可能にするためにウェブサイト開発者が手動でインデックスファイルをアップロードする必要があり、ユーザーのクエリに対してランキングアルゴリズムを利用することは広く行われていなかった[6] 。その後、自動化されたウェブクローラが登場し、プロアクティブにウェブサイトを発見しインデックスを作成するために使用されるようになった。これにより、ウェブサイト開発者は、検索結果での可視性を高めるために、メタタグの使用を含むウェブサイトの検索シグナルを最適化するようになった。
元業界アナリストで現在はGoogleの従業員であるダニー・サリバンによる2004年の記事によると、「検索エンジン最適化(search engine optimization)」という言葉は1997年に使われ始めたとされる。サリバンは、SEO実践者であるブルース・クレイがこの用語を普及させた最初の人物の一人であるとしている[7]。
初期の検索アルゴリズムには、特定のHTML属性を重視するものがあり、ウェブコンテンツプロバイダーが検索ランキングを操作するためにこれを利用できる場合があった[8] 。1997年の早い段階で、検索エンジンプロバイダーはこれらの行為を防ぐためにアルゴリズムの調整を開始した[9] 。最終的に、検索エンジンは、より最近のセマンティック検索(意味的検索)の開発を含む、ページの目的をより意味のある尺度で評価する方法を取り入れるようになった[10]。
1998年、スタンフォード大学の大学院生であったラリー・ペイジとセルゲイ・ブリンは、Googleを設立した[11] 。また、同時にウェブページの重要性を評価するために数学的アルゴリズムに依存する検索エンジン「Backrub」を開発した。これにより、各ページにページランク(PageRank)が算出された。ページランクは、ランダムにウェブをサーフィンし、あるページから別のページへのリンクをたどるウェブユーザーが、特定のページに到達する可能性を推定するものである。
Googleは、ランキングにおいてオンページ要因のみを考慮する検索エンジンで見られたような操作を回避するため、オンページ要因(キーワードの頻度、メタタグ、見出し、リンク、サイト構造など)だけでなく、オフページ要因(ページランクやハイパーリンク分析など)も考慮した。ページランクを悪用することはより困難であったが、ウェブマスターはすでにInktomi検索エンジンに影響を与えるためのリンク構築ツールやスキームを開発しており、これらの方法はページランクの悪用にも同様に適用可能であることが判明した。多くのサイトが、リンクの交換、購入、販売に焦点を当て、しばしば大規模に行われた。これらのスキームの中には、リンクスパムのみを目的とした数千ものサイトを作成するものもあった[12]。
2004年までに、検索エンジンはリンク操作の影響を減らすために、ランキングアルゴリズムに広範な未公開の要因を組み込んだ。[13] Google、Bing、Yahooといった主要な検索エンジンは、ページのランク付けに使用するアルゴリズムを公開していない。一部のSEO実践者は、検索エンジン最適化へのさまざまなアプローチを研究し、個人的な意見を共有している。[14] 検索エンジンに関連する特許は、検索エンジンをより深く理解するための情報を提供することがある[15] 。2005年、Googleはユーザーごとの検索結果のパーソナライズを開始した。ログインしているユーザーに対して、過去の検索履歴に基づいて結果を作成するようになった。[16]。
SEO産業が発展するにつれ、YahooやGoogleなどの検索エンジン運営会社は、良心的でないSEO企業が手段を選ばず顧客のアクセス数を増やそうとする動きを警戒するようになった。運営会社側は不適切なSEOテクニックによる操作を排除するための対策を次々と講じたが、これに対し一部のSEO会社は、さらに巧妙なテクニックを用いて順位への影響を試みるといういたちごっこが続いた。
2006年2月、ドイツのBMWとリコーのウェブサイトが、SEO対策として導入したJavaScriptによるリダイレクトを行なった行為を規律違反と判断し、検索対象から削除した[17]。また、2006年3月、日本でもサイバーエージェント系列のウェブサイトが、スタイルシートによって大量の隠し相互リンクをページ内に埋め込んだ行為をスパム行為と判断されて、検索対象から削除された[18]。
2007年、Googleは、SEO目的でのリンク売買行為に対して、厳しいペナルティを与える新しい対策を導入した[19]。
2009年6月15日、Googleは、リンク上のnofollow属性の使用によるページランク・スカルプティングの影響を軽減するための措置を講じたことを明らかにした。Googleの著名なソフトウェアエンジニアであるマット・カッツは、SEOサービスプロバイダーがページランク・スカルプティングにnofollowを使用するのを防ぐため、Google Botがnofollowリンクを同様に扱わなくなると発表した[20] 。この変更の結果、nofollowの使用はページランクの蒸発(消失)につながることとなった。これを回避するため、SEOエンジニアはnofollowタグを難読化されたJavaScriptに置き換え、ページランク・スカルプティングを可能にする代替技術を開発した。さらに、iframe、Flash、JavaScriptの使用を含むいくつかの解決策が提案された[21]。
2009年12月、Googleは検索結果を表示するために全ユーザーのウェブ検索履歴を使用すると発表した[22] 。
2010年6月8日には、Google Caffeineと呼ばれる新しいウェブインデックスシステムが発表された。ユーザーがニュース結果、フォーラムへの投稿、その他のコンテンツを公開後以前よりも早く見つけられるように設計されたGoogle Caffeineは、Googleがインデックスを更新する方法を変更し、以前よりも早くGoogleに表示されるようにしたものである。GoogleでCaffeineを発表したソフトウェアエンジニアのCarrie Grimesによると、「Caffeineは、前回のインデックスよりも50パーセント新しいウェブ検索結果を提供する...」とされている[23] 。
Googleは検索品質を向上させるために、2011年にコンテンツ品質のためのPanda、2012年にリンクスパムのためのPenguin、2013年に自然言語処理のためのHummingbirdが導入された。
2011年には、よりタイムリーで関連性の高い結果を提供するために、リアルタイム検索機能であるGoogleインスタント検索が導入された。ソーシャルメディアプラットフォームやブログの台頭に伴い、主要な検索エンジンは、新しいコンテンツが検索結果でより早くランク付けされるようにアルゴリズムを調整した[24]。
2014年、Googleは、常時SSL化の推進を発表し、常時SSL化がSEOの評価対象に取り入られた。
2015年11月、Googleは検索品質評価ガイドライン(Search Quality Rating Guidelines)の全160ページ版を一般に公開し[25] 、「有用性」とモバイルローカル検索への注力を明らかにした[26]。スマートフォンが普及するにつれ、モバイル市場は爆発的に拡大し、デスクトップの使用を上回っていることが示された。StatCounterが2016年10月に行った250万のウェブサイトの分析では、ページの51.3%がモバイルデバイスによって読み込まれていることが示された[27] [28]。
2016年11月、Googleはウェブサイトのクロール方法に大きな変更を加え、インデックス作成をモバイルファーストにすることを発表した。これは、特定のウェブサイトのモバイル版が、Googleがインデックスに含めるものの起点となることを意味する[29] 。
2018年3月27日、Googleはモバイルファーストインデックス(MFI)が導入された。MFIとは、モバイル向けに提供されるウェブページを主な評価の対象とするランキングシステムである[30]。従来はコンピュータ向けのページをクロールして検索結果に表示する各種情報を算出してきたが、以降は主にモバイル向けのページに基づいて検索結果が作成されるようになる。これは、モバイルから検索するユーザーが増加したためである[31][32]。
2019年5月、GoogleはクローラのレンダリングエンジンをChromiumの最新バージョン(発表当時は74)に更新した。Googleは、Chromiumレンダリングエンジンを定期的に最新バージョンに更新することを示した。[33]
2019年12月、Googleはレンダリングサービスで使用される最新のChromeバージョンを反映するために、クローラのUser-Agent文字列の更新を開始した。この遅れは、特定のボットのUser-Agent文字列に応答するコードを更新する時間をウェブマスターに与えるためであった。Googleは評価を実施し、影響は軽微であると確信した。[34]
2020年3月27日、Googleはページエクスペリエンスを導入。これはウェブにおけるユーザー体験を快適にするための取り組みとして、Google検索のランキングにページエクスペリエンスシグナルを導入するものである[35]。
Googleは検索品質を向上させるために、クエリ理解のための2019年にはBERTという自然言語処理モデルを導入。2020年代には、ChatGPT、Claude、Perplexity、Geminiなどの生成AIツールの台頭。
生成エンジン最適化(GEO: Generative Engine Optimization)、アンサーエンジン最適化(AEO)、あるいは人工知能最適化(AIO)と呼ばれる概念に関する議論が巻き起こった。このアプローチは、大規模言語モデル(LLM)によって提供されるAI生成の回答にコンテンツが含まれるように最適化することに焦点を当てている。この変化により、デジタルマーケターは、コンテンツフォーマット、権威性シグナル、そしてコンテンツをより「プロンプト可能(promptable)」にするための構造化データの提示方法について議論するようになった[36]。また、これらの戦術はすべて「検索体験最適化(SXO: Search Experience Optimization)」のサブセットとして考慮されるべきであるという主張もある。Ahrefsはこれを「Googleだけでなく、複数のプラットフォームにわたる非線形の検索ジャーニーにおいて、ブランドの存在感を最適化すること」と説明している[37]。
2025年5月20日、GoogleはAIモードを米国の全ユーザーに公開することを発表。AIモードは、Googleが「クエリ・ファンアウト技術」と呼ぶものを使用し、検索クエリを複数のサブトピックに分解し、ユーザーのために追加の検索クエリを生成する[38]。
検索エンジンは、公開されているウェブページをウェブページを発見・収集(クロール)し、その情報を整理してデータベース(インデックス)に登録する。ユーザーは検索フィールドに平均3.1単語を入力し、検索エンジンはこれらの入力とインデックスをもとに、関連性が高いページを上位に表示し、数件~数千ものページを検索結果として返す[4]。SEOを考慮する場合、クロールとインデックスの仕組みが重要である。
Google、Bing、Brave Search、Yahoo!などの主要な検索エンジンのクローラは、サイトをクロールする際にさまざまな要因を考慮する。例えば、GoogleのGooglebotと呼ばれるクローラーは、膨大な数のコンピュータを使用しておりインデックスをしている[4]。また、すべてのページが検索エンジンにインデックスされるわけではない。サイトのルートディレクトリからのページの距離も、ページがクロールされるかどうかの要因になる場合がある[39]。
主要な検索エンジンは、SEOを支援するための情報やガイドラインを提供している[40][41] 。Googleは「Search Console(旧Webmaster Tools)」や「Sitemapsプログラム」を用意しており、ウェブマスターがインデックス状況を確認したり、トラフィックデータを把握したりできるようにしている[42][43]。また、URL送信コンソールも提供されている[44] 。同様に、Bingの「Bing Webmaster Tools」では、サイトマップやフィードの送信、クロール率の調整、インデックス状況の追跡が可能である。
検索インデックスに望ましくないコンテンツが含まれるのを防ぐため、ウェブマスターはドメインのルートディレクトリにある標準のrobots.txtファイルを通じて、特定のファイルやディレクトリをクロールしないようスパイダーに指示することができる。さらに、ロボット固有のメタタグ(通常は <meta name="robots" content="noindex"> )を使用することで、ページを検索エンジンのデータベースから明示的に除外することができる。検索エンジンがサイトにアクセスすると、ルートディレクトリにあるrobots.txtが最初にクロールされる。その後、robots.txtファイルが解析され、クロールしてはならないページがロボットに指示される。検索エンジンのクローラはこのファイルのキャッシュコピーを保持している場合があるため、ウェブマスターがクロールを望まないページをクロールすることがある。通常、クロールが防止されるページには、ショッピングカートなどのログイン固有のページや、内部検索からの検索結果などのユーザー固有のコンテンツが含まれる。2007年3月、Googleはウェブマスターに対し、内部検索結果のインデックス作成を防ぐべきであると警告した。これらのページは検索スパムと見なされるためである。[45]
2020年、Googleはこの標準を廃止(およびコードをオープンソース化)し、現在は命令ではなくヒントとして扱っている。ページがインデックスされないように適切に保証するには、ページレベルのロボットメタタグを含める必要がある[46]。
多くの検索エンジン(特にGoogle)の基礎となったアルゴリズムに「ページランク」がある。ページランクは、ランダムにウェブをサーフィンするウェブユーザーが、特定のページに到達する可能性を推定するものであり、SEOの指標として用いられていた[47]。
検索エンジンの順位付けでは、ページ内のコンテンツと外部からの被リンク(バックリンク)の量と質に特に重点が置かれる。他の多くの指標も順位付けに参照されているが、それらの要素が与える影響はコンテンツや被リンクと比較すれば小さいものである。なお、これらの2つの要素が最重要視されているのは、コンテンツのないページが上位に表示されることを防ぐため、また被リンクがないとページを評価することができないためである[48]。なお、rel="nofollow" が付与されている発リンクは評価の対象とならない。
基本的に検索アルゴリズムは非公開とされていることが多いが[49]、多くの指標を参照していることがわかっている。例えば、Googleの検索では、2013年のインドのウェブマスター向け公式ブログや2014年のSMX Advancedにおいて、Googleは検索順位を決定するために200以上のアルゴリズムを利用していることを明言している[50][51]。
また、新しい情報を優遇するというルールQDF(Query Deserves Freshness)も重要である[52]。ただし、これは"新着情報"を優遇するものであり、時事的でない情報を優遇するものではない[53]。 近年では、ランキングに影響を与える要因として、ウェブページのプロミネンス(目立ちやすさ)やユーザー体験(UX)も重要視されるようになっている。ユーザーがサイトからすぐに離脱(バウンス)すると、サイトの満足度が低いとみなされ、信頼性や評価に悪影響を与える可能性がある[28]。コンテンツ面では、頻繁に検索されるキーワードフレーズを含むコンテンツを作成することが重要である。タイトルタグやメタディスクリプションに関連キーワードを含めることで、検索クエリとの関連性が向上し、トラフィックが増加する傾向がある。技術的な面では、複数のURLからアクセス可能なウェブページのURL正規化(canonicalリンク要素[54]または301リダイレクトの使用)は重要である。これにより、異なるURLへのリンク評価が分散することを防ぎ、本来得られるはずのリンクポピュラリティスコアを正しくページに集約することができる[28]。
検索エンジンの順位付けアルゴリズムについて、世界中の専門家が議論を重ねたうえで独自に作成したアルゴリズムのリスト[55]が存在し各国で翻訳されている。これらのリストは企業が取得した特許や内部リーク情報などから作成されており、100%信頼できるものではないが、検索エンジン最適化を行う目安となっている。なお、アメリカ民間企業が実施した2014年度版の検索順位決定要因に関する調査[56]では、特定のキーワードの影響力が減少する一方で、コンテンツの関連性や専門性などを重視する傾向が見られた。
検索エンジン最適化には、適切なキーワードをタイトルやページ先頭に配置する手法から、検索エンジンスパムを利用する手法まで、多様なアプローチが存在する。
これらは大きく「ホワイトハットSEO」と「ブラックハットSEO」に分類される。検索エンジン企業が推奨する手法が「ホワイトハット」であり[57]、承認しない手法が「ブラックハット」である[58]。 ブラックハットSEOなどのスパム行為が発覚した場合、検索エンジンのインデックスから削除される、あるいは特定のドメイン・IPアドレスが検索対象から除外されるといったペナルティが課せられることがある。その場合、ドメインやIPアドレスの再取得といったコストが発生するリスクがある。
Googleは、ウェブマスター向けガイドラインと呼ばれる、ウェブページの登録やランク付けをスムーズに行わせるためのウェブページの作り方を示したガイドラインを公開している。このガイドラインでは、Googleがウェブページを検出・理解しやすくするために行うべきことや、検索エンジン最適化においてGoogleに認められない手法などが記されている。品質に関するガイドラインでは、基本方針として「ユーザーの利便性を第一に考える」ことが挙げられている[59]。Googleは、ブラックハットSEOに分類される最適化のうちいくつかをこのウェブマスター向けガイドラインの品質に関するガイドラインの節で明示的に禁止しており、品質に関するガイドラインへの違反が確認された場合、ペナルティを与えられることがある。多くは掲載順位の低下で、場合によっては検索結果にまったく表示されなくなるGoogle八分を受けることもある[60]。また、Googleはブラックハットな手法について「サイトの評判を傷つける」と警告している[61]。
検索エンジン最適化の手法のうち、ユーザーに重点を置いてサイトを改善する検索エンジン最適化のことをホワイトハットSEOと呼ぶ[62]。この最適化の多くは、コンテンツを構造化して意味づけをする、検索エンジンが利用できるメタデータを提供する、等、SEOという手段が認知される以前から推奨されている手段を活用したものである[63]。
検索エンジン最適化の出発点は、対象としたいウェブ利用者がどういったキーワードで必要とする情報を探しているかを理解することである。例えば、製品やサービスを比較しながら探す場合、検索ボックスには製品の固有名詞ではなく一般名称が、特定製品の機能名ではなく一般的な機能名が打ち込まれる傾向にある。[64]
Googleは、ユーザーがサイトを検索するときに入力する可能性の高いキーワードをサイト内に含めることを推奨している[65][66]。
あるページが、あるキーワードにどの程度関連しているかは、検索エンジン・スパイダーのアルゴリズムに基づいて決定される。検索エンジンは、ウェブサイトが閲覧されるときに閲覧者が読もうとするテキストを内容に基づいて整理し、そのページは何を記しているページで、あるキーワードに対する関連性がどの程度かを判断する。
多くの検索エンジンは、ページの価値を判断する基準に、そのページにどれだけの被リンクがあるかという基準を採用している。したがって、ウェブ上の他の関係あるサイトに自分のコンテンツについて通知し、リンクを求めたり、自己が運営する既存のサイトから適切なリンクをはったりすることが対策として行われる。ユーザーに役立つページを作成することで、閲覧したユーザーからのリンクを得るという対策が行われることもある[67][68]。
また、スパイダーはコンテンツのハイパーリンクを辿って巡回を行うので、検索エンジンに登録してもらいたい場合、そのページへのリンクを作成しておくことが必要になる。「サイトマップ」を作成することはその手法の一つで、推奨されていることでもある。サイトマップは、トップページやサイト上のすべてのページからリンクされているのが好ましい。このようなページがあると、ひとたびスパイダーがサイトを見つけた時に、そのサイト全体が索引化される確率が高まる。
検索エンジンは、HTMLのtitle、meta、strong、hnの各要素などを重視すると考えられているため、重要なキーワードをこのタグで囲って、重要であることを示すこともされる。例えば、見出しとして強調したい語句を font 要素などで赤く大きな文字で表示するようにマークアップすると、それは単に「赤くて大きな文字」というようにしか解釈されないが、h1 要素(とスタイルシートによる装飾)を使えば、検索エンジンにとっても、それが見出しであると解釈され、検索にヒットしやすくなるという具合である。これは、基礎的なセマンティック・ウェブと言うことも出来る。
Googleはウェブサイトの常時SSL化を推進しており、常時SSL化されているウェブサイトを(条件付きで)検索結果で待遇するとしている[69]。また、HTTPSが用いられているページは優先的にGoogleのインデックスへ登録される[70]。Googleによると、常時SSL化されているウェブサイトのインデックスを待遇する条件は次のとおりである[70]。
- セキュアでない依存関係が含まれていない。
- robots.txtによってクロールがブロックされていない。
- セキュアでない HTTP ページに(または HTTP ページを経由して)ユーザーをリダイレクトしていない。
- HTTP ページへの rel="canonical" リンクが含まれていない。
- noindex robots メタタグが含まれていない。
- 同一ホスト上の HTTP ページヘのリンクが含まれていない。
- サイトマップに HTTPS URL が掲載されている(または URL の HTTP バージョンが掲載されていない)。
- サーバーに有効な TLS 証明書がある。
検索エンジンによって承認されていない方法、または欺瞞を含む方法で検索エンジンを騙し、ウェブページを本来よりも高く評価させる検索エンジン最適化のことをブラックハットSEOと呼ぶ[71]。GoogleはブラックハットSEOに準ずる行為をウェブマスター向けガイドラインで禁じており[65]、ブラックハットSEOやそれに準ずる行為を行うと手動による対策が適用されることがある[65]。
Ptengineのマーケティング部門でVPを務めるジェフ・ドイッチュは、Googleに対するスパム行為で月収5万ドルの収益をあげていたことを明らかにした。Googleは毎日スパムにあたるワードを4億5000万個インデックスしているが、ドイッチュはこのシステムを潜り抜け、高く順位付けされる記事を生成するスパムマシンを構築し収益をあげていた。しかし、2012年3月16日、Googleのマット・カッツがALN(Authority Link Network)に関して言及したツイート[72]を投稿し、その後GoogleによりALNネットワークが発見され、すべて破壊されたとされる[73]。
背景と同じ色のテキスト、不可視のdivタグ、または画面外に配置されたテキストとして隠しテキストを使用するなどして、ユーザーには見えない文字をページ内に埋め込む行為は、Googleが定めるウェブマスター向けガイドラインで禁じられている[65][74]。“隠し文字”といわれる。スパムを役に立たないサイトにリンクすることも、Googleの悪い評価になる。
検索結果でのランキングを操作するために、ウェブページにキーワードや数字を埋め込むことは、Googleが定めるウェブマスター向けガイドラインで禁じられている[65][75]。電話番号の羅列や、サイト内容とは直接関係のない大量の地名(市名や区名など)の埋め込み、不自然なほどの同じ単語の繰り返しなどがこれに該当する[75]。
検索結果でのランキングを操作するために、ユーザーからは見えない隠しリンクを作成することは、Googleが定めるウェブマスター向けガイドラインで禁じられている[65][74]。
Google検索は、適切に得られたのではない何千ものリンクを見て、あるページの関連度(ランキング)を高いと判断してしまう場合がある。SEO担当者らは所望のキーワードを内向きリンクのハイパーリンクされたテキストにおいている。「Google爆撃」 (en:Googlebombing) とも呼ばれるこの行為は、悪ふざけでもあり得るが、商業上の利益のため順位に影響を与える意図的な試みでもありうる。
目的とするページへの誘導のみを目的としたページを作成し、検索エンジン用に文書構造などを最適化する。入り口になるページはドアページと呼ばれる。
クローキングは、人間に見えるページと異なるページを検索エンジン・スパイダーに提供する技術。検索エンジン最適化の手法のうち最も論争の種となるものである。クローキングは特定のウェブサイトのコンテンツを検索エンジンを誤解させる不当な試みでありうる一方で、検索エンジンが処理・解読できないが人間の閲覧者に有用なコンテンツを提供するのに用いることができる。クローキングはウェブサイトのアクセシビリティを視覚障害者やその他の障害者に提供することにも用いられる。あるクローキング行為が倫理的か否かを判定するよい基準のひとつは、その行為がアクセシビリティを高めているかどうかである。
検索エンジンでの結果を向上させることを目的として、他サイトからのリンクを購入し、あるいは自サイトからのリンクを販売したりすること。Googleはこれを禁じ[76]、不当な有料リンクの報告を募っている[77][78]。Googleはこの行為に対し、サイトからの不自然なリンクという個別のペナルティを設けている。[79]
Googleは、無名な検索エンジンへ登録することをスパム行為であると認定している[要出典]。
グレイハットSEOとは、ガイドラインに明確には違反しないが、ガイドラインの隙間を突いたり、検索順位を操作しようとする「グレーゾーン」のSEO手法で、ホワイトハットSEOとブラックハットSEOの中間に位置する[80]。
例えば検索エンジン大手のGoogleは、米国で1日あたり平均およそ2億4600万の検索結果を返している[4]。また、ウェブ利用者の多くは「検索結果の上位に表示される企業はメジャーブランドである」と考える傾向にあることが明らかとなっている[81]。検索エンジン最適化を行うことは重要なマーケティングの一つになっている[4]。マーケティング戦略としてのSEOには、検索エンジンの仕組み、検索結果を形成するアルゴリズム、ユーザーが求める情報、ユーザーが入力するキーワードやクエリ、そして対象となるオーディエンスが好む特定の検索エンジンを理解することが含まれる。SEOは、ウェブサイトが検索エンジンからより多くの訪問者を獲得し、検索エンジン結果ページ(SERP)で上位にランクされることを支援し、訪問者のコンバージョン(顧客化)やブランド認知度の向上を目指すものである[82]。
SEOは、ペイ・パー・クリック(PPC)広告やソーシャルメディアマーケティングなどの他の戦略と並ぶ、デジタルマーケティングにおける一つのアプローチである。検索エンジンマーケティング(SEM)は、検索エンジン広告キャンペーンを設計、実行、最適化する手法である。SEOとの違いは、最も単純には、検索結果における有料と無料の優先順位付けの違いとして描かれる。SEMは関連性よりもプロミネンス(目立ちやすさ)に重点を置いている。ほとんどのユーザーは検索の主要なリストに移動するため、ウェブサイト開発者は可視性を考慮してSEMを最重要視すべきである[83] 。成功するインターネットマーケティングキャンペーンは、インターネットユーザーを引き付け説得するための高品質なウェブページの構築、サイト所有者が結果を測定できるようにするためのアナリティクスプログラムの設定、そしてサイトのコンバージョン率の改善にも依存する場合がある[84][85]。
SEOは十分なROIを生み出す可能性がある。しかし、検索エンジンはオーガニック検索トラフィックに対して対価を支払われておらず、アルゴリズムは変更され、継続的な参照の保証はない。この保証の欠如と不確実性のため、検索エンジントラフィックに大きく依存しているビジネスは、検索エンジンが訪問者の送客を停止した場合、大きな損失を被る可能性がある。[86] 検索エンジンはアルゴリズムを変更することがあり、ウェブサイトの検索エンジンランキングに影響を与え、トラフィックの深刻な損失をもたらす可能性がある。GoogleのCEOであるエリック・シュミットによると、2010年にGoogleは500回以上のアルゴリズム変更を行い、これは1日あたり約1.5回に相当する[87] 。業界アナリストは、ウェブサイトはオーガニックトラフィックに大きな影響を与える可能性のあるアルゴリズム変更によるリスクに直面していると指摘している。ウェブクローラーに関するアクセシビリティに加えて、ユーザーのウェブアクセシビリティもSEOにとってますます重要になっている。
国際市場向けの最適化
2000年代初頭、企業はウェブと検索エンジンが世界中のオーディエンスにリーチするのに役立つことを認識した。その結果、多言語SEOの必要性が生まれた[88] 。多言語SEO開発の初期には、単純な翻訳で十分であると考えられていたが、時間の経過とともに、ローカリゼーションとトランスクリエーション(現地の言語、文化、感情的な共鳴に合わせてコンテンツを適応させること)が、基本的な翻訳よりも効果的であることが明らかになった[89]。
国際市場向けの検索エンジン最適化(SEO)を成功させるためには、ターゲット市場の国別コードトップレベルドメイン(ccTLD)または関連するトップレベルドメイン(TLD)でドメイン名を登録すること、ローカルIPアドレスまたはサーバーを持つウェブホスティングを選択すること、およびコンテンツデリバリネットワーク(CDN)を使用して世界的にウェブサイトの速度とパフォーマンスを向上させることがあげられる。また、コンテンツがオーディエンスに関連していると感じられるように、現地の文化を理解することも重要である。これには、市場ごとのキーワード調査の実施、hreflangタグを使用して正しい言語をターゲットにすること、ローカルな被リンクの構築が含まれる。しかし、高品質なコンテンツの作成、ユーザー体験の向上、リンク構築などのSEOの核となる原則は、言語や地域に関係なく同じままである[90]
最適化の手法は、ターゲット市場における主要な検索エンジンに合わせて高度に調整される。Googleはほとんどの地域で支配的な市場シェアを維持しているが、その割合は市場によって異なる[91] 。米国以外の市場では、Googleのシェアはさらにおおきくなることが多く、2007年時点でGoogleは世界的に支配的な検索エンジンであった[92] 。2006年時点で、Googleはドイツで85〜90%の市場シェアを持っていた[90] 。2024年3月現在でも、Googleはドイツで89.85%という大きな市場シェアを持っている[93] 。2024年3月現在、英国におけるGoogleの市場シェアは93.61%である[94]。一方、特定の国ではGoogle以外の検索エンジンが強い存在感を示している。
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/22 06:06 UTC 版)
「Google Discover」の記事における「SEO」の解説
Googleの自動システムは、専門性が高く、権威があり、信頼できるページが多くあるコンテンツをDiscoverに表示している。 Discoverに記事が表示されるとウェブサイトに意図せず突発的な多くのトラフィックを生むことがあり、一部のメディアなどではGoogle砲と呼ばれることがある。 コンテンツをDiscoverに表示させるための特別なタグや構造化データは必要なく、コンテンツがGoogleにインデックス登録されており、Discoverのコンテンツポリシーを満たしていれば、そのコンテンツは自動的にDiscoverの表示対象になる。なお、Discoverの表示対象になっていても、必ず表示されるとは限らない。 Discoverにコンテンツが有る場合は、Discoverのパフォーマンスレポートを使用してパフォーマンスをモニタリングする事ができる。データのインプレション数が最小しきい値に達している場合、このレポートは過去16ヶ月感にDiscoverに表示されたコンテンツのインプレション数、クリック数、クリック率が表示される。
※この「SEO」の解説は、「Google Discover」の解説の一部です。
「SEO」を含む「Google Discover」の記事については、「Google Discover」の概要を参照ください。