Cloudflareエージェントの準備状況: AIエージェントにとってSEOがGEOになりつつある理由
Cloudflare は、2026 年 4 月 17 日に Agent Readiness スコアを開始しました。重要なデータポイントはスコア自体ではありません。 Cloudflareの主張は、ウェブの大部分はAIエージェントが効率的に検出、読み取り、認証、支払い、行動するための準備がまだ整っていないということだ。
ビルダーが注目すべき数字
Cloudflare は 200,000 の高トラフィック ドメインをスキャンし、従来の robots.txt 導入は一般的ですが、エージェント固有の標準はまだ初期段階にあります。 Cloudflareの報告によると、サイトの78%にrobots.txtがあり、4%がコンテンツシグナルを通じてAIの使用設定を宣言し、3.9%がマークダウンコンテンツネゴシエーションをサポートし、MCPサーバーカードやAPIカタログなどの新興標準がデータセット内の15サイト未満に表示されています。
これがSEOとGEOを変える理由
クラシック SEO は、クローラーによるページのインデックス作成に役立ちます。 GEO (生成エンジン最適化) は、応答エンジンとエージェントが摩擦を少なくして適切な事実を抽出するのに役立ちます。 Agent Readiness はその変化を具体化します。エージェントには、サイトマップとヘッダーによる発見可能性、マークダウンまたは簡潔な HTML による読み取り可能なコンテンツ、ボット アクセス ルール、および API カタログ、MCP サーバー カード、エージェント スキル インデックスなどの新しい標準による機能検出が必要です。
TRH がこのシグナルから何を変更したか
Token Robin Hood にとって、このニュースは、人間、クローラー、AI システムにとって解析しやすいブログ アーキテクチャの必要性を裏付けるものです。つまり、正規 URL、代替 hreflang、RSS、最新記事のニュース サイトマップ、ソース リンク、直接リーダー、構造化データ、LLM で読み取り可能なサイト ガイドが含まれます。これらは装飾的な SEO の詳細ではありません。これらは、エージェントがサイトの内容を理解し、読者を製品に戻すための結合組織です。
アクションチェックリスト
製品サイトを運営している場合は、完全なサイトマップを公開し、最新の RSS フィードを保持し、時間制限のある投稿用にニュース サイトマップを追加し、 llms.txt 要約を作成し、記事の構成を予測可能な状態に保ち、すべての投稿から主要なコンバージョン パスを明確にします。次に、エージェント対応ツールを使用してサイトをスキャンし、最も影響の大きいギャップを最初に修正します。