OpenAI と Cloudflare Agent Cloud: 実稼働エージェントがインフラストラクチャになりつつある
OpenAIは、CloudflareがCloudflare Agent Cloud内のOpenAIフロンティアモデルへのアクセスを拡大していると発表した。実際のポイントは単純です。エージェントはローカルのデモやチャット ウィンドウから運用インフラストラクチャに移行しつつあります。
OpenAIが言ったこと
OpenAIは、数百万の企業がCloudflare Agent Cloud内でOpenAIフロンティアモデルに直接アクセスできるようになったと述べている。発表によると、企業はGPT-5.4などのモデルを搭載したエージェントを導入して、安全な運用環境で顧客対応、システム更新、レポート生成などの作業を処理できるという。 OpenAIはまた、企業がCodexハーネス上に構築されたエージェントをCloudflareに展開できるとも述べている。
ここで Cloudflare が重要な理由
Cloudflareは、グローバルなエッジ実行と本番指向のインフラストラクチャを備え、Agent CloudをWorkers AIの上に位置づけています。 OpenAIによると、CodexハーネスはCloudflareサンドボックスで一般提供されており、近い将来Workers AIでも利用できるようになるという。エージェントの信頼性はモデルだけの問題ではないため、これは重要です。これは、ランタイム、権限、サンドボックス、可観測性、およびデプロイメントの問題です。
トークンエコノミクスの変化
エージェントがインフラストラクチャになると、トークンの使用量がインフラストラクチャのコストになります。再試行ループ、特大のコンテキスト ウィンドウ、不要なブラウザ スクレイピング、または制約のないツール呼び出しは、もう 1 回限りの煩わしさではありません。定期的な支出となります。チームには、ソース収集、再試行、ファイル読み取り、スクリーンショット、ツールの失敗、最終成果物の出力など、有用な推論と無駄を分離するダッシュボードが必要です。
建設業者向けのアクション
実稼働エージェントを実験している場合は、モデルを選択する前に実行コントラクトを定義します。つまり、どのデータを読み取ることができるか、どのツールを使用できるか、再試行を停止する方法、出力を検証する方法、タスク クラスごとに適用される予算などです。 Token Robin Hood の主張は、次のエージェントの利点は、使用制限に達する前に無駄を制御することによってもたらされるということです。