<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Cloud Blog JA</title><link>https://cloud.google.com/blog/ja/</link><description>Cloud Blog JA</description><atom:link href="https://cloudblog.withgoogle.com/blog/ja/rss/" rel="self"></atom:link><language>ja</language><lastBuildDate>Thu, 09 Apr 2026 00:10:15 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/ja/static/blog/images/google.a51985becaa6.png</url><title>Cloud Blog JA</title><link>https://cloud.google.com/blog/ja/</link></image><item><title>ID.me、1 億 6,000 万ユーザーに対応するスケーリングと運用リスクの軽減を同時に達成</title><link>https://cloud.google.com/blog/ja/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 31 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;編集者注: &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;ID.me は、デジタル ID のセキュリティを変革することで、ID の確立が容易であることを証明しています。さらに、同社のプラットフォームは 1 億 6,000 万人の会員に対応できるようスケールされ、1 分あたり最大 40,000 人のユーザーへの対応が可能となっています。圧倒的な規模とリアルタイム AI を必要とする税務申告などのサービスに対応するために、同社のチームは 50 テラバイトのデータを従来のプラットフォームから Google Cloud に移行し、AlloyDB、Cloud SQL、Vertex AI を基盤とする最新のアーキテクチャを採用しました。このアーキテクチャにより、開発の迅速化、不正行為の検出精度の向上、データチーム全体の作業完了時間の 40% 短縮が実現しました。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;皆さん、家を出るときは、スマートフォン、運転免許証、クレジットカードなど、必ずなんらかの身分証明書を携帯するでしょう。それによって自分の身元を証明できますし、ほぼどこでも利用できます。しかし、オンラインでは、何度も本人確認を求められ、新しいサービスやツールを使い始めるたびに、新しいログイン情報を作成する必要があります。&lt;/span&gt;&lt;a href="https://www.id.me/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ID.me&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、ユーザーが本人確認を一度だけ安全に行い、その認証情報をオンラインのどこでも使用できるようにすべきだと考えています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社の目標は、公的機関と民間企業の両方で信頼性の高いログイン方法として機能する、ID 用のデジタル ウォレットを開発することです。当社は現在、1 億 6,000 万人以上の会員にサービスを提供しており、私たちの生活や仕事において ID の重要性が高まっています。このため当社は、対面で運転免許証を提示する場合と同じくらい簡単に、オンラインで本人であることを証明できるよう規模を拡張しています。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=xg7SFprpr4I"
      data-glue-modal-trigger="uni-modal-xg7SFprpr4I-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault_cIbFILC.max-1000x1000.jpg);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;新たな道を切り開く: ID.me、1 億 4,500 万人以上のユーザーのために不正行為と戦う - AlloyDB を活用&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-xg7SFprpr4I-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="xg7SFprpr4I"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=xg7SFprpr4I"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;追いつかないスピードで増える需要&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ID.me の以前の会員数は 5,000 万人でしたが、この数年間で 1 億 6,000 万人以上という規模まで成長しました。現在は 1 日単位での使用状況のトラッキングは行わず、代わりにほぼリアルタイムのモニタリングを行っています。現時点で、当社のプラットフォームは &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;1 分あたり最大 40,000 人の会員&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;に対応できるように設計されています。この種の需要は予測できません。ID.me の会員にとって、アクセスがすべてです。稼働時間だけでなく、政府の給付金、医療、限定特典などに関して、会員が必要とする場合に、安全かつ即座に本人確認を行えることが重要です。そしてユーザー数が拡大する中、当社のインフラストラクチャを必要な形でスケールできていないことがわかりました。アーキテクチャの限界に達しつつあったため、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;当社はある決断を下しました。&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;ID.me のデータ基盤を Google Cloud 上で再構築して、次の成長段階に備えることにしたのです。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;1 億 6,000 万人の大切なお客様と当社のための新しいデータベース&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最初の作業は、当社が必要としていた圧倒的なスケーラビリティと信頼性を実際に提供できるデータベースを選択することでした。すぐに目に留まったのが &lt;/span&gt;&lt;a href="https://cloud.google.com/products/alloydb?hl=ja&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlloyDB for PostgreSQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; でした。以前の環境で直面していたスケーリングのボトルネックと運用上の複雑さに直接対処するソリューションであったため、ピーク時の需要にも自信を持って対応できるようになりました。この移行によって、技術的な課題を解決できただけでなく、開発者のエクスペリエンスが劇的に向上しました。チームがプロビジョニング、メンテナンス、パッチ適用に費やす時間が大幅に減り、開発サイクルが数週間からわずか数日に短縮されました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;過去 2 年間で、15 個のデータベース インスタンスに分散されていた 50 テラバイト以上のデータを Google Cloud に移行しました。しかも、ダウンタイムは最小限で済みました。また、2 階層アーキテクチャも導入しました。&lt;/span&gt;&lt;a href="https://cloud.google.com/sql"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud SQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; がより小規模かつ標準的なサービスをサポートし、AlloyDB が ID.me プラットフォームのバックボーンを形成するより負荷の高いワークロードを実行します。これにより、安定性を損なうことなく迅速に処理を進めることができます。また、チームに余裕が生まれ、実際にイノベーションを推進する作業に集中できています。たとえば、当社の ID に対する取り組みに逆行するのではなく、確実に役立つ AI の開発などです。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_p3whGZV.max-1000x1000.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-aside"&gt;&lt;dl&gt;
    &lt;dt&gt;aside_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;title&amp;#x27;, &amp;#x27;Google Cloud データベースでよりスマートに構築&amp;#x27;), (&amp;#x27;body&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a886ce250&amp;gt;), (&amp;#x27;btn_text&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;href&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;image&amp;#x27;, None)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI トレーニングの目的は . . . AI との戦い？&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;あらゆる組織が AI を活用しようと躍起になっています。しかし ID.me では、その不正使用を防ぐことも同じくらい重要です。脅威の状況は進化しており、特に生成モデルは、個人になりすます能力だけでなく、合成 ID を作成する能力も高めています。ユーザーが名乗ったとおりの人物であることを確認することをビジネスとしている当社にとって、この脅威は大きな問題です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlloyDB の優れた点の一つは、複数の読み取りプールを作成できることです。当社では、これらの読み取りプールを、データ エンジニアやデータ サイエンティストと迅速に共有できるデータ クリーンルームとしています。不正行為分析担当者がそこに入り、問題を発見して、リアルタイムで修正または防止できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;全体で見ると、&lt;/span&gt;&lt;a href="https://cloud.google.com/alloydb/ai?hl=ja&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlloyDB AI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; のおかげで従来のシステムを 10～20 倍にスケールし、さらに料金も下げることができました。その効果は非常に大きいものです。&lt;/span&gt;&lt;a href="https://www.gov.ca.gov/2022/06/21/edd-recovers-1-1-billion-in-unemployment-insurance-funds-with-more-investigations-and-recoveries-to-come/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ID.me は、米国連邦政府から、国家システム内での大規模な不正行為を防止する役割を担っていると認められています。&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;この成功の重要な要因となったのは、AlloyDB に組み込まれた高可用性と、スケーリングが容易な読み取りプールです。これにより、米国の国家税務当局である Internal Revenue Service（IRS）は、前回の納税申告のピーク時に、1 秒あたり 120,000 件を超えるトランザクションを滞りなくシームレスに処理できました。これは実質的に、以前のセルフホスト型 PostgreSQL のパフォーマンスの 2 倍に相当します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;多くの新機能を試してきましたが、特に期待しているのは &lt;/span&gt;&lt;a href="https://cloud.google.com/gemini-enterprise?hl=ja&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini Enterprise&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と AlloyDB AI の自然言語です。これにより、当社の AI の構築と操作の方法に根本的な変化がもたらされるからです。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;1 つのログインであらゆるシステムにスムーズに対応&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社のデータチームは Google Cloud を大いに活用しており、作業が大幅に楽になりました。移行後は、変更をはるかに迅速に行えるようになり、全体の作業完了時間が 40% 短縮されました。ID.me のエンジニアリング チームでは、開発者のエクスペリエンスが劇的に向上しました。チームが製品の機能全体をリリースするまでに要する期間が数週間から数日に短縮し、当社の会員にとって重要な問題の解決に時間を費やせるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;インフラストラクチャのスケーリングと信頼の拡大を同時に達成できました。ポータブル ID を圧倒的な規模で処理できるように構築された、より高速でスマートなプラットフォームにより、当社は目標達成に一歩近づきました。それは、必要なときに必要な場所で、デジタルによる安全な方法で本人確認を行うことができるソリューションです。子どもの頃に飼っていたペットに関するセキュリティ保護用の質問は、もうなくなるかもしれません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/products/alloydb"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlloyDB&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://cloud.google.com/alloydb/ai"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlloyDB AI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の機能の詳細をご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://console.cloud.google.com/freetrial?redirectPath=/alloydb"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlloyDB の無料トライアルを今すぐ開始しましょう&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;AlloyDB を活用してビジネスを変革している &lt;/span&gt;&lt;a href="https://www.youtube.com/watch?v=dCwmsiCOegU" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Bayer&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;a href="https://www.youtube.com/watch?v=Vb6C7rjV6FA" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Character.ai&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などのお客様の事例をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;ID.me、クラウド プラットフォーム アーキテクト&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Kevin Liu 氏&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 09 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb/</guid><category>Customers</category><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>ID.me、1 億 6,000 万ユーザーに対応するスケーリングと運用リスクの軽減を同時に達成</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Kevin Liu</name><title>Cloud Platform Architect, ID.me</title><department></department><company></company></author></item><item><title>Google ADK、MCP、Cloud Run を使用して専門家向けコンテンツ用のマルチ エージェント システムを構築する - パート 1</title><link>https://cloud.google.com/blog/ja/topics/developers-practitioners/build-a-multi-agent-system-for-expert-content-with-google-adk-mcp-and-cloud-run-part-1/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 19 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/build-a-multi-agent-system-for-expert-content-with-google-adk-mcp-and-cloud-run-part-1?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;私のチームのミッションは、コードの作成から Google Cloud で安全な AI ワークロードを実行するまで、デベロッパーの取り組みを加速させることです。デベロッパーの成功を支援するため、Google はデベロッパーが最も切実に求めている質問を特定し、簡単に実装できるわかりやすいソリューションを提供するデモを構築することに重点を置いています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最近、新しい &lt;/span&gt;&lt;a href="https://developers.google.com/knowledge/mcp?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Developer Knowledge MCP サーバー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;がリリースされたとき、私にはひらめきが湧きました。そこで、&lt;/span&gt;&lt;a href="https://github.com/google/adk-python" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Agent Development Kit（ADK）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を使用して設計されたマルチエージェント システムである &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; を構築し、Reddit から技術的な質問を特定し、公式ドキュメントを使用して調査し、詳細な技術ブログ記事の下書きを作成しました。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; には、&lt;/span&gt;&lt;a href="https://blog.google/innovation-and-ai/products/nano-banana-pro/?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blo" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Nano Banana Pro&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用したカスタム ビジュアルも備わっています。エージェントが私の好みのスタイルやブログ記事の書き方を記憶できるように、長期&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/agent-builder/agent-engine/memory-bank/overview?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;記憶&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;レイヤも統合しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コーディング アシスタントである &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/gemini/docs/codeassist/gemini-cli?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini CLI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; をデベロッパー ナレッジ MCP サーバーに接続することで、このシステム全体をわずか 2 日で構築して &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/run/docs?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud Run&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; にデプロイしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ここでは、長期記憶を備えた複雑なマルチ エージェント システムを設計する方法、ローカルおよびリモートの MCP サーバーを利用してツールを標準化する方法、安全な Cloud Run デプロイのための詳細な Terraform スクリプトを作成する方法など、さまざまな方法をご紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今すぐコードを見てご自分のペースで調べる場合は、&lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/devrel-demos/tree/main/ai-ml/dev-signal" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちら&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;からリポジトリをクローニングできます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=abZxJiXGrJs"
      data-glue-modal-trigger="uni-modal-abZxJiXGrJs-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/abZxJiXGrJs/maxresdefault.jpg"
             alt="A YouTube video that walks through a demo to set up the Dev Signal system"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-abZxJiXGrJs-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="abZxJiXGrJs"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=abZxJiXGrJs"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;学習内容&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;4 回に分けてお届けするこのブログシリーズでは、このプロジェクトをどのように実現したのか、その手順を段階的にご紹介します。各ブログ投稿では、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; の構築とデプロイの過程を説明します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;パート 1: エージェント機能を構築するためのツール &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; – まず、プロジェクト環境をセットアップし、Model Context Protocol（MCP）を使用してエージェントにツールを装備します。トレンドの発見に Reddit を、技術的なグラウンディングに Google Cloud ドキュメントを、画像生成にカスタム Nano Banana Pro ツールを使用する方法を学びます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;パート 2: 長期記憶を備えたマルチ エージェント アーキテクチャ &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;– ルート オーケストレーターと専門エージェント チームを実装して、システムの「頭脳」を構築します。また、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/agent-builder/agent-engine/memory-bank/overview?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI Memory Bank&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を統合することで、エージェントがセッション全体でユーザーの好みを学習して保持できるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;パート 3: エージェントをローカルでテストする&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; – クラウドに移行する前に、エージェントのコンポーネントを同期し、ワークステーションでエージェントのパフォーマンスを検証します。専用のテストランナーを使用して、検出、調査、マルチモーダル作成のライフサイクル全体をシミュレートします。特に、ローカル エージェントをクラウドベースの Vertex AI Memory Bank に直接接続して、長期記憶の永続性を検証することに重点を置きます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;パート 4: Cloud Run へのデプロイと本番環境への移行&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; – 最後に、再現可能なインフラストラクチャを実現するため、Terraform を使用して Google Cloud Run にサービスをデプロイします。また、高品質で安全な本番環境システムに必要な次のステップについても説明します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal の概要&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; は、ノイズをフィルタして価値を生み出すように設計されたインテリジェントなモニタリング エージェントです。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; は次のように動作します。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;発見&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: Reddit を調査して、エンゲージメントの高い技術的な質問を見つけます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;グラウンディング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 正確性を確保するために、Google Cloud の公式ドキュメントを使用して回答を調査します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;作成&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 調査結果に基づいて、プロフェッショナルな技術ブログ投稿の下書きを作成します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;マルチモーダル生成&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: これらの投稿のカスタム インフォグラフィック ヘッダーを生成します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;長期記憶&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Vertex AI Memory Bank&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して、さまざまなセッションにわたってフィードバックを記憶します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;前提条件&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;始める前に、以下がインストールされていることを確認してください。&lt;/span&gt;&lt;/p&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Python 3.12 以降&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;uv&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（Python パッケージ管理システム）: &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;curl -LsSf https://astral.sh/uv/install.sh | sh&lt;/code&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/sdk/docs/install?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud SDK&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gcloud&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; CLI）（インストールおよび認証済み）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://developer.hashicorp.com/terraform/install" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Terraform&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（Iinfrastructure as Code 用）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.npmjs.com/downloading-and-installing-node-js-and-npm" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Node.js と npm&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（Reddit MCP ツールに必要）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次も必要です。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;課金を有効にした &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/resource-manager/docs/creating-managing-projects?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud プロジェクト&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/endpoints/docs/openapi/enable-api?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;有効な API&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;: Vertex AI、Cloud Run、Secret Manager、Artifact Registry。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Reddit API 認証情報&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（クライアント ID、シークレット）- &lt;/span&gt;&lt;a href="https://www.reddit.com/prefs/apps" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Reddit デベロッパー ポータル&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;から入手できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Developer Knowledge API Key&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（Google Cloud ドキュメント検索用）- 入手方法については、&lt;/span&gt;&lt;a href="https://developers.google.com/knowledge/mcp?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちら&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;プロジェクトのセットアップ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Dev Signal&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; システムは、&lt;/span&gt;&lt;a href="https://www.linkedin.com/in/remigiusz-samborski/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Remigiusz Samborski&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 氏と &lt;/span&gt;&lt;a href="https://www.linkedin.com/in/vkolesnikov/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vlad Kolesnikov&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 氏による &lt;/span&gt;&lt;a href="https://www.youtube.com/watch?v=XCGbDx7aSks" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agent Factory のエピソード&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;で説明されている自動化されたアーキテクト ワークフローに従って、まず &lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/agent-starter-pack" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agent Starter Pack&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を実行して構築されました。この基盤により、エージェント ロジック、サーバーコード、ユーティリティ、ツール間の関心を分離するために使用される、プロジェクトのモジュール式ディレクトリ構造が用意されました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Starter Pack は、プロフェッショナルなインフラストラクチャ、CI / CD パイプライン、オブザーバビリティ ツールの作成を数秒で自動化するため、強力な出発点となります。これにより、基盤となるプラットフォームのセキュリティとスケーラビリティを確保しながら、エージェント独自のインテリジェンスに十分集中できるようになります。&lt;/span&gt;&lt;a href="https://blog.google/innovation-and-ai/technology/developers-tools/introducing-gemini-cli-open-source-ai-agent/?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini CLI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://antigravity.google/?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Antigravity&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の AI アシスタンスを使用して、生成されたボイラープレートを基に構築することで、開発プロセスが大幅に加速されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Agent Starter Pack のアーキテクチャの概要:&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/agentstarterpack.max-1000x1000.png"
        
          alt="agentstarterpack"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;1. プロジェクトを初期化する&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プロジェクト用の新しいディレクトリを作成し、初期化します。ここでは、非常に高速な Python パッケージ管理システムである &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uv&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;uv init dev-signal&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cfd00&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;2. フォルダ構造&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このプロジェクトは次の構造に従います。これらのファイルにデータを段階的に入力していきます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;dev-signal/\r\n├── dev_signal_agent/\r\n│   ├── __init__.py\r\n│   ├── agent.py           # Agent logic &amp;amp; orchestration\r\n│   ├── fast_api_app.py    # Application server &amp;amp; memory connection\r\n│   ├── app_utils/         # Env Config\r\n│   │   └── env.py\r\n│   └── tools/             # External capabilities\r\n│       ├── __init__.py\r\n│       ├── mcp_config.py  # Tool configuration (Reddit, Docs)\r\n│       └── nano_banana_mcp/# Custom local image generation tool\r\n│           ├── __init__.py\r\n│           ├── main.py\r\n│           ├── nano_banana_pro.py\r\n│           ├── media_models.py\r\n│           ├── storage_utils.py\r\n│           └── requirements.txt\r\n├── deployment/\r\n│   └── terraform/         # Infrastructure as Code\r\n├── .env                   # Local secrets (API keys)\r\n├── Makefile               # Shortcuts for building/deploying\r\n├── Dockerfile             # Container definition\r\n└── pyproject.toml         # Dependencies&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf610&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;3. 依存関係を定義する&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;必要な依存関係を使用して &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;pyproject.toml&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を更新します。エージェント フレームワークには &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;google-adk&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を、モデルのインタラクションには &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;google-genai&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;[project]\r\nname = &amp;quot;dev-signal&amp;quot;\r\nversion = &amp;quot;0.1.0&amp;quot;\r\ndescription = &amp;quot;A multi-agent system for monitoring and content creation.&amp;quot;\r\nreadme = &amp;quot;README.md&amp;quot;\r\nrequires-python = &amp;quot;&amp;gt;=3.12, &amp;lt;3.14&amp;quot;\r\ndependencies = [\r\n     &amp;quot;google-adk&amp;gt;=0.1.0&amp;quot;,\r\n    \xa0&amp;quot;google-genai&amp;gt;=1.0.0&amp;quot;,\r\n     &amp;quot;mcp&amp;gt;=1.0.0&amp;quot;,\r\n    \xa0&amp;quot;python-dotenv&amp;gt;=1.0.0&amp;quot;,\r\n     &amp;quot;fastapi&amp;gt;=0.110.0&amp;quot;,\r\n     &amp;quot;uvicorn&amp;gt;=0.29.0&amp;quot;,\r\n     &amp;quot;google-cloud-logging&amp;gt;=3.0.0&amp;quot;,\r\n     &amp;quot;google-cloud-aiplatform&amp;gt;=1.38.0&amp;quot;,\r\n    \xa0&amp;quot;fastmcp&amp;gt;=2.13.0&amp;quot;,\r\n     &amp;quot;google-cloud-storage&amp;gt;=3.6.0&amp;quot;,\r\n     &amp;quot;google-auth&amp;gt;=2.0.0&amp;quot;,\r\n     &amp;quot;google-cloud-secret-manager&amp;gt;=2.26.0&amp;quot;,\r\n]&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cfbe0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;code style="vertical-align: baseline;"&gt;uv sync&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を実行してすべてインストールします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェント コード用の新しいディレクトリを作成します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;mkdir dev_signal_agent\r\ncd dev_signal_agent&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf130&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;エージェント機能の構築: MCP ツール&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェントは外部とやり取りする必要があります。これを標準化するために、&lt;/span&gt;&lt;a href="https://modelcontextprotocol.io/" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Model Context Protocol（MCP）&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を使用します。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Model Context Protocol（MCP）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;は、AI エージェントを外部のデータやツールに接続するための普遍的な基準です。カスタム API ラッパーを記述する代わりに、標準の MCP サーバーを使用します。これにより、共通のインターフェースを使用して、API（Reddit）、ナレッジベース（Google Cloud ドキュメント）、さらにはローカル スクリプト（Nano Banana Pro を使用した画像生成）にも接続できます。エージェント ツール用の新しいディレクトリを作成します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;mkdir tools\r\ncd tools&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf760&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ツールの構成&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ツールセットは &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/mcp_config.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; で定義します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このファイルでは、3 つの主要なツールの接続パラメータを定義します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Reddit&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: ローカル stdio サブプロセス経由で接続されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;デベロッパー ナレッジ&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: リモート HTTP エンドポイント経由で接続されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Nano Banana&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: ローカル stdio サブプロセス（Google のカスタム Python スクリプト）経由で接続されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Reddit 検索（発見ツール）&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;a href="https://github.com/Arindam200/reddit-mcp" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Reddit MCP サーバー &lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は Reddit API へのブリッジとして機能し、複雑な API ラッパーを記述しなくても、トレンドとなっている投稿をエージェントが発見してエンゲージメントを分析できるようにします。移植性を確保するために、コードでは「検索またはフェッチ」戦略が使用されています。まずローカル インストールをチェックし、見つからない場合は &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;npx&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用してサーバーをオンデマンドでダウンロードして実行します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ネットワーク接続の代わりに、エージェントはサーバーをローカル サブプロセスとして起動し、標準入出力（stdio）を介して通信します。Google ADK 内の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;McpToolset&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; クラスは、これらの接続を標準化する普遍的なラッパーとして機能し、エージェントが共通のインターフェースを使用して、コミュニティ リソースからカスタム スクリプト（Nano Banana 画像生成ツールなど）まで、さまざまなツールとやり取りできるようにします。環境変数を介して API 認証情報を安全に渡すことで、システムはこれらの「プラグ アンド プレイ」モジュールが AI と外部プラットフォーム間のシームレスなブリッジとして機能することを保証します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/mcp_config.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import os\r\nimport shutil\r\nfrom mcp import StdioServerParameters\r\nfrom google.adk.tools import McpToolset\r\nfrom google.adk.tools.mcp_tool import StreamableHTTPConnectionParams, StdioConnectionParams\r\n\r\ndef get_reddit_mcp_toolset(client_id: str = &amp;quot;&amp;quot;, client_secret: str = &amp;quot;&amp;quot;, user_agent: str = &amp;quot;&amp;quot;):\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    Connects to the Reddit MCP server.\r\n    This server runs as a local subprocess (stdio) and proxies requests to the Reddit API.\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    # Check if \&amp;#x27;reddit-mcp\&amp;#x27; is installed globally, otherwise use npx to run it\r\n    cmd = &amp;quot;reddit-mcp&amp;quot; if shutil.which(&amp;quot;reddit-mcp&amp;quot;) else &amp;quot;npx&amp;quot;\r\n    args = [] if shutil.which(&amp;quot;reddit-mcp&amp;quot;) else [&amp;quot;-y&amp;quot;, &amp;quot;--quiet&amp;quot;, &amp;quot;reddit-mcp&amp;quot;]\r\n    \r\n    # Inject secrets into the environment of the subprocess only\r\n    env = {\r\n        **os.environ, \r\n        &amp;quot;DOTENV_CONFIG_SILENT&amp;quot;: &amp;quot;true&amp;quot;, \r\n        &amp;quot;LANG&amp;quot;: &amp;quot;en_US.UTF-8&amp;quot;\r\n    }\r\n\r\n    if client_id: env[&amp;quot;REDDIT_CLIENT_ID&amp;quot;] = client_id\r\n    if client_secret: env[&amp;quot;REDDIT_CLIENT_SECRET&amp;quot;] = client_secret\r\n    if user_agent: env[&amp;quot;REDDIT_USER_AGENT&amp;quot;] = user_agent\r\n\r\n    return McpToolset(\r\n        connection_params=StdioConnectionParams(\r\n            server_params=StdioServerParameters(\r\n                command=cmd, \r\n                args=args, \r\n                env=env # Pass injected secrets directly to the subprocess\r\n            ),\r\n            timeout=120.0\r\n        )\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf460&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud ドキュメント（ナレッジツール）&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;a href="https://developers.google.com/knowledge/mcp?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Developer Knowledge MCP サーバー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、エージェントが Google Cloud の公式ドキュメントのコーパス全体を検索できるようにすることで、エージェントのグラウンディングを提供します。これは、ローカルの Reddit サーバーとは異なり、Google がホストするマネージド サービスであり、インターネット経由でリモート エンドポイントとしてアクセスされます。セマンティック クエリ用の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;google_developer_documentation_search&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; や、完全なマークダウン コンテンツを取得するための &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;google_developer_documentation_fetch&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; などの特殊なツールが公開されており、エージェントが技術的な主張を行うたびに、最新の確かな事実によって裏付けられるようになっています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;注:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; &lt;/span&gt;&lt;a href="https://blog.google/innovation-and-ai/technology/developers-tools/introducing-gemini-cli-open-source-ai-agent/?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini CLI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;a href="https://antigravity.google/?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Antigravity&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などのコーディング アシスタント ツールをデベロッパー ナレッジ MCP サーバーに接続して、最新の便利な Google Cloud ドキュメントをアシスタントに提供することもできます。このブログ記事を書くときも使っています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;接続するために、エージェントは &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;McpToolset&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; クラスと &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;StreamableHTTPConnectionParams&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用し、ローカル プロセスを起動する代わりにウェブ URL を指定します。リクエスト ヘッダーで渡される &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;DK_API_KEY&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;（&lt;/span&gt;&lt;a href="https://developers.google.com/knowledge/mcp?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;API キーを作成&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）を使用して安全に認証し、エージェントが単一の標準化されたインターフェースを通じて、公式ドキュメント、コミュニティの感情、より広範なウェブ コンテキスト全体で「包括的な調査スイープ」を実行できるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/mcp_config.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;def get_dk_mcp_toolset(api_key: str = &amp;quot;&amp;quot;):\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    Connects to Developer Knowledge (Google Cloud Docs).\r\n    This is a remote MCP server accessed via HTTP.\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    headers = {}\r\n    if api_key:\r\n        headers[&amp;quot;X-Goog-Api-Key&amp;quot;] = api_key\r\n    else:\r\n        # Fallback to os.environ for local testing if not passed via API\r\n        headers[&amp;quot;X-Goog-Api-Key&amp;quot;] = os.getenv(&amp;quot;DK_API_KEY&amp;quot;, &amp;quot;&amp;quot;)\r\n\r\n    return McpToolset(\r\n        connection_params=StreamableHTTPConnectionParams(\r\n            url=&amp;quot;https://developerknowledge.googleapis.com/mcp&amp;quot;,\r\n            headers=headers\r\n        )\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf190&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;画像生成ツール（Nano Banana MCP）&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Reddit とドキュメントには外部 MCP サーバーを使用しましたが、特定の Python ロジックをラップする独自のカスタム MCP サーバーを構築することもできます。この例では、Gemini 3 Pro Image（Nano Banana Pro とも呼ばれます）を搭載した画像生成ツールを作成します。これは、任意の Python 関数を、任意のエージェントが理解できるツールに標準化できることを示しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;画像生成の仕組み:&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://gofastmcp.com/getting-started/welcome" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;FastMCP&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;: &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;fastmcp&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; ライブラリを使用してサーバーの作成を大幅に簡素化し、数行のコードで Python 関数をツールとして登録できるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Gemini のインテグレーション&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: サーバーは Google GenAI SDK を使用して &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gemini-3-pro-image-preview&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; モデルを呼び出し、エージェントの説明的なプロンプトを未加工の画像バイトに変換します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;GCS へのアップロードとホスティング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; エージェント インターフェースでは通常、画像を表示するために URL が必要となるため、サーバーは生成されたバイトを Google Cloud Storage（GCS）に自動的にアップロードし、公開リンクを返します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このローカルツールを接続するには、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;StdioConnectionParams&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用します。これは、サーバーが標準入出力を介して通信するローカル サブプロセスとして実行されるためです。この転送方法は、サーバーのエントリポイントで定義する &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;transport="stdio"&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; 構成に直接一致し、カスタムのローカル スクリプトのシームレスな接続を保証します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードは、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/mcp_config.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; で MCP 接続を定義します。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uv run&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して、すべての依存関係が正しくインストールされている、隔離された環境でサーバーが起動するようにします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/mcp_config.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;def get_nano_banana_mcp_toolset():\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    Connects to our local \&amp;#x27;Nano Banana\&amp;#x27; image generator.\r\n    This demonstrates how to wrap a local Python script as an MCP tool.\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    path = os.path.join(&amp;quot;dev_signal_agent&amp;quot;, &amp;quot;tools&amp;quot;, &amp;quot;nano_banana_mcp&amp;quot;, &amp;quot;main.py&amp;quot;)\r\n    bucket = os.getenv(&amp;quot;AI_ASSETS_BUCKET&amp;quot;)     \r\n    return McpToolset(\r\n        connection_params=StdioConnectionParams(\r\n            server_params=StdioServerParameters(\r\n                command=&amp;quot;uv&amp;quot;, \r\n                args=[&amp;quot;run&amp;quot;, path], \r\n                env={**os.environ, &amp;quot;AI_ASSETS_BUCKET&amp;quot;: bucket}\r\n            ),\r\n            timeout=600.0 # Image generation can take time\r\n        )\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cfc10&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Nano Banana Pro サーバー ロジックの実装&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次に、このサーバーの実際のロジックを実装します。この実装は、Remigiusz Samborski 氏による &lt;/span&gt;&lt;a href="https://www.youtube.com/watch?v=XCGbDx7aSks&amp;amp;list=PLIivdWyY5sqLXR1eSkiM5bE6pFlXC-OSs&amp;amp;index=2" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agent Factory&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; デモの&lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/devrel-demos/tree/a9a5f64a3394a4b5ecc64061f397bd5ed82927ee/ai-ml/agent-factory-antigravity-nano-banana-pro/mcp" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;コード&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;に基づいています。Remi の元のコードには、MCP サーバーを Cloud Run にデプロイする手順が記載されていますが、ここでは開発とテストを迅速に行うために、ローカル サブプロセスとして実行します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず、新しいサーバー用のディレクトリを作成します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;mkdir -p dev_signal_agent/tools/nano_banana_mcp\r\ncd dev_signal_agent/tools/nano_banana_mcp&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cfac0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;サーバー エントリポイント（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;main.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;）&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このファイルは、MCP サーバーを初期化して起動する「頭脳」として機能します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;FastMCP の初期化: &lt;/strong&gt;&lt;code style="vertical-align: baseline;"&gt;FastMCP&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; ライブラリを使用して、「MediaGenerators」という名前のサーバーを作成し、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;generate_image&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; 関数をツールとして登録します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;安全なロギング: &lt;/strong&gt;&lt;code style="vertical-align: baseline;"&gt;_initialize_console_logging&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; 関数が重要な役割を果たします。この関数はすべてのログを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;sys.stderr&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に強制的に出力します。これは、MCP の「stdio」転送がエージェントとツールの間の通信に &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;sys.stdout&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用するためです。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;stdout&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に送信される標準ログは、そのプロトコルを破損させます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;実行&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;mcp.run(transport="stdio")&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; 行は、サーバーをローカル サブプロセスとして起動し、標準入力経由でエージェントからのリクエストをリッスンできるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/nano_banana_mcp/main.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import logging\r\nimport os\r\nimport sys\r\nfrom fastmcp import FastMCP\r\nfrom dotenv import load_dotenv\r\nfrom nano_banana_pro import generate_image\r\n\r\ndef _initialize_console_logging(min_level: int = logging.INFO):\r\n    # Ensure logs go to STDERR so they don\&amp;#x27;t break the MCP stdio protocol\r\n    handler = logging.StreamHandler(sys.stderr)\r\n    logging.basicConfig(level=min_level, handlers=[handler], force=True)\r\n\r\ntools = [generate_image]\r\nmcp = FastMCP(name=&amp;quot;MediaGenerators&amp;quot;, tools=tools)\r\n\r\nif __name__ == &amp;quot;__main__&amp;quot;:\r\n    load_dotenv()\r\n    _initialize_console_logging()\r\n    mcp.run(transport=&amp;quot;stdio&amp;quot;)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf700&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;生成ロジック（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;nano_banana_pro.py）&lt;/code&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ここでは、Gemini を使用して実際に画像が生成されます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;GenAI クライアント:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Google の生成モデルとやり取りするために、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;genai.Client()&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を初期化します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;モデルの選択:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 具体的には &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gemini-3-pro-image-preview&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; モデルを対象とします。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;response_modalities&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を「IMAGE」に設定して、テキストだけでなくピクセルも必要であることをモデルに伝えます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;堅牢性&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: コードには、一時的な生成エラーを処理するための &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;MAX_RETRIES&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; ループ（5 に設定）が含まれており、エージェントが有効な画像を複数回取得できるようにしています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;バイト処理: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;モデルが画像を生成すると、未加工のインライン データとして届きます。これらのバイトを抽出し、ヘルパーを呼び出してクラウドに移動します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;URI 変換:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 最後に、内部の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gs://&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; パスを、ブラウザからアクセス可能な &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;https://&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; URL に置き換え、ユーザーが実際に画像を見られるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/nano_banana_mcp/nano_banana_pro.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import logging\r\nfrom typing import Literal, Optional\r\nfrom google import genai\r\nfrom google.genai import types\r\nfrom media_models import MediaAsset\r\nfrom storage_utils import upload_data_to_gcs\r\n\r\nAUTHORIZED_URI = &amp;quot;https://storage.mtls.cloud.google.com/&amp;quot;\r\nMAX_RETRIES = 5\r\n\r\nasync def generate_image(\r\n    prompt: str,\r\n    aspect_ratio: Literal[&amp;quot;16:9&amp;quot;, &amp;quot;9:16&amp;quot;] = &amp;quot;16:9&amp;quot;,\r\n) -&amp;gt; MediaAsset:\r\n    &amp;quot;&amp;quot;&amp;quot;Generates an image using Gemini 3 Image model.&amp;quot;&amp;quot;&amp;quot;\r\n    genai_client = genai.Client()\r\n    content = types.Content(parts=[types.Part.from_text(text=prompt)], role=&amp;quot;user&amp;quot;)\r\n    \r\n    logging.info(f&amp;quot;Starting image generation for prompt: {prompt[:50]}...&amp;quot;)\r\n    asset = MediaAsset(uri=&amp;quot;&amp;quot;)\r\n    \r\n    for _ in range(MAX_RETRIES):\r\n        response = genai_client.models.generate_content(\r\n            model=&amp;quot;gemini-3-pro-image-preview&amp;quot;,\r\n            contents=[content],\r\n            config=types.GenerateContentConfig(\r\n                response_modalities=[&amp;quot;IMAGE&amp;quot;],\r\n                image_config=types.ImageConfig(aspect_ratio=aspect_ratio)\r\n            )\r\n        )\r\n        if response and response.parts:\r\n            for part in response.parts:\r\n                if part.inline_data and part.inline_data.data:\r\n                    # Upload the raw bytes to GCS\r\n                    gcs_uri = await upload_data_to_gcs(\r\n                        &amp;quot;mcp-tools&amp;quot;,\r\n                        part.inline_data.data,\r\n                        part.inline_data.mime_type\r\n                    )\r\n                    asset = MediaAsset(uri=gcs_uri)\r\n                    break\r\n        if asset.uri: break\r\n\r\n    if not asset.uri:\r\n        asset.error = &amp;quot;No image was generated.&amp;quot;\r\n    else:\r\n        # Convert gs:// URI to an HTTP accessible URL if needed\r\n        asset.uri = asset.uri.replace(\&amp;#x27;gs://\&amp;#x27;, AUTHORIZED_URI)\r\n        logging.info(f&amp;quot;Image URL: {asset.uri}&amp;quot;)\r\n        \r\n    return asset&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cf6a0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;GCS アップロード ヘルパー（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;storage_utils.py）&lt;/code&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェントは画像を表示するためにリンクを必要とするため、このユーティリティは Google Cloud Storage（GCS）でホスティングを処理します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;バケットの動的な選択&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 環境変数でバケット名を探し、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;AI_ASSETS_BUCKET&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; から &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;LOGS_BUCKET_NAME&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; にフォールバックして、データの保存場所が常に確保されるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;一意のファイル名:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 未加工の画像データの MD5 ハッシュを使用して、一意のファイル名を作成します。これにより、ファイル名の競合を防ぐことができ、同じ画像の重複アップロードを回避する簡単な方法として機能します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;クラウド アップロード: &lt;/strong&gt;&lt;code style="vertical-align: baseline;"&gt;blob.upload_from_string&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; メソッドは、未加工の画像バイトを GCS バケットに直接 push します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/nano_banana_mcp/storage_utils.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import hashlib\r\nimport mimetypes\r\nimport os\r\nfrom google.cloud.storage import Client, Blob\r\nfrom dotenv import load_dotenv\r\n\r\nload_dotenv()\r\nstorage_client = Client()\r\nai_bucket_name = os.environ.get(&amp;quot;AI_ASSETS_BUCKET&amp;quot;) or os.environ.get(&amp;quot;LOGS_BUCKET_NAME&amp;quot;)\r\nai_bucket = storage_client.bucket(ai_bucket_name)\r\n\r\nasync def upload_data_to_gcs(agent_id: str, data: bytes, mime_type: str) -&amp;gt; str:\r\n    file_name = hashlib.md5(data).hexdigest()\r\n    ext = mimetypes.guess_extension(mime_type) or &amp;quot;&amp;quot;\r\n    blob_name = f&amp;quot;assets/{agent_id}/{file_name}{ext}&amp;quot;\r\n    blob = Blob(bucket=ai_bucket, name=blob_name)\r\n    blob.upload_from_string(data, content_type=mime_type, client=storage_client)\r\n    return f&amp;quot;gs://{ai_bucket_name}/{blob_name}&amp;quot;&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a88382d30&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;データモデル（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;media_models.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;）&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このファイルにより、データが厳格な構造（スキーマ）に従うことが保証されます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;構造化された出力:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Pydantic &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;BaseModel&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用することで、ツールが常に &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uri&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;（リンク）とオプションの &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;error&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; メッセージを含む一貫した JSON オブジェクトを返すことを保証します。これにより、AI エージェントがツールの結果を理解して処理することがはるかに容易になります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/nano_banana_mcp/media_models.py&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from typing import Optional\r\nfrom pydantic import BaseModel\r\n\r\nclass MediaAsset(BaseModel):\r\n    uri: str\r\n    error: Optional[str] = None&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a88382a90&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;ツールの依存関係（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;requirements.txt）&lt;/code&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コードの実行には &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uv&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用しますが、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;requirements.txt&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; ファイルは、Nano Banana サーバーが機能するために &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uv&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; がインストールする必要がある特定の依存関係を定義するため、依然として不可欠です。これにより、隔離された環境をサーバーの起動前にセットアップするために必要な「材料」が提供されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このファイルには、このツールに必要な 3 つのコアライブラリがリストされています。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;google-cloud-storage:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 生成された画像をクラウドでホストするために使用されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;google-genai:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Gemini 3 Pro の画像生成のロジックを提供します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;fastmcp:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Python スクリプトを標準化された MCP ツールに変えるフレームワークです。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のコードを &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;dev_signal_agent/tools/nano_banana_mcp/requirements.txt&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; に貼り付けます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;google-cloud-storage==3.6.*\r\ngoogle-genai==1.52.*\r\nfastmcp==2.13.*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a883820d0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;まとめ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;シリーズのパート 1 では、Model Context Protocol（MCP）を通じて外部統合を標準化することにより、エージェントのコア機能を確立することに焦点を当てました。高速な依存関係管理のために &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;uv&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用してプロジェクトを初期化し、トレンド発見のための Reddit、技術的なグラウンディングのための Google Cloud ドキュメント、マルチモーダル画像生成のためのカスタム「Nano Banana」MCP サーバーという 3 つの重要なツールセットを構成しました。Google ADK の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;McpToolset&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を利用することで、複雑な API ロジックをシンプルなプラグ アンド プレイ モジュールに抽象化し、ツールが共通のインターフェースを共有してインテリジェンスから統合を切り離せるようにしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;技術的基盤について詳しく確認するには、&lt;/span&gt;&lt;a href="https://developers.google.com/knowledge/mcp?utm_campaign=CDR_0x91b1edb5_default_b485268863&amp;amp;utm_medium=external&amp;amp;utm_source=blog" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Developer Knowledge MCP サーバー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でナレッジ グラウンディングの詳細を確認するか、&lt;/span&gt;&lt;a href="https://github.com/google/adk-python" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google ADK GitHub リポジトリ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でフレームワークのコア機能について調べることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ツールセットが完全に構成され、使用できる状態になったので、パート 2 に進みましょう。パート 2 では、マルチ エージェント アーキテクチャを構築し、Vertex AI Memory Bank を統合してこれらの機能をオーケストレートします。さらに詳しく調べる場合は、&lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/devrel-demos/tree/main/ai-ml/dev-signal" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GitHub リポジトリ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でシリーズ全体の詳細なコードを確認できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;この記事に対して、レビューとフィードバックを提供してくださった&lt;/span&gt;&lt;a href="https://www.linkedin.com/in/remigiusz-samborski/" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt; Remigiusz Samborski &lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;氏に心より感謝いたします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このようなコンテンツをさらにご覧になりたい場合は、&lt;/span&gt;&lt;a href="https://www.linkedin.com/in/shirmeirlador/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;LinkedIn&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://x.com/shirmeir86?lang=en" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;X&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; で私をフォローしてください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;AI / プロダクト / DevRel 責任者、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Shir Meir Lador&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 09 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/developers-practitioners/build-a-multi-agent-system-for-expert-content-with-google-adk-mcp-and-cloud-run-part-1/</guid><category>Developers &amp; Practitioners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/devsignalheroimage.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google ADK、MCP、Cloud Run を使用して専門家向けコンテンツ用のマルチ エージェント システムを構築する - パート 1</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/devsignalheroimage.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/developers-practitioners/build-a-multi-agent-system-for-expert-content-with-google-adk-mcp-and-cloud-run-part-1/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Shir Meir Lador</name><title>Head of AI, Product DevRel</title><department></department><company></company></author></item><item><title>Red Hat OpenShift on Google Cloud を移行およびスケールする新しい方法</title><link>https://cloud.google.com/blog/ja/topics/partners/red-hat-openshift-on-google-cloud-migration-and-scaling-updates/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/partners/red-hat-openshift-on-google-cloud-migration-and-scaling-updates?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;オンプレミス ワークロードを実行している組織は、クラウドに移行する際に、難しい選択によく直面します。それは、ビジネスの基盤となるアーキテクチャの整合性を損なわずに、どのようにモダナイズするかということです。Red Hat OpenShift を使用すると、強制的なプラットフォームの再構築というリスクを負わずに、これらの環境を連携させることができます。Google Cloud は、OpenShift 向けの安全かつ信頼性の高い高性能なプラットフォームを提供し、グローバル スケールおよび独自の費用最適化インテグレーションを実現します。こうした強固な基盤に支えられ、Google はこのたび &lt;/span&gt;&lt;a href="http://www.redhat.com/en/about/press-releases/red-hat-and-google-cloud-expand-collaboration-accelerate-application-modernization-and-cloud-migration-red-hat-openshift" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Red Hat との連携に関するいくつかのアップデート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を発表しました。具体的には、Google Cloud Cluster Services for Red Hat OpenShift、新しいコンソール エクスペリエンス、OpenShift Virtualization on OpenShift Dedicated の一般提供が含まれます。これらのアップデートにより、Google Cloud の高パフォーマンス インフラストラクチャで、コンテナ化されたワークロードと仮想化されたワークロードを実行できるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud インフラストラクチャによる費用の最適化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud のグローバル インフラストラクチャは、パフォーマンス、スケーラビリティ、効率性を重視して構築されており、貴組織の最も重要なアプリケーションに活用できる世界クラスの基盤を提供します。この革新的なインフラストラクチャは、Red Hat OpenShift をデプロイする際に大きなメリットをもたらします。Deutsche Börse、Kohl’s、Salling Group、Amadeus、UPS など、数百もの企業のお客様が、Red Hat OpenShift on Google Cloud で本番環境ワークロードを実行し、Google の信頼性とセキュリティを活用されています。Google Cloud に移行することで、組み込みのテクノロジーを使用して総所有コスト（TCO）を削減し、インフラストラクチャをワークロードのニーズに合わせて最適化できます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;カスタム マシンタイプ:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; CPU とメモリを特定の要件に合わせて調整できるため、あらかじめパッケージ化されたインスタンスで未使用のリソースに対する料金の発生を回避できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Hyperdisk ストレージ プール:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; パフォーマンスと容量を個別にスケールできるため、多数のボリュームの費用を一度に最適化できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Axion プロセッサ:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Google のカスタム ARM ベースのプロセッサを使用して、費用対効果とエネルギー効率を高められます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのツールを使用して得られる金銭的影響は明らかです。&lt;/span&gt;&lt;a href="https://cloud.google.com/solutions/redhat#benefits-of-openshift-on-google-cloud-workload-migration"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Red Hat OpenShift を Google Cloud に移行して得られるビジネス価値&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;に関する IDC の最新調査では、組織が年間平均 2,630 万ドル相当のメリットを得ていることがわかりました。このメリットの大部分は、カスタム マシンタイプや Hyperdisk などのツールを使用してインフラストラクチャ費用を節約することで実現されました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud Cluster Services for Red Hat OpenShift のご紹介&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Cluster Services for OpenShift は、Google Cloud のコアサービスとの OpenShift ネイティブ インテグレーションを提供し、運用を簡素化します。Google は、お客様が既存のアーキテクチャとの整合性を維持しながら、クラウドネイティブな運用モデルをより簡単に導入できるようにしたいと考えています。オンプレミスで OpenShift を使用している多くのお客様にとって、ワークロードをクラウドに移行する際に、どうバランスをとるかが課題になります。アプリケーションの深い依存関係や企業ポリシーによる制約を満たしながら、クラウドの効率性を確保しなければならないからです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud Cluster Services for OpenShift では、マネージド サービスを選択して導入できるため、「オール オア ナッシング」のアプローチから脱却できます。極めて重要な点は、これらのサービスは Google Cloud で利用可能なすべての OpenShift エディションでサポートされていることです。これは、セルフマネージド OpenShift エディションが必須のターゲット アーキテクチャである場合に特に重要になります。複雑なシナリオでも、組織がクラウドネイティブな運用モデルを活用できるようになるからです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのインテグレーションは、Red Hat と Google Cloud が共同で設計およびサポートしており、責任の所在が明確になっています。このサービスには以下が含まれます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;マネージド サービスのインテグレーション:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; OpenShift の使い慣れたインターフェースから、Hyperdisk、Filestore、Cloud Monitoring、マネージド Prometheus、Secret Manager、Workload Identity 連携、Certificate Authority Service、Google Identity などのサービスへの深い連携が可能です。これらのサービスは、OpenShift のユースケース向けにカスタマイズされています。たとえば、1 TB 未満の Filestore インスタンス サイズの有効化や、OpenTelemetry 指標の取り込みのマネージド Prometheus でのサポートが挙げられます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ミドルウェアとインテグレーション レイヤ:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; CSI ドライバ、OpenTelemetry、cert-manager、Secret Store CSI などの業界標準のプラグインと拡張機能を含む堅牢なスタックが提供されるため、ご利用になっているプラットフォームと基盤となるクラウド サービス間の OpenShift ネイティブなインテグレーションを確保できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;環境を健全に保てるよう、Google Cloud Workload Manager を介した&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;構成の検証&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;も導入されています。このサービスは、マネージド サービスとのインテグレーションがベスト プラクティスに準拠しているかどうかを自動的にチェックし、問題があればアラートを発します。また、マネージド サービスの使用によるクラスタのモダナイズの機会も通知します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud コンソールでのクラスタの作成&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;OpenShift の使用は、直感的に始められるべきです。そのため、OpenShift を Google Cloud コンソールに直接統合することで、ガイド付きのエクスペリエンスが実現されました。シンプルなインターフェースで新しいクラスタを作成できるようになったため、Google のプラットフォームで、環境をより迅速にデプロイできます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud コンソールでの OpenShift の操作性により、クラスタ作成の前提条件を確認し、Red Hat Hybrid Console にリダイレクトしてクラスタ作成を完了できるため、クラスタのデプロイが容易になります。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/image1_HNbk2Us.gif"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Red Hat OpenShift Virtualization で VM とコンテナを同時に実行&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、Red Hat OpenShift Dedicated on Google Cloud で利用できる Red Hat OpenShift Virtualization の一般提供も発表いたしました。OpenShift に含まれるこの機能を使用すると、同じプラットフォーム上でコンテナと並行して仮想マシン（VM）を実行および管理できます。Google Cloud ベアメタル インスタンスと Hyperdisk を使用することで、VM を以前の仮想化ソリューションから最新の Kubernetes ベースのコントロール プレーンに移行できます。さらに、OpenShift Virtualization on Google Cloud は、ベアメタル アクセスとハイパーバイザ レベルの構成可能性により、最大レベルの柔軟性を提供します。これには、貴組織のワークロードに適したオーバーコミットをカスタム設定できる機能が含まれており、費用の最適化に役立ちます。OpenShift Virtualization on Google Cloud を使用すると、インフラストラクチャ管理を統合し、独自のペースでクラウドに移行できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;始める&lt;/strong&gt;&lt;/h4&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;さまざまなコンポーネントとその可用性について詳しくは、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/compute/docs/containers/cluster-services-for-openshift-overview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud Cluster Services for OpenShift に関するドキュメント&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;新しいクラスタ作成方法をお試しになるには、&lt;/span&gt;&lt;a href="https://console.cloud.google.com/redhat-openshift"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud コンソール上の OpenShift &lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;にアクセスしてください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;OpenShift Virtualization が VM ワークロードのモダナイズにどのように役立つかについては、&lt;/span&gt;&lt;a href="https://docs.redhat.com/en/documentation/openshift_container_platform/4.21/html/virtualization/installing#compatible-platforms_preparing-cluster-for-virt" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;OpenShift Virtualization に関するドキュメント&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をお読みください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Pablo Osinaga&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;スタッフ ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Bharat Singh&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 09 Apr 2026 00:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/partners/red-hat-openshift-on-google-cloud-migration-and-scaling-updates/</guid><category>Partners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Red Hat OpenShift on Google Cloud を移行およびスケールする新しい方法</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/partners/red-hat-openshift-on-google-cloud-migration-and-scaling-updates/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Pablo Osinaga</name><title>Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Bharat Singh</name><title>Staff Software Engineer</title><department></department><company></company></author></item><item><title>【先着特典あり】Next Tokyo 登録開始！7 月 30 日、31 日 東京ビッグサイト</title><link>https://cloud.google.com/blog/ja/topics/next-tokyo/registration-for-next-tokyo-2026-is-now-open/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;革新的なアイデアを、AI とクラウドで実現しよう&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;旗艦イベント&lt;/span&gt;&lt;a href="https://goo.gle/nx26_gcbg2" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt; Google Cloud Next Tokyo &lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を 2026 年 7 月 30 日（木）、 31 日（金）に東京ビッグサイト 南展示棟・会議棟にて開催します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://goo.gle/nx26_gcbg2" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Next Tokyo 2026 &lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、現場を支えるエンジニアと、未来を担うビジネス リーダーが主役となる舞台です。AI と Google Cloud の最先端トレンドを凝縮し、あなたの戦略を具現化するための具体的なソリューションをお届けします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;未来を築くのは、あなた自身です。Next で得られる最先端の知見や戦略、ツールを手に、次の一歩を踏み出しましょう。革新的なアイデアを現実へと変えるための、多彩な学びがここにあります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://goo.gle/nx26_gcbg2" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;公式サイト&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;からご登録いただき、新たな可能性を切り拓くこの機会に、ぜひご参加ください。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=W0zQUjsyrCE"
      data-glue-modal-trigger="uni-modal-W0zQUjsyrCE-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/Next_Tokyo_26_teaser_video_thumbnail_960x5.max-1000x1000.png);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Google Cloud Next Tokyo 2026&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-W0zQUjsyrCE-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="W0zQUjsyrCE"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=W0zQUjsyrCE"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4 data-draftjs-conductor-fragment='{"blocks":[{"key":"2l2hm","text":"先着 2,000 名様に早期登録特典","type":"unstyled","depth":0,"inlineStyleRanges":[{"offset":0,"length":18,"style":"BOLD"}],"entityRanges":[],"data":{}}],"entityMap":{}}'&gt;&lt;strong&gt;先着 2,000 名様に早期登録特典&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_8_eDM_ZhongnoHuaXiang_500_x_448_pxl.max-1000x1000.png"
        
          alt="4_8 eDM 中の画像 500 x 448 pxl"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud を試すための &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;100 ドル分のクーポン&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を先着 2,000 名様にプレゼント！お早めに公式サイトからご登録ください！&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※クーポンの利用上限 100 ドルを超えると課金されますのでご注意ください&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h4 data-draftjs-conductor-fragment='{"blocks":[{"key":"956ue","text":"基調講演","type":"unstyled","depth":0,"inlineStyleRanges":[{"offset":0,"length":4,"style":"BOLD"}],"entityRanges":[],"data":{}}],"entityMap":{}}'&gt;&lt;strong&gt;基調講演&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_8_eDM_ZhongnoHuaXiang_500_x_448_pxl_1.max-1000x1000.png"
        
          alt="4_8 eDM 中の画像 500 x 448 pxl (1)"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ビジネスの「自律」を実現する&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt; Agentic AI（エージェント型 AI）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; と&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt; Google Cloud の最新技術&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を紹介。日本市場のリーダーが登壇し、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;変革の軌跡と AI による成長戦略&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;のビジョンを提示します。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h4 data-draftjs-conductor-fragment='{"blocks":[{"key":"3pk8d","text":"ブレイクアウト セッション","type":"unstyled","depth":0,"inlineStyleRanges":[{"offset":0,"length":13,"style":"BOLD"}],"entityRanges":[],"data":{}}],"entityMap":{}}'&gt;&lt;strong&gt;ブレイクアウト セッション&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_8_eDM_ZhongnoHuaXiang_500_x_448_pxl_2.max-1000x1000.png"
        
          alt="4_8 eDM 中の画像 500 x 448 pxl (2)"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;9 つの専門分野から、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;次なるイノベーションを形に&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;するセッションをご用意。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;米 Next 最新技術アップデート&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;や国内企業のリアルな活用事例など、実践的な情報を凝縮。また、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;エキスパートに直接質問&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;し、議論を深めるチャンスも！&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h4 data-draftjs-conductor-fragment='{"blocks":[{"key":"atdit","text":"Expo、Learning &amp;amp; Certification","type":"unstyled","depth":0,"inlineStyleRanges":[{"offset":0,"length":29,"style":"BOLD"}],"entityRanges":[],"data":{}}],"entityMap":{}}'&gt;&lt;strong&gt;Expo、Learning &amp;amp; Certification&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_8_eDM_ZhongnoHuaXiang_500_x_448_pxl_3.max-1000x1000.png"
        
          alt="4_8 eDM 中の画像 500 x 448 pxl (3)"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;最新の Agentic AI &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;とクラウドを &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Expo&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; でライブ体験！Gemini 最新モデルの圧倒的な性能を実感してください。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Learning &amp;amp; Certification &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;では、レベルを問わず個々の成長を加速させる最新の学習パスをご提案。あなたのスキルアップを応援します！&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h4 data-draftjs-conductor-fragment='{"blocks":[{"key":"4lo48","text":"入門、スペシャル セッション","type":"unstyled","depth":0,"inlineStyleRanges":[{"offset":0,"length":14,"style":"BOLD"}],"entityRanges":[],"data":{}}],"entityMap":{}}'&gt;&lt;strong&gt;入門、スペシャル セッション&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_8_eDM_ZhongnoHuaXiang_500_x_448_pxl_4.max-1000x1000.png"
        
          alt="4_8 eDM 中の画像 500 x 448 pxl (4)"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud 認定トレーナー「Authorized Training Partner」による&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;入門セッション&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;に加え、公共・ヘルスケア・カルチャー分野の&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;体験型スペシャル セッション&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;も実施します！&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;開催概要&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt; &lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;名称：&lt;/span&gt;&lt;a href="https://goo.gle/nx26_gcbg2" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud Next Tokyo&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（略称 Next Tokyo）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;日時：2026 年 7 月 30 日（木）、31 日（金）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;会場：&lt;/span&gt;&lt;a href="https://maps.app.goo.gl/xZ5bB3SC1MkYQNyc6" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;東京ビッグサイト&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 南展示棟・会議棟&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;対象：エンジニアからビジネス リーダーまで、生成 AI やクラウドを活用して、ビジネスを次のステージへと進めたいすべての方へ&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;- お問い合わせ - &lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud Next Tokyo 運営事務局&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;E-mail: &lt;/span&gt;&lt;a href="mailto:gc-nexttokyo-info@google.com"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;gc-nexttokyo-info@google.com&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/next-tokyo/registration-for-next-tokyo-2026-is-now-open/</guid><category>Next Tokyo</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/GCN26_TOKYO_EDM_2436x1200_20260327_A.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>【先着特典あり】Next Tokyo 登録開始！7 月 30 日、31 日 東京ビッグサイト</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/GCN26_TOKYO_EDM_2436x1200_20260327_A.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/next-tokyo/registration-for-next-tokyo-2026-is-now-open/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>FM Logistic が AlphaEvolve を使って倉庫規模の「巡回セールスマン問題」を解決</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;巡回セールスマン問題とは、「すべての地点を 1 回ずつ訪問する最短ルートは何か」という、一見すると単純な問題です。これはコンピュータ サイエンスにおける最も難しい問題の一つであり、数学者は 1 世紀近くもこの問題に取り組んでいます。また、&lt;/span&gt;&lt;a href="https://www.fmlogistic.com/about-us/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;FM Logistic&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; のポーランドの倉庫作業員が日々直面している課題でもあります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;倉庫は全体でサッカー場 8 面分の広さがあり、ピッキング ポイントの数は 17,700 を超えています。シフトごとの作業員数は数十人にのぼり、その各人が電動車両に乗ってフロアを縦横に駆け巡り、1 度の巡回で数十か所の保管場所を回って段ボール箱を回収します。こうした作業において、不要な経路が積み重なっていくと、時間が無駄になるだけでなく、車両の劣化や、納品の遅延にもつながります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;14 か国以上でグローバル事業を展開する物流プロバイダの FM Logistic は、すでにルーティングを最適化する仕組みを有していました。既存のモデルは、費用優先の高速なルート割り当てロジックに基づき、リアルタイムで応答を得られるようなものです。これはこれでうまく機能していましたが、ルートの判断がその都度行われる仕組みになっており、倉庫全体から見たルート調整能力に限界がありました。一度のシフトで同時に働く作業員数が数十人にのぼることを考えると、ルートがわずかでも改善されれば、大きな効果に直結します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そこで導入されたのが、Google Cloud の &lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/ai-machine-learning/alphaevolve-on-google-cloud?e=0&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlphaEvolve&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI に、もっと優れたアルゴリズムを書いてもらう&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve は、Gemini モデルを使ってアルゴリズムを自律的に生成、改良する進化型のコーディング エージェントです。固定ルールからスケジュールを計算するのではなく、コーディング パートナーのように動作するのが特徴で、新しいコードを記述し、スコアを付け、最初のコードよりも優れたソリューションが見つかるまで反復処理を行います。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この取り組みをゼロから始めたわけではありません。既存のアルゴリズムを AlphaEvolve に「シード」プログラムとして提供しました。このアルゴリズムは、各ステップごとに、最善と思われるルートをその都度採用するというものです。この実際に使用されているアルゴリズム（すでに問題を解決しており、まだ最適化の余地があるもの）をベースラインとして使用し、Gemini を使って変更や新しいロジックを加えて新たなコードを生成して、人間が設計した元のコードを上回ることができるかどうかを調べました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;改善結果の評価&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve によって改善するには、各アルゴリズムのパフォーマンスを測定する方法が必要となります。そこで、60 件の巡回（合計 1 時間以上の作業員データ）を代表的なデータセットとして使ってカスタム評価関数を設計し、生成された数千のアルゴリズムを実際の状況下でテストしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この評価では、「ピックごとの平均移動距離を最小に抑える」という基本的な目標に基づいてコードをスコア付けします。また、運用上の問題を回避するため、フォークリフトの容量超過や、注文品の回収漏れ、同じ箱の重複割り当て、注文の先入れ先出しルール違反、リアルタイム運用で許容される計算時間の超過といった事象にそれぞれペナルティを設け、不適切な解を避けられるようにしています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;結果&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;新しいルーティング ロジックでは、過去最良だったベースラインからの改善をただちに数値で確認できました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;過去最良のソリューションと比較して、ルーティング効率が 10.4% 向上。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;全体で、倉庫内の移動距離が年間 15,000 km 以上削減。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この効率化により、人員や車両を増やすことなく、従来と同じ作業員数および設備でより多くの注文を処理できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;FM Logistic のグループ CIO である Rodolphe Bey 氏は、次のように述べています。「Google Cloud と協力して AlphaEvolve および Gemini を実装したことで、このスピードが要求される業務においてルーティング アプローチをさらに最適化することができました。既存のアルゴリズムもすでに高度に最適化されていたため、そのベースラインを超えることは困難と思われましたが、上乗せで 10.4% の改善を実現しました。この改善は、納品のスピードアップや、労働条件の改善、車両の劣化軽減に直結しています。」&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;最終的に勝ち残ったアルゴリズムの動作&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve の実験を繰り返し、実験のたびに数百の候補プログラムを生成するという方法によって、人間が設計した最良のアルゴリズムを上回る新しいアルゴリズムが生み出されました。この新しいアルゴリズムは、人間が解読可能なルールセットとなっており、倉庫チームが内容を確認して適宜調整することが可能です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;3 つの主な改善点:&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;密度ベースの開始点（アンカー選択）:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 旧システムでは、最も多くのピッキングが必要な一か所を開始点として選択していました。新しいアルゴリズムでは、開始点を広く捉えるようになっています。具体的には、互いに近くにあるアイテム同士をクラスタ化して、アイテムが密集しているエリアを開始点（基点アンカー グループ）として使用します。この方法によって、すべての巡回において開始点の効率が高められます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;距離シミュレーションにおけるフィルタリング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; リアルタイムに通用する速度を維持するため、2 段階の処理プロセスを使用しています。まず、クイックフィルタによって、ルートロジックに適さない注文を除外します。続けて、残った適切な候補に対してのみ厳密な距離シミュレーションを実行することで、スピードを落とすことなく最も効率の良い経路を見つけています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;柔軟なルート構築:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ある出発点から初めて、トラックを効率的に満載にできなくなった場合、無駄なルートを強制することはありません。メインプールにいったん積み荷を戻し、後でもっと良いルートでピックすることで、倉庫全体で効率を向上させています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;次のステップ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ポーランドでの試験運用（現在は本番環境に移行済み）では、倉庫規模の複雑なルーティングにおいて、進化型 AI が役立つことが示されました。FM Logistic は現在、大量の商品を扱っている他の e コマース施設にもこのアルゴリズムを適用することを計画中です。また、&lt;/span&gt;&lt;a href="https://deepmind.google/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlphaEvolve&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を道路輸送にも応用し、トラックが積載量に満たない場合の効率化に役立てられないかどうか探っています。さらに、倉庫内の商品配置にも AI を活用して移動距離をさらに短縮できないかどうか検討中です。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt;&lt;sup&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;このプロジェクトは、FM Logistic チーム（Mateusz Klimowicz、Jarosław Urbański、Florent Martin、Alberto Brogio）、Google Cloud の AI for Science チーム（Kartik Sanu、Laurynas Tamulevičius、Nicolas Stroppa、Chris Page、Gary Ng、John Semerdjian、Skandar Hannachi、Vishal Agarwal、Anant Nawalgaria、他）、Google DeepMind の協力によって実現しました。&lt;/span&gt;&lt;/sup&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;FM Logistic、シニア ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Mateusz Klimowicz 氏&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google、シニアスタッフ ML エンジニア兼プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Anant Nawalgaria&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</guid><category>Retail</category><category>Customers</category><category>Data Analytics</category><category>Google Cloud in Europe</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Gen_AI_4_Multiplayer_Games.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>FM Logistic が AlphaEvolve を使って倉庫規模の「巡回セールスマン問題」を解決</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Gen_AI_4_Multiplayer_Games.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Mateusz Klimowicz</name><title>Sr. Software Engineer, FM Logistic</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Anant Nawalgaria</name><title>Sr. Staff ML Engineer &amp; PM, Google</title><department></department><company></company></author></item><item><title>Vertex AI に Veo 3.1 Lite と Veo の新しいアップスケーリング機能を導入</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 4 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、Vertex AI に、最も費用対効果の高い動画モデルである Veo 3.1 Lite を導入いたします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、この新しいモデルとともに、既存の動画アセットを強化するのに役立つ、Veo のスタンドアロンの新しいアップスケーリング機能も Vertex AI でリリースいたします。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ワークロードに適した Veo モデルの選択&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;動画生成機能をアプリケーションに統合する際は、特定のユースケースに合わせてモデルを選ぶことが重要です。Veo 3.1 ファミリーのティアは 3 つになり、いずれのティアでもネイティブ音声生成機能が利用可能です。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; このモデルは、最終的な制作カットで視覚的な忠実度が最優先される最先端の動画生成向けに設計されています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Fast:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 高品質を維持しながら動画生成を高速化するオプションで、標準的な制作ワークフローに最適です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Lite:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Google の最も費用対効果の高いモデルです。企業は大量の動画アプリケーションを構築し、迅速に反復処理してスケールできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;料金の内訳については、&lt;/span&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/pricing#veo"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI の料金ページ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;完全なガイドについては、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/ai-machine-learning/ultimate-prompting-guide-for-veo-3-1?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Veo 3.1 のプロンプトに関する究極のガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo の新しいアップスケーリング機能でアセットをアップスケール&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;お客様から特に要望の多かった機能は、既存の低解像度動画を高解像度にアップスケールする機能です。限定公開プレビュー版で利用可能で、近日中に公開プレビュー版で利用可能になる Veo の新しいアップスケーリング機能により、Veo、他の AI モデル、従来のカメラのいずれで生成された動画でも、1080p および 4K まで画質を向上させることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のデモで、Veo がアイデアをどのように形にするかをご覧ください。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=1BySW9YaSME"
      data-glue-modal-trigger="uni-modal-1BySW9YaSME-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault_AyzQwc0.max-1000x1000.jpg);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Veo 3.1 Lite&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-1BySW9YaSME-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="1BySW9YaSME"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=1BySW9YaSME"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Lite を今すぐお試しください&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/model-reference/veo-video-generation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI API&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/studio/media/video"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI Media Studio&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を通じてこのモデルにアクセスいただけるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ベスト プラクティスについて詳しくは、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/veo/3-1-generate?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;デベロッパー向けドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-creative-studio/blob/main/experiments/mcp-genmedia/skills/genmedia-video-editor/SKILL.md" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;動画編集者向けのエージェント スキル&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、生成メディア担当グループ プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Sandeep Gupta&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Veo_3.1_lite.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Vertex AI に Veo 3.1 Lite と Veo の新しいアップスケーリング機能を導入</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Veo_3.1_lite.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sandeep Gupta</name><title>Group Product Manager, Generative Media, Google Cloud</title><department></department><company></company></author></item><item><title>LLM 推論の効率的フロンティアに到達するための 5 つの手法</title><link>https://cloud.google.com/blog/ja/topics/developers-practitioners/five-techniques-to-reach-the-efficient-frontier-of-llm-inference/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 28 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/five-techniques-to-reach-the-efficient-frontier-of-llm-inference?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;モデル推論に費やした費用の分だけ、レイテンシとスループットのグラフ上で良いポジションが得られます。上の図には、ハードウェアから可能な限り最大のパフォーマンスを引き出した、最適な構成の曲線が示されています。この曲線は、金融のポートフォリオ理論から借用したもので、&lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Efficient_frontier" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;効率的フロンティア&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;と呼ばれます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ハードウェアの予算が固定されていると仮定すると、レイテンシとスループットをトレードオフできます。ただし、フロンティア曲線自体が移動しない限り、一方を改善するには他方を犠牲にする必要があります。根本的に異なる 2 つのダイナミクスが作用しており、これは本番環境で LLM を実行するすべての人にとって重要なインサイトです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最初のダイナミクスはフロンティアに到達することです。これには、現在利用可能なあらゆる手法を適用することが含まれます。この部分は、自分で制御できます。&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/tutorials/serve-gemma-gpu-tensortllm?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;継続的なバッチ処理&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/best-practices/machine-learning/inference/llm-optimization?hl=ja#model-memory"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;アテンションの分割&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;インテリジェント ルーティング&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/docs/blog/posts/from-research-to-production-accelerate-oss-llm-with-eagle-3-on-vertex?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投機的デコーディング&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/best-practices/machine-learning/inference/llm-optimization?hl=ja#quantization"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;量子化&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;はすべて、現在存在する手法です。これらの手法を使用していない場合、運用がフロンティアを下回り、パフォーマンスを最大限に引き出すことができません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;2 つ目のダイナミクスは、フロンティア自体が常に外側に移動していることです。この部分は、ほとんどの場合、自分で制御できません。研究者は新しいアルゴリズムを発表し、ハードウェア ベンダーは新しいアーキテクチャを出荷し、オープンソース プロジェクトは成熟します。ブレイクスルーが起こるたびに、物理的に達成可能なことが再定義され、曲線が拡大されるため、昨日の最適な構成が今日の非効率になります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プラットフォーム エンジニアの仕事は、フロンティアにできるだけ近い位置を維持しながら、新しい進歩がもたらされるたびにそれを吸収できる十分な柔軟性を持つインフラストラクチャを構築することです。この記事では、そのためのツールをご紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;推論に効率的フロンティアがある理由&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;すべての LLM リクエストには 2 つの計算フェーズがあり、それぞれ異なるハードウェア リソースでボトルネックが発生する可能性があります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;1. プレフィル（コンピューティング バウンド）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: このフェーズでは、GPU が入力プロンプト全体を一度に処理して、アテンション機構の &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/best-practices/machine-learning/inference/llm-optimization?hl=ja#attention-layer-optimization?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Key-Value（KV）キャッシュ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を構築します。命令は並列でバッチ処理されるため、GPU のコンピューティング コア（テンソルコア）の使用率が高くなります。このフェーズは高速かつ効率的です。プロセッサは、大規模な行列乗算を実行するために必要なすべてのデータをすぐに利用できます。プロンプトが長くなると、単純に計算量が増えます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;2. デコード（メモリ帯域幅バウンド）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: このフェーズでは、新しいトークンが一度に 1 つずつ&lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Autoregressive_model" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;自己回帰的&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;に生成されます。1 つのトークンのみを生成する場合、GPU は作業をバッチ処理できません。モデル全体の重みと増大する KV キャッシュを&lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/High_Bandwidth_Memory" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;高帯域幅メモリ（HBM）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;からコンピューティング コアにフェッチする必要があります。その後、GPU はその 1 つのトークンを計算し、次のトークンに対して再び同じ処理を行うのを待ちます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この不一致こそが、フロンティアが存在する根本的な理由です。トレードオフなしに、単一のシステムを同時に両方のフェーズ向けに最適化することはできません。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/prefill-vs-decode.max-1000x1000.jpg"
        
          alt="prefill-vs-decode"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;推論の 2 つの軸&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;LLM 推論の効率的フロンティアでは、リスクとリターンの代わりに、ハードウェア予算が固定されているという前提で、別の基本的なトレードオフが測定されます。&lt;/span&gt;&lt;/p&gt;
&lt;div align="left"&gt;
&lt;div style="color: #5f6368; overflow-x: auto; overflow-y: hidden; width: 100%;"&gt;
&lt;div style="color: #5f6368; overflow-x: auto; overflow-y: hidden; width: 100%;"&gt;
&lt;div style="color: #5f6368; overflow-x: auto; overflow-y: hidden; width: 100%;"&gt;
&lt;div style="color: #5f6368; overflow-x: auto; overflow-y: hidden; width: 100%;"&gt;
&lt;div style="color: #5f6368; overflow-x: auto; overflow-y: hidden; width: 100%;"&gt;&lt;table&gt;&lt;colgroup&gt;&lt;col/&gt;&lt;col/&gt;&lt;col/&gt;&lt;/colgroup&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;軸&lt;/strong&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;a href="https://bentoml.com/llm/inference-optimization/llm-inference-metrics" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;測定される主な指標&lt;/strong&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;ハードウェアの制約&lt;/strong&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;レイテンシ（X 軸）&lt;/strong&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最初のトークンまでの時間（TTFT）+ トークン間の時間（TBT）&lt;/span&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コンピューティング（プレフィル）とメモリ帯域幅（デコード）&lt;/span&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;スループット（Y 軸）&lt;/strong&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;すべての同時ユーザーの 1 秒あたりの合計トークン数&lt;/span&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;td style="vertical-align: top; border: 1px solid #000000; padding: 16px;"&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;バッチサイズ × メモリ容量&lt;/span&gt;&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;費用は、レイテンシとスループットのグラフ自体を購入する制約です。ハードウェアの予算を増やすか、業界が画期的な新しいアルゴリズムを発明すると、フロンティア曲線全体が外側にシフトします。特定の予算とソフトウェア スタックで、最適ではない状態からそのフロンティアに向かって移行するための現在のベスト プラクティスを適用できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;フロンティアに到達する: 制御可能な 5 つの手法&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在、本番環境における大部分の推論システムの運用は、フロンティアを下回っています。優れた手法は存在するものの、そのような手法をまだ採用していないために、パフォーマンスが向上していないのです。このセクションで説明する手法はすべて、現在利用可能なものです。これらの手法を適用しない場合、運用が曲線を下回ることになります。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/interventions.max-1000x1000.jpg"
        
          alt="interventions"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;1. モデル階層間のセマンティック ルーティング&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;すべてのクエリに 4,000 億パラメータのモデルが必要なわけではありません。単純な分類、要約、書式設定のタスクは、トークンあたりの費用が桁違いに安い、より小さな量子化モデルにルーティングできます。ゲートウェイ エッジの軽量分類器がクエリの複雑さを分析し、それに応じてルーティングします。難しい推論にはフロンティア クラスのモデル、それ以外には小規模モデルを使用します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://cloud.google.com/blog/ja/products/containers-kubernetes/how-gke-inference-gateway-improved-latency-for-vertex-ai?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog&amp;amp;e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;セマンティック ルーティング&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;により、システムは理論上の最大スループットに劇的に近づき、簡単なタスクでの無駄なサイクルが回避されます。集約された出力の品質が犠牲になることはありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;2. プレフィルとデコードの分離&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プレフィル フェーズとデコード フェーズを異なるハードウェアに物理的に分離することは、現在利用可能な、アーキテクチャ上最も重要な最適化の一つです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プレフィル フェーズには、コンピューティング能力の高い GPU が必要です。デコード フェーズには、高帯域幅メモリが必要です。両方のフェーズを同じ GPU に強制的に割り当てると、一方のリソースが常に十分に活用されない状態になります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;両方のフェーズをそれぞれ理論上のハードウェア上限に近づけるには、専用のプレフィル クラスタとデコード クラスタを実行します。これらのクラスタを、圧縮された KV キャッシュの状態のみを同じ GPU に転送する高速ネットワークで接続すると、一方のリソースが常に十分に活用されない状態になります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;3. 量子化: 精度と速度のトレードオフ&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/best-practices/machine-learning/inference/llm-optimization?hl=ja#quantization?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;モデルの重み&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を FP16 から INT8 または INT4 形式に減らすと、メモリ使用量を半分または 4 分の 1 に削減できます。デコード フェーズにはメモリ帯域幅の制限があるため、4 ビットの重みは 16 ビットの重みよりも最大 4 倍速く読み取ることができます。このアプローチにより、TBT が直接改善されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;単純な量子化ではモデル出力の品質が低下するため、品質とのトレードオフが生じます。Activation-aware Weight Quantization（AWQ）や GPTQ などの最新の手法では、重要な重みの品質を維持しながら、他の重みを積極的に圧縮して、INT4 の速度で FP16 に近い品質を実現します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;4. コンテキスト ルーティング: ほとんどのチームが見落としている最大の要素&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;数十個のモデルレプリカを使用した本番環境でのデプロイでは、ルーティング レイヤが、現在最大の競争優位性を獲得できるかどうかの分かれ目となっています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;2026 年は、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/open-models/model-garden-published-notebooks/model_garden_advanced_features#prefix_caching_"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;接頭辞のキャッシュ保存&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;が基盤となっています。10 人のユーザーが 100 ページの RAG ドキュメントについてまったく同じ質問をしたり、同一の膨大なシステム プロンプトを使用したりする場合、コンピューティング負荷の高いプレフィル フェーズを 10 回実行すべきではありません。KV キャッシュを一度計算して保存し、他の 9 人のユーザーが再利用できるようにする必要があります。このアプローチにより、TTFT を最大 85% 短縮し、コンピューティング費用を大幅に削減できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ただし、注意点があります。標準の L4 ロードバランサはリクエストをランダムに分散します。ユーザー 2 のリクエストがユーザー 1 のリクエストとは異なる GPU に到達した場合、接頭辞のキャッシュは役に立たず、システムはキャッシュをゼロから再計算する必要があります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コンテキスト認識型 L7 ルーティングが差別化要因となるのはこのためです。インテリジェント ルーターは、受信したプロンプトの接頭辞を検査し、そのコンテキストをキャッシュにすでに保持している特定の Pod に意図的にリクエストをルーティングします。冗長な作業にコンピューティング能力を無駄に費やすことがなくなり、レイテンシとスループットをハードウェアの物理的な上限に即座に近づけることができます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/prefix-aware-routing.max-1000x1000.jpg"
        
          alt="prefix-aware-routing"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;5. 投機的デコーディング&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;重要な点として、デコード フェーズでは、メモリ帯域幅にボトルネックがあるため、テンソルコアはほとんどアイドル状態です。&lt;/span&gt;&lt;a href="https://cloud.google.com/vertex-ai/docs/blog/posts/from-research-to-production-accelerate-oss-llm-with-eagle-3-on-vertex?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投機的デコーディング&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、この無駄な計算能力を利用します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;小規模で高速な「ドラフト」モデルが、複数の候補トークンを低コストで生成します。その後、大規模なターゲット モデルが、すべての候補を単一のフォワードパスで&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;検証&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;します。これは、シーケンシャル メモリ バウンドのオペレーションではなく、並列コンピューティング バウンドのオペレーションです。ドラフトモデルが候補を正しく予測した場合、1 トークンのメモリコストで 4～5 トークンを生成したことになります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このアプローチにより直接、メモリ帯域幅によって設定された TBT の下限よりも短い TBT を達成できます。レイテンシの影響を受けやすいワークロードに投機的デコーディングを使用していない場合、利用可能な最も効果的な最適化の一つを活用できていないことになります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ドラフトモデルを追加すると、運用が多少複雑になり、コンピューティング費用がわずかに増加する可能性がありますが、ドラフトモデルはメインモデルに比べて比較的小さなものです。これとレイテンシをトレードオフする価値はあります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;なお、一部の新しいモデルでは自己投機的デコーディングが導入されており、2 つ目のモデルを管理するオーバーヘッドがなくなります。これらのモデルは、将来の追加トークンを同時に予測するようにトレーニングされた特殊な内部レイヤ（多くの場合、予測ヘッドと呼ばれる）を使用します。これらのモデルは一般に、非常に有意義なトークン ヒット率を達成します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ケーススタディ: Vertex AI がフロンティアに近づいた方法&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Vertex AI エンジニアリング チームは、標準の Kubernetes Gateway API を基盤として構築された &lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/how-gke-inference-gateway-improved-latency-for-vertex-ai?utm_campaign=CDR_0x2b6f3004_default&amp;amp;utm_medium=external&amp;amp;utm_source=blog"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Inference Gateway&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を採用したときに、フロンティアに近づきました。Inference Gateway はレイヤ 7 でリクエストをインターセプトし、2 つの重要なインテリジェンス レイヤを追加しました。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;負荷認識ルーティング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: モデルサーバーの Prometheus エンドポイントからリアルタイムの指標（KV キャッシュ使用率やキューの深さなど）を直接スクレイピングしました。このプロセスでは、リクエストを最も迅速に処理できる Pod にルーティングします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;コンテンツ認識ルーティング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: リクエストの接頭辞を検査し、そのコンテキストを KV キャッシュにすでに保持している Pod にトラフィックをルーティングしました。このプロセスでは、コストのかかる再計算を回避できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;本番環境のワークロードをこのインテリジェントなルーティング アーキテクチャに移行したところ、ネットワーク レイヤの最適化が、大規模なパフォーマンス向上を実現する鍵であることが、Vertex AI チームによって証明されました。本番環境のトラフィックで検証した結果は、以下のとおりです。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Qwen3-Coder（コンテキストの多いコーディング エージェント ワークロード）で &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;TTFT が 35% 短縮&lt;/strong&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;DeepSeek V3.1（バースト性の高いチャット ワークロード）の &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;P95 テール レイテンシが 2 分の 1&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（52%）に改善&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;接頭辞キャッシュ ヒット率が 2 倍&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（35% から 70% に最適化）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;まとめ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;LLM 推論には効率的フロンティアがあります。効率的フロンティアとは、特定のコンピューティング予算に対してレイテンシとスループットの最適なバランスが取れた絶対的な境界を表します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;効率的フロンティアに到達することは、自分で制御できます&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;。現在、継続的なバッチ処理、アテンションの分割、インテリジェント L7 ルーティング、投機的デコーディング、量子化、プレフィルとデコードの分離といった手法が存在します。GKE Inference Gateway のケーススタディでは、ハードウェア、モデル、クラスタサイズを変更せずに、ルーティングのみで、TTFT が 35% 短縮され、キャッシュ効率が 2 倍になったことが示されています。フルスタックを適用しない場合、運用は曲線を下回り、トークンごとに過剰な料金を支払うことになります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;フロンティア自体が外側に移動し続けています&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;。この部分は、自分で制御できません。研究者は新しいアルゴリズムを発表し、ハードウェア ベンダーは新しいアーキテクチャを出荷し、オープンソースのサービング フレームワークはこれらのアルゴリズムとアーキテクチャを統合します。18 か月前には最先端の最適化だったものが、今では基本的な必須事項となっています。次にどのようなブレークスルーが起こるかを予測するのではなく、ブレークスルーが起こったときにそれを吸収できる柔軟なインフラストラクチャを構築することが、あなたの仕事です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;推論エコノミクスで成功する組織は、GPU を最も多く保有している組織ではなく、現在のフロンティアとのギャップを体系的に埋めながら、明日のフロンティアに備える組織です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;これらの最適化手法をご自身の LLM 推論ワークロードに適用したことがある方は、その体験談をぜひお聞かせください。構築したものを &lt;/span&gt;&lt;a href="https://www.linkedin.com/in/karlweinmeister/" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;LinkedIn&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://x.com/kweinmeister" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;X&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://bsky.app/profile/kweinmeister.bsky.social" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;Bluesky&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt; で共有していただければ幸いです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;デベロッパーリレーションズ担当ディレクター、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Karl Weinmeister&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 02:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/developers-practitioners/five-techniques-to-reach-the-efficient-frontier-of-llm-inference/</guid><category>Developers &amp; Practitioners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/hero-image.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>LLM 推論の効率的フロンティアに到達するための 5 つの手法</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/hero-image.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/developers-practitioners/five-techniques-to-reach-the-efficient-frontier-of-llm-inference/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Karl Weinmeister</name><title>Director, Developer Relations</title><department></department><company></company></author></item><item><title>Google Cloud Partner Tech Influencer Challenge 2026 実施のご案内</title><link>https://cloud.google.com/blog/ja/topics/partners/google-cloud-partner-tech-influencer-challenge-2026/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud ではパートナー企業の社員の皆様による技術コンテンツの投稿を応援しています。2022 年より開始した「テクニカル ブログ チャレンジ」は、2025 年から「Google Cloud Partner Tech Influencer Challenge」と名称を変更し、ブログに限らない Web 媒体も対象として実施しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;昨年は 2,500 を超えるコンテンツを投稿頂き大盛況だった本プログラムですが、2026 年度も実施させて頂きます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;本記事では 2026 年度の参加ガイドをご紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h3&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud Partner Tech Influencer Challenge 2026 参加ガイド&lt;/span&gt;&lt;/h3&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;期間&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;：2025 年 11 月 1 日〜2026 年 10 月 31 日&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;対象&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;：上記期間内に初めて投稿されたGoogle Cloud 技術コンテンツとします。技術コンテンツとは、Google Cloud と Google Workspace に関する検証内容、使い方Tips、アーキテクチャ説明を含めた導入事例等を指します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;対象投稿者&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;：パートナー企業にお勤めの方であればエンジニア・非エンジニアは問いません。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿場所&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;：自社のテクニカルブログサイト、自社ホームページ、または Qiita、Zenn、スライド共有サービスといった、Web 媒体（URL が存在して誰でもアクセスできるもの）にご投稿ください。テキストベースのブログコンテンツだけでなく、YouTube などの動画コンテンツも対象となります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;参加方法&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;：&lt;/span&gt;&lt;a href="https://goo.gle/techinfluencer2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;エントリーフォーム&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; にてコンテンツの URL をご登録ください。1つのフォームで最大 10 の投稿をエントリーできます（1 記事ずつお送りいただいても問題ありません）。期間内であれば、新規の投稿を何回でもエントリーいただけます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;優秀コンテンツの発表&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;チャレンジ期間の終了後、後述の評価基準に応じて入賞企業および個人を選出いたします。選出されたコンテンツとその執筆者は本ブログで公開いたします。昨年の入賞コンテンツは&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/partners/google-cloud-partner-tech-influencer-challenge-2025-winners/"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちらのブログ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;またチャレンジ期間中に数回、ご応募いただいたコンテンツを厳選して紹介する特集記事も公開を予定しています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;span style="vertical-align: baseline;"&gt;評価基準&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;以下の賞を予定しておりますが、内容は変更となる可能性がございます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;企業の部&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;最優秀賞（発信数、昨年度からの伸び率によって選定）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Gemini Enteprise 賞（Gemini Enterprise の機能紹介や検証記事等の投稿数や内容によって総合的に選定）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;個人の部&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;マルチメディア賞（ユニークなメディア媒体を用いていただいたコンテンツ）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Gemini 賞（Gemini による審査で特に優秀と判断されたコンテンツ）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Deep Dive 賞（製品技術についての How to や深堀りいただいたコンテンツ）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud Next 特集のお知らせ&lt;/span&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次回は 2026 年 4 月 22 〜 24 日にラスベガスで開催する Google Cloud Next に関する技術コンテンツの特集を予定しています。2026 年 5 月末までにご応募いただいたコンテンツから優秀なものを抜粋して本ブログで公開いたします。冒頭の &lt;/span&gt;&lt;a href="https://goo.gle/techinfluencer2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;エントリーフォーム&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; よりたくさんのご応募をお待ちしております。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/partners/google-cloud-partner-tech-influencer-challenge-2026/</guid><category>Partners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Tech_Influencer_Challenge_2026.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google Cloud Partner Tech Influencer Challenge 2026 実施のご案内</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Tech_Influencer_Challenge_2026.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/partners/google-cloud-partner-tech-influencer-challenge-2026/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>市場 孝之 </name><title>Google Cloud Japan　カスタマーエンジニア</title><department></department><company></company></author></item><item><title>エージェント型 AI の時代を支える Spanner のマルチモデルによる強み</title><link>https://cloud.google.com/blog/ja/products/databases/spanners-multi-model-advantage-for-agentic-ai/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 1 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/spanners-multi-model-advantage-for-agentic-ai?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェント型 AI の時代を迎え、データベースの役割は根本的に変わりつつあります。データベースは、もはや単なる受け身のデータ保管場所ではありません。生成 AI の基盤モデルを支え、先回りしたアクションを促す推論エンジンの土台となる、インテリジェントで能動的なコンテキスト ハブへと進化しています。高度な AI やエージェント型ワークフローを支えるには、データベースは単にデータを保存して検索するだけでは不十分です。複数のデータモデルが共存する環境の中で、推論を支援し、豊かなコンテキストを提供し、静的な情報から先を見越したアクションを導く役割が求められます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;マルチモデル データベースというアプローチでは、分断されたサイロ間でデータを手作業で連携させる代わりに、リレーショナル データ、ベクトルデータ、グラフデータを統合し、豊富で一元化されたナレッジベースを構築できます。これにより AI は、状況に関するコンテキスト、意味的なコンテキスト、関係性のコンテキストを同時に活用できるようになります。Google Cloud の &lt;/span&gt;&lt;a href="https://cloud.google.com/spanner?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Spanner&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、グローバルな整合性、スケーラビリティ、フルマネージドの運用性を備えたデータベースとして、AI 時代を見据えて設計されています。データを統合し、高度なエージェント型 AI を支えるための一貫したアプローチを提供します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この投稿では、Spanner が組織の AI 活用を本番運用レベルへと引き上げるうえで、どのように役立っているのかを見ていきます。さらに具体的な事例を知りたい方は、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/customers-see-real-world-success-with-multi-model-spanner"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;関連する記事&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;もあわせてご覧ください。そこでは、不正検出、パーソナライズされたおすすめ表示、ハイブリッド検索、自律型ネットワーク運用という 4 つの主要分野を取り上げています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;相互運用性を備えたマルチモデル データベースの力&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在一般的に行われている分断された複数データベースの運用戦略には、次のような重大な課題があります。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;データの不整合:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 信頼できる単一の情報源が存在しないため、開発者は壊れやすいアプリケーション コードによって無理に整合性を保たなければなりません。その結果、データの重複や陳腐化が生じるだけでなく、ガバナンスやセキュリティ上の深刻な脆弱性につながります。最終的には、アプリケーション全体の信頼性は、最も SLA の低いデータベースに左右されてしまいます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;運用とスキルのサイロ化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 異なるシステムを個別に管理することは、膨大な運用負荷を生むだけでなく、チームを専門スキルごとの縦割り構造に分断します。その結果、「複雑性のコスト」が発生し、コストの増大と開発スピードの低下を直接招きます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;統合インテリジェンスを阻む要因:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 本質的なデータサイロに加え、ETL に伴う遅延がアーキテクチャ上の障壁となり、先進的な AI アプリケーションに不可欠な、リアルタイムで文脈を理解するインテリジェンスの実現を妨げます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした課題が重なることで、AI 時代において大きな構造的不利が生じます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Spanner がもたらす AI 時代の優位性&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google は長年にわたり、最も要求の厳しいクラウド ワークロードにも対応できるよう、Spanner を継続的に進化させてきました。そして生成 AI の登場により、データベースにはこれまでにない新たな課題への対応が求められています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そうした中、Spanner はその中核基盤を土台に、昨年、相互運用性に優れたマルチモデル機能を導入しました。これにより、リレーショナル、Key-Value、グラフ、ベクトルといった多様なモデルを用いて、単一の高性能なデータベース基盤の中でデータにアクセスし、クエリを実行できるようになりました。各データモデルは、それぞれ独自の強みを備えています。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;リレーショナル: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Spanner は、リレーショナル スケールアウト データベースの先駆けとして、Google SQL と PostgreSQL の両方の言語で ANSI SQL を提供し、世界規模で可用性 99.999% と強整合性を実現しています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Key-Value: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Spanner は高性能な Key-Value データベース機能も備えています。Cassandra ネイティブ エンドポイントにより、アプリケーション コードを変更することなく、Cassandra のワークロードを Spanner に容易に移行できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;グラフ&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: ISO 標準の GQL を基盤としており、データをネイティブなグラフとしてモデル化することも、リレーショナル データの上にシンプルなオーバーレイとして表現することも可能です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ベクトル: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;KNN と ANN の両方に対応した、完全統合型のセマンティック検索ソリューションを提供します。特に ANN は、Google が持つ最先端の ScaNN 技術を用いて構築されており、100 億を超えるベクトルを含むインデックスにも対応できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;全文検索&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: Google が数十年にわたり培ってきた検索技術を基盤に、40 以上の言語に対応した高度な情報検索機能を標準で備えており、構造化データと非構造化データの両方を横断して検索できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;データ ウェアハウスとの統合:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; トランザクション データと、分析処理から得られるインサイトをシームレスに結び付けることができます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この統合アーキテクチャにより、複数の専用データベース間で複雑なデータ同期を行う必要がなくなり、環境を大幅に簡素化しながら開発を加速できます。お客様は Spanner の相互運用性に優れたマルチモデル機能を活用することで、異なる種類のデータをシームレスに組み合わせられるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI をグローバル規模で成功へと導く企業&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;a href="https://www.makemytrip.com/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MakeMyTrip&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、Spanner のマルチモデル機能を活用し、厳しい実運用環境の中で AI を本番導入している数多くの企業の一つです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;インドを拠点とするオンライン旅行会社 MakeMyTrip は、4 つの専用データベースを単一の Spanner インスタンスに統合することに成功しました。これにより、運用の複雑さを大幅に軽減するとともに、AI イノベーションを加速させ、高性能で高品質なアウトプットを実現しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;MakeMyTrip でテクノロジー開発を統括する Ravindra Tiwary 氏は、Spanner への移行が組織にもたらしたさまざまなメリットについて、次のように述べています。&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私たちは MongoDB、Neo4j、Elasticsearch、Qdrant を 1 つの統合システムに集約し、運用の複雑さを 75% 削減しました。この移行によって、複数のデータベースごとの違いに対応する負担や、重複した同期パイプラインを管理する手間が解消されました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;とりわけ大きな変化をもたらしたのは、語彙検索、キーワード検索、埋め込み検索を横断する統合クエリを、単一のプラットフォーム上で実行できるようになったことです。この統合により、統合ビュー機能の開発サイクルは 30% から 50% 加速し、目的地ごとに週 5.5 時間から 9.5 時間の運用工数を削減できました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;さらに、Spanner を信頼できる単一の情報源として活用することで、データドリフトを解消し、事実情報をアトミックに更新できるようになりました。その結果、回答品質スコアは 9% 向上しました。Spanner は今や、当社の『Destination Expert』エコシステム、すなわちパーソナライズされた旅行提案を行う自社開発の生成 AI 搭載旅行プランナー bot と、今後の AI ワークフローを支えるうえで不可欠な、スケーラブルかつ高性能な基盤となっています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI 活用の取り組みで新たな到達点に達したのは、MakeMyTrip だけではありません。Target、Palo Alto Networks、MasOrange といった先進的な企業が Spanner を活用してどのように成果を上げているのかについては、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/customers-see-real-world-success-with-multi-model-spanner"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;次回の投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でご紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Spanner を活用した自社の AI 活用を始めるには、&lt;/span&gt;&lt;a href="https://cloud.google.com/spanner?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Spanner のページ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。詳細を確認し、今すぐ取り組みを始めることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;グループ プロダクト マネージャー&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Wenzhe Cao&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/databases/spanners-multi-model-advantage-for-agentic-ai/</guid><category>Databases</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/multi-model-spanner-ai-foundations-hero.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>エージェント型 AI の時代を支える Spanner のマルチモデルによる強み</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/multi-model-spanner-ai-foundations-hero.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/databases/spanners-multi-model-advantage-for-agentic-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Wenzhe Cao</name><title>Group Product Manager</title><department></department><company></company></author></item><item><title>AI 搭載ツールが切り拓く、サステナブルなインフラとレポートの次なる潮流</title><link>https://cloud.google.com/blog/ja/topics/sustainability/ai-tools-for-sustainable-infrastructure-and-reporting/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 1 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/sustainability/ai-tools-for-sustainable-infrastructure-and-reporting?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;生成 AI の活用が広がるなか、サステナビリティとテクノロジーが交わる領域で大きな変化が起きています。これまで報告業務を担うチームは、散在するデータの収集や手間のかかる文書作成に多くの時間を取られ、サステナビリティ戦略そのものに十分に注力できない状況にありました。ところが、AI を導入し始めた組織では、前年の実績や影響を説明するための作業に費やす時間が減り、その分、先を見据えたレジリエンス強化により多くの時間を充てられるようになっています。その結果、業務の効率化とスピード向上が進んでいます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;サステナビリティ チームは、財務データ、施設面積、エネルギー使用量、材料消費量など、複数の異なるデータソースをもとにレポートを作成しなければならないことが少なくありません。しかも、報告基準は急速に変化しています。そのため、複数のデータソースをまたいで正確性を確保するのは難しく、ひとたび誤りがあれば、その影響も大きいという特有の課題があります。Google では、この課題に対応するため、この 2 年にわたり、自社の環境報告プロセスに AI を取り入れ、その有効性を検証しながら統合を進めてきました。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;Google がレポート作成に AI をどう活用しているのか&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず Google は、自社の社内報告プロセスそのものを、AI ソリューションの実験の場として活用しました。&lt;/span&gt;&lt;a href="https://sustainability.google/google-2025-environmental-report/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;環境報告書&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;の作成にあたっては、環境に関する記述を確認する最初のレビュー プロセスに Gemini を試験的に導入し、草案に含まれる記述を社内ポリシーやベスト プラクティスと自動的に照合しました。この自動化は、専門家の役割を置き換えるものではなく、むしろその力を引き出すものです。人のレビュー担当者は、個々の記述を毎回ゼロから確認するのではなく、AI による評価結果の妥当性を見極めることに集中できます。また、&lt;/span&gt;&lt;a href="https://notebooklm.google.com/notebook/62e5c8db-3dd2-407c-8d19-32ae4ae799db" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;NotebookLM&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を活用して静的な環境報告書を対話型のナレッジベースへと変換し、利用者が複雑なデータについて質問すると、出典付きの回答を即座に得られるようにしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;私たちのチームは、効果のあったプロンプトや、期待どおりに機能しなかったプロンプトから得た教訓も含め、実験の内容と進捗を&lt;/span&gt;&lt;a href="https://sustainability.google/reports/ai-playbook-for-sustainability-reporting/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;オープンソースの AI ハンドブック&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;に記録しました。こうした取り組みを文書化するなかで、AI は単なる効率化のためのツールではなく、より大きな成果を生み出す触媒でもあることを実感しました。レポート作成に伴う複雑で手作業の多い工程を効率化することで、ファイルやデータの管理に費やす時間を減らし、その分、世界を前に進めるための戦略の推進に、より多くの時間を充てられるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;Equinix におけるサステナビリティ データレイクの構築&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;デジタル インフラストラクチャ プロバイダである &lt;/span&gt;&lt;a href="https://sustainability.equinix.com/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Equinix&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、Google Cloud の支援を受けながら、報告業務の変革に取り組みました。顧客から寄せられるサステナビリティ関連の要望が前年比で 46% 増加するなか、Equinix のチームは、手作業によるスプレッドシート運用ではもはや対応しきれないと判断しました。そこで必要とされたのが、リアルタイムの意思決定を支える仕組みでした。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Equinix は &lt;/span&gt;&lt;a href="https://cloud.google.com/bigquery?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;BigQuery&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 上にサステナビリティ データレイクを構築し、世界 240 箇所以上の拠点からデータを自動的に取り込めるようにしました。これにより、従来は手作業でのデータ クリーニングに数週間を要していた報告サイクルが、必要なときにすぐ活用できるインサイトを提供する仕組みへと生まれ変わりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;「私はもはや単なるデータ アナリストではなく、戦略アドバイザーとしての役割を担っています」と、Equinix のサステナビリティ担当シニア マネージャーである Alexa Cotton 氏は述べています。「当社のサステナビリティ データは、今や戦略的な資産であり、年間経常収益（ARR）の 60% 以上に影響を与えています。私たちは事後対応型の姿勢から脱却し、エネルギーとコストの双方を削減できる自動化されたアクションに目を向けるようになりました。」&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=u-ip7tMgJhE"
      data-glue-modal-trigger="uni-modal-u-ip7tMgJhE-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/u-ip7tMgJhE/maxresdefault.jpg"
             alt="Navigating the Storm: A Blueprint for AI-Powered Sustainability Reporting"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-u-ip7tMgJhE-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="u-ip7tMgJhE"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=u-ip7tMgJhE"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;サステナビリティを設計段階から組み込む: Well-Architected Framework（WAF）の活用&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Equinix は、AI による革新を実現するには、まず強固なデータ基盤が不可欠であることを示しました。また、レガシーな業務プロセスのモダナイズは、適切なアーキテクチャに基づいて進めることで、効率向上にもつながることを実証しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Equinix は BigQuery を活用したサーバーレス アーキテクチャへ移行し、コスト、パフォーマンス、環境負荷という 3 つの面で成果を上げました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;サーバーレスの弾力性を生かすことで、必要な分のコンピューティング リソースだけを使い、その分だけを支払う運用を実現した結果、「ゾンビ」サーバーは不要となり、無駄なエネルギー消費も削減されました。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;BigQuery はワークロードのスケーリングと最適化をプログラムによって自動的に処理するため、リソース配分における人的ミスを抑えつつ、データレイクが拡大しても、無駄を最小限に抑えながら高い性能を維持できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Google のカーボン インテリジェントなデータ インフラストラクチャを活用することで、「ワット当たりのパフォーマンス」を根本から改善し、報告業務という要件を、運用効率の高さを示す好例へと変えました。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらは、Google の &lt;/span&gt;&lt;a href="https://cloud.google.com/transform/ja/betting-on-efficient-ai-the-4-ms?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Well-Architected Framework における「4 つの M」&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、すなわち Machine、Model、Mechanization、Map を体現する優れた事例です。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;アンビション ループ&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Equinix で進められている取り組みは、私たちが「アンビション ループ」と呼ぶ好循環を生み出しています。アーキテクチャ レベルで改善に取り組むことは、単にサステナビリティ レポートの要件を満たすためだけではありません。経済性の向上にも直結し、その結果としてサステナビリティの成果も高まり、最終的には報告できる実績そのものの向上へとつながっていきます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;詳しくは、Google の「&lt;/span&gt;&lt;a href="https://sustainability.google/reports/ai-playbook-for-sustainability-reporting/" rel="noopener" target="_blank"&gt;&lt;strong style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;AI Playbook for Sustainability Reporting&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（サステナビリティ レポートのための AI ハンドブック）」と、新たに追加された「&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/architecture/framework/sustainability"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;WAF sustainability pillar&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」（WAF のサステナビリティの柱）をご覧ください。これらを手がかりに、データを AI 活用へとつなげる取り組みを始めることができます。ともに、レポートの未来、そしてよりレジリエントな世界を築いていきましょう。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;サステナビリティ担当グローバル マーケット リード&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Denise Pearl&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;サステナビリティ レポート担当シニアリード&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Luke Elder&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/sustainability/ai-tools-for-sustainable-infrastructure-and-reporting/</guid><category>Sustainability</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI 搭載ツールが切り拓く、サステナブルなインフラとレポートの次なる潮流</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/sustainability/ai-tools-for-sustainable-infrastructure-and-reporting/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Denise Pearl</name><title>Global Market Lead, Sustainability</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Luke Elder</name><title>Senior Lead, Sustainability Reporting</title><department></department><company></company></author></item><item><title>AI リテラシーの新しい形: 学生デベロッパーを対象とした調査結果</title><link>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI により、学生デベロッパーはかつてないレベルで作業を効率化し、難しい問題を解決したり、野心的なプロジェクトに取り組んだりできるようになりました。一方、この新技術の登場によって、技術専攻の学生たちは学習について本質的な問いに向き合うようになってきています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;それは、AI をどの程度、何に使用すべきか、という問題です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://dora.dev/dora-report-2025/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google の DORA 2025 レポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;によると、現在、日々の業務で AI を使用している技術者は 90% に達しています。こうした状況の中で、次世代が AI ツールとどう付き合っているのかを理解することがこれまでになく重要になっています。カリフォルニア大学バークレー校の学生を対象とした Google の調査では、学業における不正行為や知的作業の省略といった懸念を覆す結果が明らかになりました。学生は AI を近道としてではなく、学習パートナーとして捉え、タスクによって意図的に使用したり、使用を控えたりしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI がソフトウェア開発の基盤となるにつれ、AI ツールを導入するかどうかよりも、懸命な活用方法が焦点になってきています。カリフォルニア大学バークレー校の学生たちは、その答えの一つを示してくれます。それは、彼らのもつ好奇心や、慎重さ、学習に対する純粋な意欲を、AI は支えることはできても、取って代わることはできない、ということです。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;カリフォルニア大学バークレー校の 4 人の学生チーム（Andrew Harlan、Mindy Tsai、Kenny Ly Hong、Karissa Wong）が、学業での AI の利用状況を把握するため、コンピュータ サイエンス、電気工学、デザイン、データ サイエンス専攻の学生を対象に調査を実施しました。この調査には、混合手法を使用しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、同校の別のチーム（Edward Fraser、Jessie Deng、Eileen Thai）が、デベロッパー歴 1～5 年の人々を対象に、アイ トラッキング技術を使って AI コーディング アシスタントの使用状況を観察しました。両チームとも専任メンターの支援のもと調査を進め、混合手法調査については Google 社員の Harini Sampath、Becky Sohn、Derek DeBellis が、アイトラッキング調査についてはカリフォルニア大学バークレー校の John Chuang 教授（博士）が助言を行っています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの調査から、学生が AI を活用すると同時に、真の専門知識を身につけるためにどのような方法をとっているのか、3 つの重要な結果が明らかになりました。学生の間で見られるパターンは、実際に開発職に就いている人々を対象にした DORA の調査結果とよく似通っています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 1: 24 時間 365 日、いつでも頼れる先生&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI は近道ではなく家庭教師&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;調査で AI との関係性について尋ねられた学生は皆一様に、学びの場ならではの言葉を使いました。AI のことを、アシスタントや生産性向上ツールではなく、「家庭教師」や「先生」と呼んでいたのです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI は教師のような存在です。内容の濃い資料を解説してもらったり、データベースにあらかじめ記述されているコードを部分的に説明してもらったりするなど、プロジェクトの基礎的な部分について理解を深めるためにとても役立っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「[AI を] お抱えの家庭教師として利用しています。授業や講義の特定のトピックの [理解を深める] ために。コンピュータ サイエンスだけでなく、あらゆる授業で使っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ここで重要なのは、学生が AI に依存せず、計画的に使用しているということです。AI に課題を完成させるのではなく、自分の理解度を踏まえて AI を使用し、知識の抜けを特定したり、不確かな概念を明らかにしたり、学習プロセスをリードしてもらったりしています。回答の中には、講義で取り上げられた複数の学術論文を要約してもらい、どれを深く読みこむべきかを判断するといった使い方や、コードでエラーが発生する理由を AI に説明してもらう、といったものがありました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ある学生は、学習プロセスに次のように組み込んでいます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「教授の説明がわからなかったときは AI に尋ねます。たとえば、ある概念や、コードの機能について説明してもらったりします。また、ラボのどこから手をつけたらよいかわからないときは、AI にプロンプトで尋ねます。それからコードを書き始め、修正すべき点を尋ねるといった具合です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学習障がいのある学生にとっては、常に利用できるという点が、不利な状況を克服するために役立っています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私は学習障がいがあるため、問題を理解するのに人より時間がかかります。AI にはすごく助けられています。24 時間 365 日、いつでも付いていてくれるサブ教師のような存在です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI を使えば、学校の営業時間に縛られることなく、いつでも理解を掘り下げられます。AI のおかげで脳の処理能力に余裕が生まれ、より高度な思考が可能となります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「実際にコーディングする時間は減り、全体のアイデアを練るのに時間をかけられるようになりました。今では、手動でコードを生成する代わりに、ロジックとコンセプトの検討や、アイデアの創出に時間を費やしています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうしたコメントから、AI が最終的な作品を仕上げるためではなく、探索ツールとして利用されている様子が浮かび上がります。これは、DORA の調査結果と一致しています。調査によると、AI がルーチンワークを引き受けることで、デベロッパーはユーザーへの価値提供に専念できるようになっています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 2: 過度な依存に対する積極的な抵抗&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;学びのプロセスを守るために、境界線を設ける&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生たちは、AI を学習ツールとして活用する一方で、AI への過依存への不安を率直に表現しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI がなくなったら、自分で解決方法を探すのに苦労してしまうかもしれません。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エッセイ執筆中の脳活動を脳波検査で測定した最近の研究では、AI の利用者は、検索エンジンやツールを使用しない人に比べ、認知エンゲージメントのパターンが弱いことがわかりました。また、AI のヘビーユーザーが、アシスタントを使わずにエッセイを書いてみたところ、以前に書いた作品についての記憶があまりなく、自分の作品であるという意識も低いことがわかりました。このことを、論文の著者は「認知の負債」と表現しています。&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;1&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;一方で、ポジティブな兆候が明らかになりました。学生たちは、この認知上のリスクをただ受け入れるのではなく、意図的に境界線を設けて対応しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;機械工学専攻のある学生は、電子機器を何年も使用するうちに、以下のように能力ベースの AI 使用ルールを確立したといいます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「サーボや超音波などの基本的センサーなら自分でコーディングできますが、複雑なセンサーで、かつ、機能を厳密に把握する必要性がないときは、AI を使用します」と回答し、次のように説明しています。「何かがうまくいかないとき、その理由を理解できても、問題を解決するための直接的な言語を知らない場合があります。AI は、そのような状況で役立ちます。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この学生は、最近携わったプロジェクト（触って操作できるストーリーテリング ツールの構築）において、基本的なコンセプトを理解した後、カウントおよび比較のシステム構築のために助けを求めたとのことです。「AI は、基本構造のセットアップに大変役立ちましたが、その後、微調整のコーディングは自力でやる必要がありました。」また、作業の振り分けについては、次のように明確な意見を述べています。「自分でも引き続き、コードを書いています。技術者のように丸投げするわけではなく、AI と共同で作業を進め、私が司令塔となって AI にやってほしいことを指示します。ただやみくもにリクエストしても、まったく役に立ちません。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生が AI を利用する際には、明確な利用ルールを設けているケースが多く見られました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI にはたまに、完全な答えではなく方向性だけを示すように頼みます。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;過度な依存を避けるため、学生は以下のような具体策を編み出しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;高度なモデルの利用を避ける:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「料金制の AI ツールを使用するつもりはありません。AI モデルを使いすぎてしまう恐れがありますから。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI の使用、不使用を交互に繰り返す:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「for ループの処理など、一部の処理はまた自分で書くようになりました。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;「バイブ コーディング」を警戒する:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI ツールがデベロッパーの生産性を高めるために役立つことは間違いありません。ただし、バイブ コーディングに慣れてしまわないよう、十分な注意が必要です。AI が生成するコードを理解して検証し、適切な方法で使用するということが大前提です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした懸念は、学生たちが認知について意識的に考えているということを示しています。彼らは、一番楽な方法が最も学習効果が高いわけではないと認識しています。これは DORA の調査結果とも一致しています。調査によると、AI の導入率が 90% にのぼるにもかかわらず、利用者の約 30% が AI が生成したコードをほとんど（あるいはまったく）信用していないと答えています。AI を効果的に使用するには、単に導入するだけでなく、厳しい評価と検証の方法を習得することが求められます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 3: AI の使いどころを心得ている&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;アイ トラッキング データからわかったこと&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;アイ トラッキング技術を使用した調査では、人の動作の面から検証を行いました。1～5 年の経験を持つデベロッパーを対象に、AI コーディング アシスタントとやり取りする様子を観察したところ、タスクの種類によって AI の利用に大きな違いがあることがわかりました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;思考と深い理解が必要なタスク&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI への視覚的注目が 1% 未満&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;機械的なタスク（ボイラープレート コードなど）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI への視覚的注目が 19%&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;高度な作業においては、たとえ AI の提案が正確で時間の節約につながるような場合でも、敢えて無視されていることがわかりました。深い理解が必要なときは、AI は認知上の負担となります。熟練デベロッパーは、AI をオフにすべきときを心得ています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;すべてを任せるのではなく、意図的に取り入れる&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生への聞き取り調査からも、学生が AI を用途に応じて使い分けている様子が伺えます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私は普段、とっかかりとなるアイデアを得るために AI を使っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI の使用が許可されていることは知ってましたが、学習と試行錯誤のプロセスを大事にしました。創造性の余地も必要です。」&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;カスタマイズが肝&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在、ほとんどの AI コーディング アシスタントは、インライン提案のオン / オフを切り替えたり、オンデマンド専用モードに設定したり、提案頻度を調整したりできます。これらの設定を試して、タスクとその認知要件に応じて AI を使い分けることで、ルーチンワークでは助けてもらいつつ、自分で深く考えたい仕事の邪魔をされないようにすることができます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;この調査結果が業界において意味すること&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI を利用した開発の未来を形作っていくのは、今の学生たちです&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;調査に協力してくれた学生たちは、時代の一歩先をいっており、すでに AI リテラシーを身につけています。用途に応じた使い分けや、出力の検証方法を心得ており、自らの理解力を維持するためにときには敢えて手動で作業するといった対策をとっています。AI 導入を検討中の方にとって、こうした学生の経験は、進むべき方向を探るヒントとなります。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;さまざまなカスタマイズ設定を試す&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 作業の妨げとならず、助けとなるような設定を見つけましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ワークフローに検証プロセスを取り入れる&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI の提案を無批判に受け入れないようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;自分の聖域を確保する&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: スピードよりも深い理解が重要となる高度な問題には、AI の助けを借りずに自分で取り組むようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI がソフトウェア開発の基盤となるにつれ、AI ツールを導入するかどうかよりも、懸命な活用方法が焦点になってきています。カリフォルニア大学バークレー校の学生たちは、その答えの一つを示してくれます。それは、彼らのもつ好奇心や、慎重さ、学習に対する純粋な意欲を、AI は支えることはできても、取って代わることはできない、ということです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;業界の専門家が AI の導入をどのように進めているかについて詳しくは、&lt;/span&gt;&lt;a href="https://dora.dev/dora-report-2025/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;2025 年 DORA レポート: AI 支援によるソフトウェア開発の現状&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をダウンロードしてご覧ください。&lt;/span&gt;&lt;a href="https://dora.dev/insights/tags/uc-berkeley/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;カリフォルニア大学バークレー校の研究者との共同研究による論文全文&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;もあわせてお読みいただけます。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt;&lt;sup&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;1. Kosmyna, Nataliya, et al. "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task." arXiv, 10 June 2025, doi:10.48550/arXiv.2506.08872.（参照日付: 2026 年 1 月 28 日）&lt;/span&gt;&lt;/sup&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- Andrew Harlan 博士&lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;（独立系 UX リサーチャー兼クリエイティブ テクノロジスト）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- Steve Fadden 博士&lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;（Google、UX リサーチ担当リード）&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</guid><category>AI &amp; Machine Learning</category><category>Developers &amp; Practitioners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI リテラシーの新しい形: 学生デベロッパーを対象とした調査結果</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Andrew Harlan, Ph.D.</name><title>UX Researcher &amp; Creative Technologist, Independent</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Steve Fadden, Ph.D.</name><title>UX Research Lead, Google</title><department></department><company></company></author></item><item><title>AI 時代のオープン プラットフォーム: GKE、エージェント、OSS のイノベーションを KubeCon EU 2026 で披露</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 25 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今週、クラウドネイティブのコミュニティがアムステルダムに集まり、Kubecon + Cloudnativecon Europe が開催されます。Google は、オープンソースの Kubernetes エコシステムとGoogle Kubernetes Engine（GKE）を支援するために取り組んでいる活動の一部をご紹介します。これには、クラスタの運用モード間の壁を打ち破ることから、Kubernetes を AI エージェントや Ray を実行するための最適な場所にすることまで、Google が現在展開しているさまざまな取り組みが含まれます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;Autopilot をすべてのお客様に&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;5 年前、Google は、スケーリングとインフラストラクチャ管理を大幅に簡素化できるフルマネージドの GKE エクスペリエンスである &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/autopilot-overview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Autopilot&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を発表しました。以前は、GKE Autopilot モードと Standard モードのどちらを選択するかという判断は、クラスタ作成時の「分岐点」でした。たとえば、Standard モードで開始した後に Autopilot に切り替えたい場合は、まったく新しいクラスタを作成する必要がありました。そのため、厳格なノードレベルの制御が必要なワークロードと、シームレスで手間のかからないスケーリングが必要なワークロードが混在することになり、こうしたクラスタを管理する組織には大きな負担となっていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;新しい GKE では、すべてのクラスタで Autopilot を利用できるようになりました。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Autopilot コンピューティング クラスが Standard クラスタでも利用可能&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;になったことで、ワークロードごとにいつでも Autopilot を有効にできます。GKE Autopilot の &lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/containers-kubernetes/container-optimized-compute-delivers-autoscaling-for-autopilot?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Container-Optimized Compute Platform（COCP）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、必要なときに必要な容量を最適な価格とパフォーマンスで提供するほか、ニア リアルタイムで垂直方向および水平方向にスケーラブルなコンピューティング環境を実現できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これに加え、お客様のインフラストラクチャ プロビジョニングを推進するコア コンポーネントの一つである &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt; GKE クラスタ オートスケーラー&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;をオープンソース化することも発表します。Google の目標は、OSS コミュニティが活用でき、基盤を構築できる、ベンダーに依存しないプラットフォームを提供することです。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;CNCF Kubernetes AI Conformance に向けて&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この業界が大規模な AI へと移行する中、標準化は極めて重要です。昨年 Google は、Kubernetes コミュニティとともに、クラスタの相互運用性とポータビリティの標準を確立することで Kubernetes 上の AI / ML を簡素化する &lt;/span&gt;&lt;a href="https://www.cncf.io/announcements/2025/11/11/cncf-launches-certified-kubernetes-ai-conformance-program-to-standardize-ai-workloads-on-kubernetes/" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;CNCF Kubernetes AI Conformance プログラム&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を立ち上げました。このたび、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;GKE が AI 適合プラットフォームとして認定&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;されたことで、モデルや AI ツールを環境間で移行できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今後の Kubernetes v1.36 リリースに向けて、AI Conformance コミュニティは、AI サービングの進化するニーズに対応するために、高度な推論 Ingress、分離型サービング、高性能ネットワーキングという 3 つの新しい要件を提案しています。Google Cloud は、GKE Inference Gateway、llm-d、DRANET を通じて、これらの新たなコミュニティ規約をサポートすることに尽力しています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;Model Context Protocol: エージェント インターフェース&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;昨年 Google は、AI エージェントと Kubernetes との連携を効率化するために、オープンソースの GKE &lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/gke-mcp" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Model Context Protocol（MCP）サーバー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を発表しました。これは、標準化されたインターフェースを提供することで、明確に定義された機能を通じて、ワークロード、クラスタ、リソースをエージェントが管理、分析、モニタリングできるようにするものです。これらの機能を公開することで、MCP サーバーは &lt;/span&gt;&lt;a href="https://geminicli.com/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini CLI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;a href="https://antigravity.google/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Antigravity&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などのさまざまな AI クライアントの統合を容易にするほか、Kubernetes エコシステムの管理の自動化を促進し、よりインテリジェントなものにします。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;AI インフラストラクチャとしての Kubernetes&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;a href="https://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は正式に CNCF サンドボックス プロジェクトとなり、Kubernetes を最先端の AI インフラストラクチャに進化させるための大きな一歩を踏み出しました。2025 年 5 月に Red Hat や NVIDIA といった業界リーダーとの共同プロジェクトとして立ち上げられた llm-d は、特定のハードウェアやベンダーに依存しないように設計された Kubernetes ネイティブの分散推論フレームワークです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このプロジェクトでは、推論を考慮したトラフィック管理、マルチノード レプリカのネイティブ オーケストレーション、階層型 KV キャッシュ オフロードの高度な状態管理について、well-lit paths（明確なパス）を導入することで、複雑な AI オーケストレーションの課題に対処します。クラウドネイティブなオーケストレーションと最先端の AI 研究のギャップを埋めることで、llm-d は高性能 AI サービングを広く普及させ、さまざまなアクセラレータの推論性能に関するオープンで再現可能なベンチマークを確立します。Google は、llm-d に関して &lt;/span&gt;&lt;a href="https://github.com/cncf/k8s-ai-conformance" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;CNCF AI Conformance&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; プログラムと連携することで、分散型サービングなどの重要な機能をエコシステム全体で相互運用できるようにする予定です。llm-d について詳しくは、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちらのブログ記事&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;DRA はリソース管理の新たな標準です&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes が誕生した頃は、変化するものは CPU とメモリだけであり、クラウドは無限に伸縮できると考えられていました。現在では、当然ながら、ハードウェアは専門化され、多様化しています。動的リソース割り当て（&lt;/span&gt;&lt;a href="https://kubernetes.io/docs/concepts/scheduling-eviction/dynamic-resource-allocation/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRA&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）は、独自のハードウェアを標準形式で記述するための業界標準ソリューションであり、これにより、上位レベルのワークロードやスケジューラは、リソースに関する低レベルの詳細情報にアクセスすることなく、リソースを最適化できます。このたび、オープンソースでリリースすることを発表しました、TPU 用の DRA ドライバは、AI ワークロードのポータビリティを Kubernetes エコシステムにもたらすうえで重要なマイルストーンとなります。Google と NVIDIA は、統一されたリソース管理標準を確立するための共同の取り組みとして、OSS Kubernetes での DRA の設計と実装について緊密に連携しています。Google は、今回のリリースを、&lt;/span&gt;&lt;a href="https://blogs.nvidia.com/blog/nvidia-at-kubecon-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;NVIDIA DRA ドライバの寄贈&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;と合わせて発表できることを誇りに思います。これは、GKE のマネージド機能としてすでに利用可能なネットワーキング用の DRA ドライバである &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/how-to/allocate-network-resources-dra"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRANET&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; に加えて使用できます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;エージェントの波に対応: 推論とエージェント&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェント AI の波が押し寄せています。Google は、エージェントの実行に最適なプラットフォームは Kubernetes であると確信しています。LLM が生成したコードを実行し、AI エージェントと安心してやり取りするには、高度な分離、起動時間の短縮、専用のインフラストラクチャが必要です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google は、これを実現するために、オープンソースの推論技術に多大な投資を行っています。たとえば、gVisor 対応のセキュアな分離を実現する &lt;/span&gt;&lt;a href="https://github.com/kubernetes-sigs/agent-sandbox" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;Kubernetes Agent Sandbox&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; や、ワークロードをメモリ スナップショットから復元することで起動レイテンシを大幅に改善する &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/pod-snapshots"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Pod Snapshots&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などのイノベーションを活用することで、Kubernetes 上のエージェント AI の標準を確立したうえで、GKE で実行されるエージェントのパフォーマンスやコンピューティング効率を高めています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;Kubernetes 上の Ray: TPU と優れたオブザーバビリティ&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Ray は、要求の厳しい AI ワークロードをスケールするための標準になりつつあり、Kubernetes は Ray の実行に最適な環境であると Google は考えています。最近まで、公式のアクセラレータ サポートは NVIDIA GPU に限定されていましたが、このたび、Anyscale と Google による完全なサポートを備えた Ray v2.55 の TPU を発表しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これまで、Kubernetes 上の Ray では、ジョブに関する過去のデータにアクセスできなかったため、デバッグやパフォーマンスの最適化が困難でしたが、この問題を解決するために、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;RayJob の完了または終了後に問題をデバッグする機能&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を導入しました。これを実現する Ray History Server は、Kuberay を使用して実行中の RayJob からログ、状態、指標を設定して永続化し、Ray ダッシュボードにそれらを再現できます。Ray History Server（アルファ版）は&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/add-on/ray-on-gke/how-to/enable-ray-history-server"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;今すぐお試し&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;いただけます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;ブースにお立ち寄りください&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次世代の AI 推論のスケールアップ、高度に分離されたエージェント ワークフローのデプロイ、クラスタ全体のコンピューティング容量の最適化など、どのような場合でも、Google は Kubernetes と GKE を究極のプラットフォームにすることに尽力し、お客様を成功に導きます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;KubeCon Europe に参加される方は、ぜひ Google Cloud ブース（#310）にお立ち寄りください。上述の発表について詳しくご説明するほか、&lt;/span&gt;&lt;a href="https://rsvp.withgoogle.com/events/google-cloud-at-kubecon-europe-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;セッション、ライトニング トーク、ハンズオンラボ、デモ &lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧いただけます。また、テキストベースの冒険ゲームで楽しく競い合うイベントもご用意しています。Kubernetes の未来に乾杯！&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア クラウド デベロッパー アドボケイト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Abdel Sghiouar&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;GKE プロダクト管理担当ディレクター、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Allan Naim&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026/</guid><category>GKE</category><category>Open Source</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI 時代のオープン プラットフォーム: GKE、エージェント、OSS のイノベーションを KubeCon EU 2026 で披露</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Abdel Sghiouar</name><title>Senior Cloud Developer Advocate</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Allan Naim</name><title>Director of Product Management GKE</title><department></department><company></company></author></item><item><title>初級者コースのように簡単: Vail Resorts がパーソナライズされたおすすめを自動化する AI アシスタントを構築した方法</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 28 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;スキーヤーやスノーボーダーは、新雪を追い求めたり、新しいトリックをマスターしたり、新しい地形を探索したりと、ゲレンデでのあらゆる瞬間を精一杯楽しむものです。よく知っているお気に入りのゲレンデを訪れる場合でも、初めてのゲレンデを訪れる場合でも、必要な情報をすぐに手に入れて、自信を持って移動し、隠れた名所を見つけ、到着した瞬間からその場所に溶け込みたいと考えています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そのような理由から、Vail Resorts は 2024～2025 年の雪シーズンに My Epic Assistant をリリースしました。Vail は、世界で最も象徴的で愛されている山岳リゾート（ウィスラー ブラッコム、パークシティ マウンテン、ストウ、クレステッド ビュートなど）を運営しています。同社は、すべての利用者が新しいアプリで十分なサポートを受けられる、つまり、ゲレンデ体験に没頭したまま、迅速かつ有益な回答を得て、ゲレンデにあるすべてのものを発見できるようにしたいと考えていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;情報ブースを探すのと、次の滑走に向けてリフトに乗っている間にアプリで情報を得るのと、どちらがよいか、考えれば答えは明白です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://news.vailresorts.com/2024-03-18-Vail-Resorts-Announces-My-Epic-Assistant-in-the-My-Epic-app-Powered-by-Advanced-AI-and-Resort-Experts" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;My Epic Assistant&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、Vail Resorts の IT チーム、接客チーム、運営チームのノウハウを Google の強力な &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini モデル&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;にフィードする AI 搭載アシスタントです。結果として、ゲレンデで適切なシーズンパスを選択するサポート、最新の雪の状況の共有、レッスンの準備状況の確認、ココアを飲むのに最適な場所の提案などを、このエージェントで行えるようになりました。Vail Resorts は、単なる chatbot ではなく、ウィスラーでパウダースノーを楽しめる日と、ビーバー クリークへの家族旅行に適した日の微妙な違いを理解できるデジタル コンシェルジュを求めていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのサービスを次のレベルに引き上げるため、Vail Resorts のチームと Google Cloud スペシャリスト &lt;/span&gt;&lt;a href="https://cloud.google.com/find-a-partner/partner/66degrees"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;66degrees&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、2025～2026 年シーズン向けに My Epic Assistant を更新し、シーズンパスのおすすめや強化されたパーソナライズなどの新機能を追加しました。この機能により、ゲストの質問を理解し、複雑なリクエストに対応して、ゲストに最適なパスをインテリジェントに案内できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この投稿では、ゲレンデを楽しむために迅速なサポートを求めている、目の肥えた利用者からの、微妙な違いのある複雑な質問に効果的に回答できるマルチエージェント システムをオーケストレートするという難題に、Google がどのように取り組んだのかをご紹介します。このような AI 搭載ツールを活用できるのは、ゲレンデに詳しい利用者だけではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このような AI 搭載ツールを活用できるのは、ゲレンデに詳しい利用者だけではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このブログ投稿では、接客業のこの過酷な分野特有の課題に巧みに対処できるマルチエージェント システムをオーケストレートして、My Epic Assistant を構築した方法について詳しく説明します。これは、顧客中心の他の分野の組織が、それぞれの状況に合わせてエージェント システムを構築するうえでも役立つアプローチです。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_uWRwTlQ.max-1000x1000.jpg"
        
          alt="image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="iviqa"&gt;&lt;b&gt;新しいシーズン、より良い結果&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="dk6p5"&gt;My Epic Assistant 内のパーソナライズ、検索、要約の各機能、会話フローを実装して改良した結果、アプリの初回リリース以降、人間のエージェントへのエスカレーションが 45% 減少しました。&lt;/p&gt;&lt;p data-block-key="arnli"&gt;テクノロジーは人と人の触れ合いに取って代わるのではなく、それを強化するものです。日常的なロジスティクスを自動化し、パーソナライズを拡大することで、Vail Resorts のゲスト エクスペリエンス テクノロジー チームは、そのことを確実にすることができました。全体的に、サポートを求める利用者は、より迅速かつ確実に、より多くの方法とタイミングでサポートを利用できるようになりました。&lt;/p&gt;&lt;p data-block-key="peco"&gt;「Google Cloud のツールを利用することで、エージェント設計パターンを活用して、自然でパーソナライズされた会話を実現できました。これにより、顧客満足度が向上し、手動でのインテント設計の必要性が低減しました。また、これらのツールにより、柔軟性と制御性を組み合わせて、アシスタントがブランド、ポリシー、プロダクト戦略の範囲内で常に流動的に対応できるようになりました」とチームは述べています。&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;My Epic Assistant の構築手順&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず、My Epic Assistant は&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;サブトピック分類エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を使用して、パスの比較、おすすめの提案、一般的な情報の検索など、利用者の最初のリクエストを理解します。パスは期間限定でのみ購入できるため、日付オブジェクトを使用して時期を判断します。パスが販売終了している場合は、自動的にリフト券の情報にルーティングされます。パスとリフト券の両方が購入可能な場合、アシスタントはいくつかの確認の質問をして、旅行に最適な価値を提供するオプションを顧客が決定できるようにします。次に、アシスタントは、おすすめを提示するために必要な追加データを判断するために、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;データ収集エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;に引き継ぎます。認証済みのユーザーの場合、Vail Resorts は、よく訪問するリゾート、平均訪問回数、年齢、今後訪問予定のリゾート、ピーク日の好みなどの既存のデータを、Webhook から呼び出して提供します。認証されていない新規のユーザーの場合、ギャップを埋めるために、確認のための回答しやすい質問をします。一方通行の静的なフォーム入力ではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このステップでは、生成 AI の会話機能が真価を発揮します。My Epic Assistant は、自由に会話できるように設計されているため、利用者はいつでも確認のための質問をして、コンテキストを失うことなくレコメンデーション プロセスに戻ることができます。ハンドブックの手順に沿って、モデルは出力に必要なすべてのパラメータが入力されているかどうかを継続的に評価し、次のステップに進みます。このプロセス中も、利用者は他の質問をすることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;たとえば、ピーク日の利用を希望するかどうかを尋ねられた利用者が、「制限の対象となる今年のピーク日はいつですか？」と続けて質問する可能性があります。My Epic Assistant は、Vail Resorts の広範な知識を体系化したウェブサイトのデータストアを呼び出して対応します。その後、My Epic Assistant は回答を提供し、コンテキストを失うことなく会話の前のターンに戻ります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最後に、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;レコメンデーション エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;が引き継ぎます。収集したユーザーデータを使用して、すべてのパス オプションの構造化データベースに対してクエリを実行し、完全一致を見つけます。その後、システムは、特定されたパスが適している理由を説明するユーザー フレンドリーな回答を生成し、直接購入リンクを含むコンテンツ カードを提供して、利用者の最終ステップを簡素化します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_tFanwPx.max-1000x1000.png"
        
          alt="image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;パス レコメンデーション エージェントのコア機能は、既存のすべてのパス、その特長、制限事項の構造化ファイルを含むパス マトリックスのデータストア ツールです。利用可能なオプションが多数あるため、ツールがすべての入力パラメータを受け取ったときに有効で適切なオプションを返すことを確認するには、広範なテストが必要でした。66degrees は、この分野に関する Vail Resorts の深い知識を活用して、あらゆる結果を検証しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プロンプト エンジニアリングにより、最終的な回答では、特定のパスが利用者に最適なオプションである理由を詳細に説明したおすすめが提示されます。また、おすすめの購入リンクを含むコンテンツ カードも呼び出されます。ハンドブックを終了する必要はありません。新しくリリースされた Epic Friends 機能に関する詳細情報が表示されるなど、生成された回答が適切でない場合もありました。静的な回答は、コード スニペットと条件付きアクションを介して呼び出されます。これらもハンドブック自体に格納されるため、全体的なアーキテクチャが簡素化されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;パーソナライズが初級者コースのように簡単に&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;My Epic Assistant のスマート テクノロジーとユーザー重視のデザインの新しい組み合わせにより、Vail Resorts は、単なる顧客の質問とその回答という枠を超えて、多くの顧客のリクエストに対して真に会話型でありながら完全に自動化されたエクスペリエンスを提供できるようになりました。重要なのは、Vail Resorts のような運営企業にリゾート利用者が期待するコンシェルジュ サービスを、AI とクラウド テクノロジーなしでは実現できない規模で提供していることです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Vail Resorts は、My Epic Assistant のパスのおすすめ機能により、すべての利用者がこれまでで最高のシーズンを過ごすためのカスタムのおすすめ情報を受け取れるように準備を進めています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;上級者コースのように技術的に難しい課題を、初級者コースのように簡単に扱えるソリューションで解決することをご希望の場合は、66degrees と Google Cloud の&lt;/span&gt;&lt;a href="https://cloud.google.com/find-a-partner/partner/66degrees"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;エキスパートにお問い合わせ&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;のうえ、最新の AI とクラウド テクノロジーで何ができるかをご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;66degrees、会話アーキテクト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Olivia Marrese&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google、カスタマー エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Jacob Walcik&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 06 Apr 2026 02:20:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</guid><category>Customers</category><category>Retail</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_SoM8w0v.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>初級者コースのように簡単: Vail Resorts がパーソナライズされたおすすめを自動化する AI アシスタントを構築した方法</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_SoM8w0v.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Olivia Marrese</name><title>Conversational Architect, 66degrees</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jacob Walcik</name><title>Customer Engineer, Google</title><department></department><company></company></author></item><item><title>Manhattan Associates、Google Cloud データベースで 1 日に 10 億件以上の API 呼び出しを処理</title><link>https://cloud.google.com/blog/ja/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;編集者注&lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;: サプライ チェーンとオムニチャネル コマース ソリューションのグローバル リーダーである Manhattan Associates は、それまで使用していた Oracle と DB2 のシステムから Google Cloud データベースに移行することで、Manhattan Active SaaS プラットフォームをモダナイズしました。Cloud SQL と BigQuery を活用することで、同社は現在、1 日あたり 10 億件以上の API 呼び出しを平均 150 ミリ秒未満の応答時間で処理しており、数万の店舗と物流センターで毎月数十万人のアクティブ ユーザーをサポートしています。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;モノリシックな基盤からクラウドのレジリエンスへ&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社の Manhattan Active SaaS プラットフォームは、グローバル サプライ チェーンのサポートに不可欠なため、常時稼働と高いパフォーマンスが求められます。従来の Oracle と DB2 のインフラストラクチャは、手動によるスケーリング、複雑なライセンス管理、高額なメンテナンス費用が必要で、運用に大きな負担が生じていました。そのため、可用性を契約条項に規定した SLA、自動化されたレジリエンス、予測可能な費用モデルを利用できる新しいデータベース基盤を必要としていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社が Google Cloud のデータベースを選んだのは、Manhattan Active をグローバル規模で稼働させるために必要な、柔軟性、スケーラビリティ、運用の容易さのバランスが適切だったからです。マネージド データベースの &lt;/span&gt;&lt;a href="https://cloud.google.com/sql?utm_source=google&amp;amp;utm_medium=cpc&amp;amp;utm_campaign=na-US-all-en-dr-bkws-all-all-trial-e-dr-1710134&amp;amp;utm_content=text-ad-none-any-DEV_c-CRE_772382725889-ADGP_Hybrid%20%7C%20BKWS%20-%20EXA%20%7C%20Txt-Databases-Relational%20DB-Cloud%20SQL-KWID_28489936691-kwd-28489936691&amp;amp;utm_term=KW_google%20cloud%20sql-ST_google%20cloud%20sql&amp;amp;gclsrc=aw.ds&amp;amp;gad_source=1&amp;amp;gad_campaignid=22980675505&amp;amp;gclid=Cj0KCQjw_rPGBhCbARIsABjq9cfWkbpSIo_Ad45PyawUhO4J_YWRzxqYZ0lensrMZ87PNCa8v888NtoaAglhEALw_wcB&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud SQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用することで、手動でのメンテナンスを排除でき、組み込みの高可用性、スケーラビリティ、リージョン間の障害復旧に注力できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Manhattan Active の各機能は、現在、独立したコンテナ化されたサービスとして実行されており、&lt;/span&gt;&lt;a href="https://cloud.google.com/kubernetes-engine?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Kubernetes Engine（GKE）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;によってオーケストレートされています。データは &lt;/span&gt;&lt;a href="https://cloud.google.com/pubsub?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Pub/Sub&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を介して &lt;/span&gt;&lt;a href="https://cloud.google.com/bigquery?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;BigQuery&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; にストリーミングされ、リアルタイム分析が行われます。また、&lt;/span&gt;&lt;a href="https://cloud.google.com/logging?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud Logging&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://cloud.google.com/monitoring?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud Monitoring&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; により、大規模なオブザーバビリティを実現しています。Google Cloud のマネージド サービスを活用したマイクロサービス ファーストの設計により、当社は、迅速に進化するためのアジリティを得られたほか、全リージョンにおいてミッション クリティカルな運用のレジリエンスを維持できるという確信を持つことができました。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-aside"&gt;&lt;dl&gt;
    &lt;dt&gt;aside_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;title&amp;#x27;, &amp;#x27;Google Cloud データベースでよりスマートに構築&amp;#x27;), (&amp;#x27;body&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984cfa30&amp;gt;), (&amp;#x27;btn_text&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;href&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;image&amp;#x27;, None)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;あらゆるトランザクションにレジリエンスとスピードを組み込む&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社のプラットフォーム基盤を Google Cloud で刷新したことで、大規模に価値を提供する方法を再検討する機会が生まれました。Manhattan Active のアーキテクチャは、マネージド データベースと連携することで、サプライ チェーンの煩雑さが解消され、応答性とレジリエンスに優れたシステムへと変わりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そのメリットはプラットフォーム全体に波及しています。Cloud SQL は Manhattan Active の中核を担っており、1 日あたり数百万件に及ぶサプライチェーンのトランザクションを迅速かつ確実に実行しています。リアルタイム分析は BigQuery に送信され、より精度の高い予測と、より迅速な異常検出を小売業者に提供しています。自動フェイルオーバーとクロスリージョン レプリカによってビジネスの継続性が確保されるため、障害が発生した場合でも重要なサービスは利用可能な状態を維持できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;基盤をモダナイズ: データベースからインテリジェンスへ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;従来の Oracle と DB2 のシステムからの Google Cloud データベースへの移行は、パフォーマンスの問題を解決しただけでなく、次のステップに向けた強固な基盤を築くことにもなりました。その信頼性とスケーラビリティにより、生成 AI をサプライ チェーンに直接組み込むことも可能になりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;当社の&lt;/span&gt;&lt;a href="https://www.manh.com/solutions/manhattan-active-platform/agentic-ai-in-manhattan-solutions" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;エージェント型 AI スイート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;には、店舗や物流センターの業務全体でリアルタイムの意思決定を調整する事前構築済みエージェント（Intelligent Store Manager や Labor Optimizer など）が含まれています。また、Manhattan Agent Foundry を利用すれば、ローコード環境を使用してカスタム AI エージェントを構築することも可能です。この基盤は、リアルタイムのログ分析、デベロッパー向けコード支援、シナリオ シミュレーションといったユースケースを通じて、社内の効率化も支えています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;かつてないスピード、規模、運用効率を実践&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このプラットフォームのモダナイゼーションの効果は、小売業者にもすぐに現れました。それは、目に見えるスピードと信頼性です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在、Manhattan Active は、Cloud SQL と BigQuery を活用して驚異的な数の API 呼び出しに日々対応しており、平均応答時間は 150 ミリ秒未満を実現しています。このスピードにより、数万の店舗と物流センターにわたって数十万人の月間アクティブ ユーザーをサポートしており、重要な場面でのリアルタイムな意思決定を可能にしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;運用面では、プラットフォームの弾力性と効率性が向上しました。このシステムは、1 日に数十万件のスケーリング イベントを自動的に処理するため、ピーク時のトラフィック急増時でも一貫したパフォーマンスを維持できます。高額なオーバープロビジョニングを行う必要はありません。また、Query Insights などのデータベース オブザーバビリティ ツールにより、エンジニアは状況を明確に把握できるため、データベースのパッチ適用や事後対応型のトラブルシューティングに費やす時間が減り、機能開発やパフォーマンス チューニングにより多くの時間を割けるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在、Manhattan Associates では、レジリエンスが組み込みの機能となっています。これは、当社のソフトウェアを利用する小売業者にとって、よりスマートかつ迅速で、将来のあらゆる事態に備えたサプライ チェーンの実現へとつながるものです。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細&lt;/strong&gt;&lt;/h3&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/sql?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud SQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; でビジネスを変革する方法をご確認ください。&lt;/span&gt;&lt;a href="https://console.cloud.google.com/freetrial?redirectPath=sql"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;今すぐ無料トライアルを開始できます。&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/resources/idc-business-value-cloud-sql-analyst-report"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;IDC レポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をダウンロードして、Cloud SQL への移行によってコストの削減、アジリティの向上、デプロイの高速化を実現する方法をご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/blog/ja/products/databases/ford-reduces-routine-database-management-with-google-cloud?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Ford&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/infrastructure-modernization/how-yahoo-calendar-broke-free-from-hardware-queues-and-dba-bottlenecks?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Yahoo&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; が Cloud SQL でモダナイズして、高いパフォーマンスを実現し、費用を削減した方法をご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Manhattan Associates、シニア ディレクター、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Narayana Reddy Kothapu 氏&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Manhattan Associates、テクニカル ディレクター、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Rajkumar Ramani 氏&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 06 Apr 2026 02:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform/</guid><category>Customers</category><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Manhattan Associates、Google Cloud データベースで 1 日に 10 億件以上の API 呼び出しを処理</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Narayana Reddy Kothapu</name><title>Senior Director, Manhattan Associates</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Rajkumar Ramani</name><title>Technical Director, Manhattan Associates</title><department></department><company></company></author></item><item><title>M-Trends 2026: 最前線のデータ、分析、戦略情報のまとめ</title><link>https://cloud.google.com/blog/ja/topics/threat-intelligence/m-trends-2026/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 24 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/threat-intelligence/m-trends-2026?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;サイバー脅威の状況は年々変化し、防御側は敵の戦術、手法、手順（TTP）の進化に対応することを迫られています。2025 年、Mandiant は攻撃者のペースがくっきりと 2 つに分かれていることを確認しました。これは、過去 1 年間にわたり Google が&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;防御者向けの文書&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;で指摘した傾向と一致しています。一方は、即時的な影響と復旧妨害を意図しているサイバー犯罪グループです。もう一方は、持続性を最優先とする巧妙なサイバー エスピオナージ集団やインサイダー脅威で、モニタリング対象外のエッジデバイスやネイティブのネットワーク機能を使用して検出を徹底的に回避します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、M-Trends 2026 が公開になりました。Mandiant が 2025 年、世界中の現場で 50 万時間以上にわたり実施したインシデント調査に基づき、現在、よく利用されている TTP をまとめた決定版レポートとなっています。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-aside"&gt;&lt;dl&gt;
    &lt;dt&gt;aside_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;title&amp;#x27;, &amp;#x27;M-Trends 2026 を公開&amp;#x27;), (&amp;#x27;body&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a9afcb400&amp;gt;), (&amp;#x27;btn_text&amp;#x27;, &amp;#x27;今すぐダウンロード&amp;#x27;), (&amp;#x27;href&amp;#x27;, &amp;#x27;https://cloud.google.com/security/resources/m-trends?utm_source=cgc-blog&amp;amp;utm_medium=blog&amp;amp;utm_campaign=FY26-Q1-GLOBAL-STO89-website-dl-dgcsm-mtrends26-162712&amp;amp;utm_content=-&amp;amp;utm_term=-&amp;#x27;), (&amp;#x27;image&amp;#x27;, &amp;lt;GAEImage: m-trends blog callout&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;数字で読み解く: M-Trends 2026&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今年のレポートでは、現代のセキュリティ対策を回避するために攻撃者がアプローチを変化させてきている様子がデータから明らかになっています。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;滞留時間の中央値（全世界）:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 滞留時間の中央値は、全世界で 11 日から 14 日に増加しました。このことから、攻撃者の手法が高度化していること、なかでも、防御を回避する手段が巧妙化していることが伺えます。特にインシデント件数が多い、サイバー エスピオナージおよび北朝鮮の IT ワーカーに限って見ると、滞留時間の中央値は 122 日でした。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;初期感染ベクトル:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 初期感染ベクトルとしては、脆弱性利用型不正プログラムが 6 年連続で最も多く、32% を占めています。一方、音声でのやりとりを主体とするビッシングが 11% に急増し、上位から 2 番目に位置付けています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;検出ソース:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 組織内部の可視性が向上しています。2025 年、悪意ある活動の痕跡が組織内で最初に見つかった割合は全体で 52% となっており、2024 年の 43% から増加しています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;狙われた業界:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 調査対象のインシデントで影響を受けた業界数は 16 を超えています。最も狙われたのはハイテク業界（17%）で、2024 年と 2023 年にトップだった金融業界（14.6%）を上回りました。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;「引き継ぎ」期間の短縮&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;2025 年に観察されたなかで特に注目すべき傾向の一つは、サイバー犯罪エコシステムにおいて専門分野ごとの分業化と連携がますます進んでいることです。初期アクセスの請負人が、悪意のある広告や、ClickFix と呼ばれるソーシャル エンジニアリング手法などの目立たない手法を使用して、アクセスを確立します。その後、このアクセス権が、ランサムウェアなどの重大な攻撃を仕掛ける二次グループに引き継がれます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;初期アクセス イベントから二次グループへの引き継ぎにかかる時間の中央値は、2022 年は 8 時間超でしたが、2025 年にはわずか 22 秒にまで縮まりました。また、初期アクセスの請負人による「お膳立て」の範囲が広がり、二次グループが求めるマルウェアやトンネルの手配まで行うケースが増えています。つまり、二次アクターがネットワークに初期アクセスした瞬間にはもう、攻撃を開始する準備が万全に整っているのです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この分業化というパターンは、初期感染ベクトルにも反映されています。世界中のあらゆる侵害を対象とすると、初期感染ベクトルとして「既存の侵害」（10%）が 3 番目に多くなっています。なかでも、ランサムウェアに関して言えば、初期感染ベクトルとして「既存の侵害」が最も多く（30%）、2024 年の 15% から倍増しています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ビッシングと、SaaS ID の危機&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これまで、攻撃者の常套手段といえばメール フィッシングでした。しかし、機械制御と自動処理が向上したことで、2025 年にはメール フィッシングによる侵入はわずか 6% まで減少しています。その代わりに台頭してきているのが、音声によるやりとりを主体とするソーシャル エンジニアリングです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この変化については、ブログ投稿やレポートで詳しく取り上げています。特に、UNC3944 などのグループが IT ヘルプデスクを標的にし、多要素認証（MFA）を回避して、Software as a Service（SaaS）環境への初期アクセスを獲得する方法について詳しく追跡しています（「&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence/expansion-shinyhunters-saas-data-theft?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;アクセスを目的としたビッシング: ShinyHunters ブランドの SaaS データ窃盗の拡大を追跡&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」を参照）。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;M-Trends 2026 は、これらの手法が連鎖しながらどのような影響を及ぼしているかを明らかにしています。脅威アクターは、有効期間の長い OAuth トークンとセッション Cookie を収集して、標準的な防御策を回避します。続けて、サードパーティの SaaS ベンダーを侵害した後、ハードコードされたキーと個人のアクセス トークンを盗み、それらのシークレットを使用してダウンストリームの顧客環境にシームレスに移動し、大規模なデータ窃盗を実行します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ランサムウェアが復旧妨害型へと進化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ランサムウェア グループは、もはやデータを暗号化するだけではありません。復旧能力を徹底的に破壊します。2025 年には、REDBIKE（Akira）や AGENDA（Qilin）の使用で知られる有力な&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/threat-intelligence/ransomware-ttps-shifting-threat-landscape"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ランサムウェア グループの攻撃対象が体系的にシフトしている&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;ことが確認されました。具体的には、バックアップ インフラストラクチャや、ID サービス、仮想化管理プレーンを積極的に標的にするようになってきています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;たとえば、Active Directory 証明書サービス テンプレートの構成ミスを悪用し、パスワード ローテーションを無効にした管理者アカウントを作成して、クラウド ストレージからバックアップ オブジェクトを意図的に削除します。また、ハイパーバイザの「ティア 0」という性質を利用して、ゲストレベルの防御を無効化するケースもあります。さらに、仮想化ストレージ レイヤを直接標的にしたり、ハイパーバイザのデータストアを暗号化したりして、関連するすべての仮想マシンを同時に動作不能な状態に陥れます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この複雑に入り組んだ手口については、Google のガイド「&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence/defending-vsphere-from-unc3944?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ヘルプデスクからハイパーバイザまで: UNC3944 から VMware vSphere 環境を防御する&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」で説明しています。ランサムウェアは今や、根本的な復元力の問題と化しており、身代金を支払うか、さもなくば、ゼロからの再構築を迫られることになります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;エッジデバイス、ゼロデイ、徹底的な持続性&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;一般的なサイバー犯罪者がスピードの最適化に励む一方で、スパイ活動グループは、持続性を徹底的に追求しています。たとえば、UNC6201 や UNC5807 などの脅威クラスタは、エッジ デバイスやコア ネットワーク デバイス（バーチャル プライベート ネットワーク（VPN）やルーターなど）を意図的に標的にするようになってきていますが、その背景には、これらのデバイスには標準的なエンドポイント検出および対応（EDR）のテレメトリー機能が不足しているという事情があります。また、M-Trends 2026 によると、脆弱性が悪用されるまでの平均時間は推定で -7 日まで落ち込んでおり、パッチリリース前の悪用が頻発していることが伺えます。この傾向は、Google が近年指摘してきた内容（2024 年のゼロデイ攻撃増加について詳説した「&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence/2025-zero-day-review?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;脆弱性の状況: 2025 年のゼロデイを振り返る&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」や、「&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence/unc6201-exploiting-dell-recoverpoint-zero-day?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;UNC6201 が Dell RecoverPoint for Virtual Machines のゼロデイ脆弱性を悪用&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」）と一致しており、こうした傾向やキャンペーンがいかに深刻であるかを物語っています。攻撃者は、ワークステーションやサーバーといった従来のソースに深く攻め入ることなく、ネットワーク デバイスのネイティブなパケット キャプチャ機能を利用し、ネットワークを通過する機密データや平文の認証情報を直接傍受して、インテリジェンスを収集しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/threat-intelligence/brickstorm-espionage-campaign"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;BRICKSTORM&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; バックドアなどの独自のインメモリ マルウェアをネットワーク アプライアンスに直接デプロイすることで、標準的な修復作業やシステム再起動の影響を受けることなく持続的に定着します。これらのデバイスはオンボード ストレージが最小になるように設計されているため、従来のセキュリティ ツールを利用できず、ファイル システムやメモリのフォレンジック分析が非常に困難です。アーティファクトも限られるため、攻撃者の存在を確認したり、修復対象範囲を見極めたりしづらい状況が生まれています。さらに、この徹底的な持続性によって、可視性に重大な穴が生じます。たとえば、BRICKSTORM のように 400 日近くの滞留時間を達成している脅威は、標準的な 90 日間のログ保持ポリシーでは初期アクセス ベクトルとして特定できず、被害の全容も完全に把握しきれません。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI を用いた脅威の動向&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;2025 年の脅威動向を包括的に把握するには、攻撃者による AI の使用状況を知る必要があります。Google Threat Intelligence Group の継続的な調査により、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/topics/threat-intelligence/distillation-experimentation-integration-ai-adversarial-use?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;攻撃ライフサイクルの加速を目的とした AI の活用&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;が進んでいることが明らかになっています。たとえば、PROMPTFLUX や PROMPTSTEAL などのマルウェア ファミリーは、検出を回避するため、実行中に大規模言語モデル（LLM）へのクエリを常時行っています。また、「蒸留攻撃」は、価値の高い ML モデルの独自ロジックおよび専門的なトレーニング データを抽出して、知的財産を脅かします。M-Trends 2026 では、侵害された環境内で、AI が多用されていることが確認されています。たとえば、QUIETVAULT という認証情報窃取マルウェアは、標的コンピュータ上にローカルの AI コマンドライン ツールがあるかどうかを調べ、事前定義されたプロンプトを実行して構成ファイルを探します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このように急速に技術が進歩しているものの、2025 年の時点で、AI が侵害に直結しているとは結論付けられません。最前線の見解によると、ほとんどの侵入は、依然として人為的ミスやシステム上の欠陥に起因しています。それでもなお、Mandiant のレッドチームは AI を活用した攻撃の進化に備え、プロンプト インジェクションなどの AI を活用したテクニックを積極的に取り入れ、防御力を徹底的にテストしています。一方で、組織において AI 導入が進むのに伴い、開発者ツールチェーンが悪用されるといった特有のリスクが生じることを懸念し、Google は組織が &lt;/span&gt;&lt;a href="https://kstatic.googleusercontent.com/files/00e270b1cccb1f37302462a162c171d86f293a84de54036e0021e2fe0253cf05623bae2a62751b0840667bc6c8412fd70f45c9485972dc370be8394fae922d31" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google セキュア AI フレームワーク（SAIF）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;の原則を採用するよう支援しています。AI モデル自体の保護に加えて、防御における AI の活用（セキュリティ運用の増強など）も支えていく方針です。AI とセキュリティについて詳しくは、最近公開されたホワイトペーパー「&lt;/span&gt;&lt;a href="https://cloud.google.com/security/resources/ai-risk-and-resilience"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AI のリスクとレジリエンス: Mandiant スペシャル レポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;防御者向けの推奨事項&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;運用において真のレジリエンスを確立し、新しい手法を駆使する攻撃者を封じ込めるには、攻撃者に負けないスピードで行動する必要があります。M-Trends 2026 では実用的なアドバイスを幅広く提供していますが、ここではその一部を紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;軽微なアラートを、重要な指標として扱う:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 引き継ぎ時間が数秒に短縮されていることを鑑み、セキュリティ チームは対応プレイブックを新たに策定し直す必要があります。日常的に発生するマルウェア アラートを、二次侵害の重要な兆候として捉え、インタラクティブなキーボード操作が始まる前に確実に修復するようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;重要なコントロール プレーンを分離する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 仮想化プラットフォームと管理プラットフォームを「ティア 0」のアセットとして扱い、アクセスを厳格に制限する必要があります。復元機能の破壊に対抗するには、バックアップ環境を会社の Active Directory ドメインから切り離し、不変ストレージを使用するようにします（この種の攻撃に対する防御については、「&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/threat-intelligence/preparation-hardening-destructive-attacks"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;破壊的攻撃に事前に備え、セキュリティを強化する方法: 2026 年版&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;」をご覧ください）。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;継続的な ID 検証に移行する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 対話型のソーシャル エンジニアリングでは、従来の MFA が回避されることがよくあります。したがって、組織において厳格な最小権限を適用すること、SaaS のインテグレーションを定期的に監査すること、すべての SaaS アプリケーションを中央の ID プロバイダ（IdP）経由でルーティングすることが重要です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;静的 IOC から行動異常検出に移行する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 攻撃者がインフラストラクチャを次々と変え、独自のインメモリ マルウェアをデプロイするようになった今、静的なセキュリティ侵害インジケーター（IOC）のみに頼るのではもはや十分ではありません。防御側は、行動ベースの検出モデルを実装して、確立済みベースラインからの逸脱や異常なアクティビティを検出できるようにする必要があります。具体的には、エッジデバイスへの不正アクセスや、異常な API 一括オペレーション、SaaS 統合トークンの不審な使用などに注意が必要です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;可視性を拡大し、ログ保持期間を延長する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; エコシステム全体に、高度な脅威検出の仕組みをデプロイする必要があります。たとえば、複数年にわたる侵入を可視化するためには、ログの保持ポリシーを標準の 90 日間よりもはるかに長くする必要があります。また、重要なネットワーク デバイスのログ（特にアプリケーション ログと管理ログ）やハイパーバイザ レベルのテレメトリー情報を、一元化された長期保存ストレージに転送すれば、高度なアクターに狙われがちな箇所も含めて徹底的に可視化できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;脅威に対応するための準備&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Mandiant のミッションは、あらゆる組織をサイバー脅威から保護し、万全な態勢を維持できるように支援することです。このミッションの中核となっているのが、M-Trends 年次レポートであり、17 年間にわたり、可視性の危険なギャップを埋めるのに役立つ最前線の知識を共有し続けています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;サイバー脅威の動向、ならびに、変化し続ける状況にどのように対応すべきかについて詳しくは、M-Trends 2026 の以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/security/resources/m-trends?utm_source=cgc-blog&amp;amp;utm_medium=blog&amp;amp;utm_campaign=FY26-Q1-GLOBAL-STO89-website-dl-dgcsm-mtrends26-162712&amp;amp;utm_content=-&amp;amp;utm_term=-"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;M-Trends 2026 レポートをダウンロード&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;して、最前線のデータについて詳しくご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://services.google.com/fh/files/misc/m-trends-2026-executive-edition-en.pdf" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;M-Trends 2026 Executive Edition&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; には、データ、傾向、主な推奨事項がまとめられています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloudonair.withgoogle.com/events/m-trends-virtual-event-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;M-Trends 2026 ウェブセミナー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; シリーズの第 1 弾にご登録ください。レポートで取り上げているデータや、トピック、推奨事項について詳しくご説明する予定です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.withgoogle.com/cloudsecurity/podcast/ep268-weaponizing-the-administrative-fabric-cloud-identity-and-saas-compromise-in-m-trends-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Cloud Security Podcast の M-Trends 2026 特集&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;で、調査結果およびレポートの作成方法について聴くことができます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、Mandiant コンサルティング、バイス プレジデント、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Jurgen Kutscher&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 06 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/threat-intelligence/m-trends-2026/</guid><category>Threat Intelligence</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>M-Trends 2026: 最前線のデータ、分析、戦略情報のまとめ</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/threat-intelligence/m-trends-2026/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jurgen Kutscher</name><title>Vice President, Mandiant Consulting, Google Cloud</title><department></department><company></company></author></item><item><title>AI インフラストラクチャとしての Kubernetes: Google Cloud、llm-d、CNCF</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 25 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud は、大規模な基盤モデルのビルダーや AI ネイティブ企業の膨大なニーズに応えることを、当社の AI インフラストラクチャ戦略の最優先事項としています。生成 AI の利用がミッション クリティカルな本番環境へと移行する中、このようなイノベーターは、複雑なオーケストレーションの課題を克服し、エージェント主導の未来を推進できる、動的かつ絶え間なく効率的なインフラストラクチャを必要としています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした状況を鑑み、このたび、&lt;/span&gt;&lt;a href="https://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; が Cloud Native Computing Foundation（CNCF）のサンドボックス プロジェクトとして&lt;/span&gt;&lt;a href="https://www.cncf.io/blog/2026/03/24/welcome-llm-d-to-the-cncf-evolving-kubernetes-into-sota-ai-infrastructure/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;正式に&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;承認されたことを大変嬉しく思います。Google Cloud は、Red Hat、IBM Research、CoreWeave、NVIDIA とともに、llm-d の創設メンバーとして貢献できることを誇りに思います。私たちは、業界を定義する明確なビジョン「&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;あらゆるモデル、あらゆるアクセラレータ、あらゆるクラウド&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;」の下に団結しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この貢献は、オープンソースのイノベーションにおける Google の長年のリーダーシップを裏付けるものです。私たちはまた、Linux Foundation の信頼できる管理の下、分散 AI 推論の未来が、閉ざされた環境ではなくオープン スタンダードに基づいて構築されるよう支援しています。これにより、基盤モデルのビルダーは、ベンダーに縛られることなくモデルをグローバルにデプロイできるという確信を得られるとともに、これらのオープン テクノロジーの実装を高度に最適化したうえで Google Cloud で直接行えるようになります。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_KwJQrYd.max-1000x1000.png"
        
          alt="1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;推論のための Kubernetes の強化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes は、オーケストレーションの業界標準として揺るぎない地位を確立しています。強固な基盤を提供しますが、元々は、LLM 推論のために構築されたものではなく、高度にステートフルで動的な要求には対応できませんでした。&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/tutorials/serve-with-gke-inference-gateway"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Inference Gateway&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、こうした新しいタイプのワークロードに対応するために Kubernetes を進化させたもので、単純なロード バランシングをはるかに超えるネイティブ API を提供します。このゲートウェイの内部では、スケジューリング インテリジェンスのために &lt;/span&gt;&lt;a href="https://github.com/kubernetes-sigs/gateway-api-inference-extension/tree/main/docs/proposals/004-endpoint-picker-protocol" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d Endpoint Picker（EPP）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を活用しています。このシステムでは、ルーティングの決定を llm-d に委任することで、リアルタイムの KV キャッシュ ヒット率、処理中のリクエスト数、インスタンス キューの深さを考慮した多目的ポリシーを適用し、各リクエストを処理に最適なバックエンドにルーティングします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;大規模に運用する基盤モデルのビルダーにとって、こうしたモデル対応のルーティングがもたらす現実世界への影響は画期的です。最近、Google の Vertex AI チームは本番環境でこのアーキテクチャを&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/containers-kubernetes/how-gke-inference-gateway-improved-latency-for-vertex-ai?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;検証&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;し、脆弱なカスタム スケジューラに依存することなく、予測が非常に難しいトラフィックを処理できることを証明しました。Qwen Coder を使用したコンテキストを多用するコーディング タスクでは、最初のトークンまでの時間（TTFT）のレイテンシが 35% 以上短縮されました。また、研究目的に DeepSeek を使用してバースト性が高く確率的なチャット ワークロードを処理した場合には、P95 テール レイテンシが 52% 改善され、深刻な負荷変動を効果的に吸収できました。特に重要なのは、このゲートウェイのルーティング インテリジェンスにより、Vertex AI の接頭辞キャッシュ ヒット率が 35% から 70% に倍増したことであり、これにより、再計算のオーバーヘッドとトークンあたりの費用が大幅に削減されました。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_K56j60Q.max-1000x1000.png"
        
          alt="2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;インテリジェントなルーティングに加えて、マルチノード AI デプロイをオーケストレートするには、堅牢な基盤となるプリミティブが必要です。そのため、Google では Kubernetes &lt;/span&gt;&lt;a href="https://lws.sigs.k8s.io/docs/overview/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;LeaderWorkerSet&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（LWS）API の開発を主導しています。LWS により、llm-d は広範なエキスパート並列処理をオーケストレートし、計算負荷の高いプリフィル フェーズとメモリ負荷の高いデコード フェーズを、個別にスケーリング可能な Pod に分離できます。業界で広く採用されている LWS は、今では、急速に拡大する本番環境の AI ワークロードのフットプリントをオーケストレートし、グローバル規模で TPU と GPU の大規模なフリートを管理しています。このオーケストレーションを補完するものとして、Google は最近、&lt;/span&gt;&lt;a href="https://vllm.ai/blog/vllm-tpu" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud TPU 向けに vLLM をネイティブに拡張&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;しました。PyTorch と JAX の統合バックエンドに加え、Ragged Paged Attention v3 などの革新的な機能を備えたこのインテグレーションにより、昨年初めにリリースした最初のバージョンと比較して、スループットが最大 5 倍向上しました。Google Cloud TPU や NVIDIA GPU のどちらでスケールする場合でも、これらの進歩により、最先端の AI サービングが高度に最適化され、アクセラレータに依存しない機能として維持されます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;次世代の AI インフラストラクチャを共同で構築&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;究極の AI インフラストラクチャを構築するには、クラウドネイティブな Kubernetes オーケストレーションと最先端の AI 研究との間のギャップを埋める必要があります。本番環境レベルの生成 AI への移行には、信頼性と透明性を備えたエンジンが必要であり、可能性の限界を押し広げる AI / ML リーダーとの緊密なコラボレーションも求められます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;私たちは、Linux Foundation、CNCF、PyTorch Foundation、その他のオープンソース コミュニティとともに、次世代の AI インフラストラクチャを構築できることを大変嬉しく思っています。「well-lit paths」（現実的な負荷の下でエンドツーエンドにテストされた、実証済みで再現可能なブループリント）を確立することで、高性能な AI がオープンで誰もがアクセスできるエコシステムとして発展し、境界のないイノベーションを促進できるようにしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI 推論のオープンな未来を一緒に形作りましょう。大規模基盤モデルのビルダー、AI ネイティブ企業、プラットフォーム エンジニア、AI 研究者の皆様の参加を心よりお待ちしております。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;「well-lit paths」を確認する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; &lt;/span&gt;&lt;a href="https://llm-d.ai/docs/guide" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を参照し、ご自身のインフラストラクチャに SOTA 推論スタックを今すぐデプロイしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 公式ウェブサイト（&lt;/span&gt;&lt;a href="https://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;https://llm-d.ai&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;/）をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ご協力のお願い:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Slack のコミュニティに参加し、GitHub リポジトリ（&lt;/span&gt;&lt;a href="https://github.com/llm-d/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;https://github.com/llm-d/&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）での活動にご協力ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;llm-d の CNCF サンドボックス プロジェクトへの参加をお待ちしております。皆様とともにこのエンジンを発展させていくことを楽しみにしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Sean Horgan&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア クラウド デベロッパー アドボケイト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Abdel Sghiouar&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 03 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</guid><category>GKE</category><category>AI &amp; Machine Learning</category><category>Open Source</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI インフラストラクチャとしての Kubernetes: Google Cloud、llm-d、CNCF</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sean Horgan</name><title>Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Abdel Sghiouar</name><title>Senior Cloud Developer Advocate</title><department></department><company></company></author></item><item><title>分散 AI エージェントの構築</title><link>https://cloud.google.com/blog/ja/topics/developers-practitioners/building-distributed-ai-agents/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 19 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/building-distributed-ai-agents?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;率直に言って、1 回だけ動作する AI エージェントを構築するのは簡単です。しかし、本番環境で&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;確実に&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;動作する AI エージェントを構築し、既存の React や Node.js アプリケーションと統合する場合は、まったく別の話です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;（説明は省略して、コードに直接移動したい場合は、&lt;/span&gt;&lt;a href="https://github.com/amitkmaraj/course-creation-ai-agent-architecture" rel="noopener" target="_blank"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;GitHub のコース作成エージェントのアーキテクチャ&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;をご覧ください。）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;身近な例で考えてみましょう。トピックを調査し、コンテンツを生成して、それを評価するという複雑なワークフローがあるとします。このワークフローを、1 つの巨大な Python スクリプトまたは大きなプロンプトに詰め込んだとしましょう。ローカルマシンでは正常に動作しましたが、スマートな外観のフロントエンドに接続しようとすると、厄介なことになります。レイテンシが急上昇し、デバッグが困難で、スケールするためにモノリス全体の複製が必要となります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;一方、AI に対応するために、アプリケーション全体を書き換える必要がないとしたらどうでしょうか。プラグを差し込むだけで使えるとしたら？&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この投稿では、&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;オーケストレーター パターン&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;という優れた方法について説明します。具体的には、すべてを請け負う強力なエージェントを 1 つだけ作るのではなく、複数の特化した分散マイクロサービスから成るチームを構築します。このアプローチにより、モノリスの書き換えに悩まされることなく、強力な AI 機能を既存のフロントエンド アプリケーションに直接統合することが可能となります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そのために、Google の &lt;/span&gt;&lt;a href="https://github.com/google/adk-python" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agent Development Kit（ADK）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を使ってエージェントを構築し、&lt;/span&gt;&lt;a href="https://a2a-protocol.org/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agent-to-Agent（A2A）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;プロトコルによって複数のエージェントを接続して相互通信し、&lt;/span&gt;&lt;a href="https://cloud.google.com/run"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud Run&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 上でスケーラブルなマイクロサービスとしてデプロイします。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;分散エージェントを使用する理由（フロントエンド チームに感謝される理由）&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;すでに完成された状態の Next.js アプリケーションがあるとします。これに、「コース作成ツール」という機能を追加したいとしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そのためにモノリス エージェントを構築すると、フロントエンドは、長時間かかる単一プロセスがすべて完了するまで待たされることになります。調査部分が滞ると、リクエスト全体がタイムアウトになります。また、個々のエージェントを必要に応じてスケールするといったこともできません。たとえば、評価エージェントがより多くの処理能力を必要とする場合、評価エージェントだけでなく、&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;すべて&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;のエージェントをスケールアップすることになります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これに対し、分散オーケストレーター パターンを使用すれば、スケーラビリティと柔軟性が得られます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;シームレスなインテグレーション:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; フロントエンドは 1 つのエンドポイント（オーケストレーター）と通信し、オーケストレーターがバックグラウンドで複雑な処理を管理します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;個別にスケーリング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 評価ステップに時間がかかる場合は、そのサービスだけを 100 インスタンスにスケールアップし、調査サービスは小規模のままにできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;モジュール式:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 高パフォーマンスのネットワーキング部分を Go で、データ サイエンス部分を Python で記述できます。これらの通信には HTTP を使用します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;全体的な設計: コース作成アプリ&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/building-distributed-ai-agents-course-creator.gif"
        
          alt="building-distributed-ai-agents-course-creator"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;では、コース作成システムを構築しましょう。以下の 3 つのスペシャリストに分けて考えます。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;調査担当&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 情報を掘り起こすスペシャリスト。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;評価担当&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 品質を保証する QA スペシャリスト。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;オーケストレーター&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 作業間の調整を行い、フロントエンドと通信するマネージャー。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ステップ 1: スペシャリスト（リサーチャー）の配備&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず、調査の担当者が必要です。ADK を使って、Google 検索の部分のみを担当するエージェントを構築しましょう。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# researcher/app/agent.py\r\nfrom google.adk.agents import Agent\r\nfrom google.adk.tools import google_search\r\n\r\nresearcher = Agent(\r\n    name=&amp;quot;researcher&amp;quot;,\r\n    model=&amp;quot;gemini-2.5-flash&amp;quot;,\r\n    description=&amp;quot;Gathers information on a topic using Google Search.&amp;quot;,\r\n    instruction=&amp;quot;&amp;quot;&amp;quot;\r\n    You are an expert researcher. Your goal is to find comprehensive information.\r\n    Use the `google_search` tool to find relevant information.\r\n    Summarize your findings clearly.\r\n    &amp;quot;&amp;quot;&amp;quot;,\r\n    tools=[google_search],\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984e84c0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ご覧のように、とても簡単です。このエージェントは、コースやフロントエンドについては関知しません。調査のみを行います。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ステップ 2: 評価担当者（構造化されたデータ出力）&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/building-distributed-ai-agents-judge.max-1000x1000.png"
        
          alt="building-distributed-ai-agents-judge"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェントからの長ったらしい説明はいりません。コード側で判断しやすいよう、合格（pass）または不合格（fail）の厳密な評価が必要です。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Pydantic&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; を使って、このデータ規定を適用しましょう。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# judge/app/agent.py\r\nfrom pydantic import BaseModel, Field\r\nfrom typing import Literal\r\n\r\nclass JudgeFeedback(BaseModel):\r\n    status: Literal[&amp;quot;pass&amp;quot;, &amp;quot;fail&amp;quot;] = Field(\r\n        description=&amp;quot;Whether the research is sufficient (\&amp;#x27;pass\&amp;#x27;) or needs more work (\&amp;#x27;fail\&amp;#x27;).&amp;quot;\r\n    )\r\n    feedback: str = Field(\r\n        description=&amp;quot;Detailed feedback on what is missing.&amp;quot;\r\n    )\r\n\r\njudge = Agent(\r\n    name=&amp;quot;judge&amp;quot;,\r\n    model=&amp;quot;gemini-2.5-flash&amp;quot;,\r\n    description=&amp;quot;Evaluates research findings.&amp;quot;,\r\n    instruction=&amp;quot;&amp;quot;&amp;quot;\r\n    You are a strict editor. Evaluate the findings.\r\n    If they are missing key info, output status=\&amp;#x27;fail\&amp;#x27; and provide feedback.\r\n    &amp;quot;&amp;quot;&amp;quot;,\r\n    output_schema=JudgeFeedback, # Enforce the contract!\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984e8fd0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これで、評価担当者が JSON で話すようになり、アプリケーション ロジックはそれを信頼できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ステップ 3: 共通言語（A2A プロトコル）&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/building-distributed-ai-agents-a2a-protoco.max-1000x1000.png"
        
          alt="building-distributed-ai-agents-a2a-protocol"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ここでマジックを使いましょう。&lt;/span&gt;&lt;a href="https://a2a-protocol.org/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;A2A プロトコル&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を使って、これらのエージェントをウェブサービスとしてラップします。エージェントの共通言語のようなものとお考えください。エージェントは機能を説明し（&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;agent.json&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;）、標準の HTTP で通信します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# researcher/app/server.py\r\nfrom fastapi import FastAPI\r\nfrom a2a.server.apps import A2AFastAPIApplication\r\nfrom app.agent import app as adk_app\r\n\r\n# ... setup runner ...\r\n\r\n# Create the A2A App wrapper\r\na2a_app = A2AFastAPIApplication(agent_card=agent_card, http_handler=request_handler)\r\n\r\napp = FastAPI(lifespan=lifespan)\r\n\r\n# Register routes: /.well-known/agent.json and /rpc\r\na2a_app.add_routes_to_app(app)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984e8790&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これで、リサーチャー（ポート 8000 で実行されるマイクロサービス）を配備できました。このサービスを、オーケストレーターなど、あらゆるものから呼び出すことが可能です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ステップ 4: オーケストレーター パターン&lt;/strong&gt;&lt;/h4&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/building-distributed-ai-agents-orchestrato.max-1000x1000.png"
        
          alt="building-distributed-ai-agents-orchestrator"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;では、すべてを組み合わせましょう。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;オーケストレーター&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;は、請負業者のようなものです。つまり、自分で調査を行わず、リサーチャーを雇います。自分で判断を下さず、評価担当者に尋ねます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;重要な点は、&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;フロントエンドはこのエージェントのみを識別できればよい&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;ということです。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# orchestrator/app/agent.py\r\nfrom google.adk.agents import LoopAgent, SequentialAgent\r\nfrom google.adk.agents.remote_a2a_agent import RemoteA2aAgent\r\n\r\n# Connect to the remote Researcher service\r\nresearcher = RemoteA2aAgent(\r\n    name=&amp;quot;researcher&amp;quot;,\r\n    agent_card=&amp;quot;http://researcher-service:8000/.well-known/agent.json&amp;quot;,\r\n    description=&amp;quot;Gathers information on a topic.&amp;quot;\r\n)\r\n\r\n# Connect to the remote Judge service\r\njudge = RemoteA2aAgent(\r\n    name=&amp;quot;judge&amp;quot;,\r\n    agent_card=&amp;quot;http://judge-service:8000/.well-known/agent.json&amp;quot;,\r\n    description=&amp;quot;Evaluates research findings.&amp;quot;\r\n)\r\n\r\n# The Orchestrator manages the loop\r\nresearch_loop = LoopAgent(\r\n    name=&amp;quot;research_loop&amp;quot;,\r\n    sub_agents=[researcher, judge, escalation_checker],\r\n    max_iterations=3,\r\n)\r\n\r\n# The full pipeline\r\nroot_agent = SequentialAgent(\r\n    name=&amp;quot;course_creation_pipeline&amp;quot;,\r\n    sub_agents=[research_loop, content_builder],\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984e8cd0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;オーケストレーターが複雑な処理（再試行、ループ、状態管理）を担当するため、フロントエンドはクリーンかつシンプルに保たれます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;デプロイ:「食料品店」モデル&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このシステムを Cloud Run にデプロイすることを、私は「食料品店」モデルと呼んでいます。チェックアウトの列（リサーチャーのタスク）が長くなっても、新しい店舗を建設する必要はありません。レジを増やせばいいだけです。Cloud Run は、調査の負荷増大に対応するために調査サービスのみをスケールし、評価サービスはそのまま保たれます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;注意事項、セキュリティ上の配慮&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;もちろん、大いなる力には大きな責任が伴います（そして、セキュリティ チェックが必要となります）。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;認証&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: このデモでは、エージェントはオープンな HTTP を介して通信しています。本番環境では、このアクセスを&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;制限する必要&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;があります。mTLS、OIDC、または API キーを使用して、オーケストレーターのみがリサーチャーと通信できるようにします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;レイテンシ&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: ホップごとに時間が追加されます。オーケストレーター パターンは、詳細レベルの頻繁なインタラクションではなく、ざっくりとしたタスク（「このトピックを調査して」など）に使用するようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;エラー処理&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: ネットワークにはエラーがつきものです。オーケストレーターには、タイムアウトと再試行を適切に処理できるような堅牢性が必要です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;構築を始めるにあたって&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;あらゆる作業を請け負う 1 つの巨大なエージェントを構築するのはやめましょう。&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;オーケストレーター パターン&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;と分散マイクロサービスを使用することで、スケーラブルで保守が容易な AI システムを構築できるだけでなく、既存のアプリとスムーズに連携できるというメリットも得られます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コードについては、&lt;/span&gt;&lt;a href="https://github.com/amitkmaraj/course-creation-ai-agent-architecture" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GitHub のコース作成エージェントのアーキテクチャ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;で詳細をご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;準備ができたら、&lt;/span&gt;&lt;a href="https://cloud.google.com/run"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud Run&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://github.com/google/adk-python" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ADK&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://a2a-protocol.org/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;A2A&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使ってさっそくエージェント チームを結成しましょう。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;AI デベロッパーリレーションズ エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Amit Maraj&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 02 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/developers-practitioners/building-distributed-ai-agents/</guid><category>Developers &amp; Practitioners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/building-distributed-ai-agents-hero.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>分散 AI エージェントの構築</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/building-distributed-ai-agents-hero.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/developers-practitioners/building-distributed-ai-agents/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Amit Maraj</name><title>AI Developer Relations Engineer</title><department></department><company></company></author></item><item><title>DRA: 動的リソース割り当てが切り開く Kubernetes デバイス管理の新時代</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 26 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;大規模言語モデル（LLM）の爆発的な普及により、GPU や TPU などの高性能アクセラレータの需要が高まっています。組織が AI 機能を拡大させる中で、コンピューティング リソースの不足が主要なボトルネックとして浮上することがあります。すべての GPU と TPU のサイクルを効率的に管理することは、もはや推奨事項ではなく、運用上の必要事項となっています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes は、企業が LLM を実行する際の事実上の標準プラットフォームになりつつあります。今週開催された KubeCon Europe において、&lt;/span&gt;&lt;a href="https://blogs.nvidia.com/blog/nvidia-at-kubecon-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;NVIDIA は&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; GPU 用の動的リソース割り当て（DRA）ドライバを、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google は Tensor Processing Unit（TPU）用の DRA ドライバを&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;それぞれ Kubernetes コミュニティに寄贈しました。このことは、より広範なコミュニティの育成とイノベーションの加速を実現し、Kubernetes が最新のクラウド環境に対応して AI ワークロードのポータビリティを向上させることにつながります。DRA は Google Kubernetes Engine（GKE）でも一般提供されています。このブログ記事の残りの部分では &lt;/span&gt;&lt;a href="https://kubernetes.io/docs/concepts/scheduling-eviction/dynamic-resource-allocation/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRA&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; について掘り下げ、DRA が構築された理由、DRA でできること、DRA の使用方法について説明します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;静的なインフラストラクチャからの脱却&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;長年にわたり、ハードウェア アクセラレータを使用するには、Kubernetes のデバイス プラグイン フレームワークを利用するのが標準的な方法でした。ただし、デバイス プラグインでは、ハードウェア要件を単純な整数（例: &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gpu: 1&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;）としてしか表現できないため、フラクショナル GPU は使用できません。これでは、現代の複雑なワークロードに求められる微妙できめ細かな調整を行うには不十分です。また、デバイス プラグインでは、Pod のスケジューリングに先立って、クラスタにアクセラレータを事前プロビジョニングさせておく必要があります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes におけるリソース管理の新標準である DRA は &lt;/span&gt;&lt;a href="https://kubernetes.io/blog/2025/09/01/kubernetes-v1-34-dra-updates/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Kubernetes OSS 1.34&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; で「安定版」のステータスに昇格しました。DRA は、ハードウェアの処理方法において、静的な割り当てから柔軟なリクエストベースのモデルへの移行というパラダイム シフトを体現しています。これにより、次のような課題が解決されます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;手動によるノードの固定が不要:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; デバイス プラグイン フレームワークでは、アプリ オペレーターは、特定のハードウェアを搭載したノードを自分で調べてから、nodeSelector またはアフィニティを使用して、Pod がそのノードに配置されるようにする必要がありました。DRA は、スケジューラが特定のハードウェア機能をネイティブに認識できるようにすることで、このプロセスを自動化します。リクエストに基づいてワークロードに適したノードを検出するため、ユーザーがクラスタのトポロジをマッピングする必要はありません。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;柔軟なパラメータ化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; デバイス プラグインの「全か無か」のアプローチとは異なり、DRA では、ResourceClaim を使用して、最小 VRAM 量、特定のハードウェア モデル、相互接続要件などの特定の要件を定義できます。これにより、高価なハードウェアをよりきめ細かく効率的に使用できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;DeviceClass を介したハードウェアの抽象化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; DRA は、ハードウェアの「ブループリント」として機能する DeviceClass を導入します。プラットフォーム管理者は、デベロッパーが名前でリクエストするクラス（例: high-memory-gpu や low-latency-fpga）を定義できます。これにより、基盤となるハードウェア アドレスからワークロードのニーズが切り離されます。これは、スケジューラがワークロードの要件と利用可能なハードウェア インベントリのマッチングを行うことを可能にします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細解説: DRA の仕組み&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA の中核をなすのは ResourceSlice と ResourceClaim です。これら 2 つの主要な構成要素は、ハードウェア インベントリとワークロード要件を分離します。これらは、Kube-scheduler が適切な意思決定を行い、より柔軟なリソースプールを実現するために使用する入力です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ResourceSlice: 可用性の記述&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ResourceSlice API は、基盤となるハードウェアの機能と属性をリソース ドライバがクラスタに公開するために使用されます。デバイス プラグインが単純なラベルを使用することでデバイスの詳細を覆い隠しがちであるのと対照的に、ResourceSlice は利用可能なアセットを忠実に記述します。これにより、ドライバは各デバイスに関する以下のような詳細情報を報告できます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;容量:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 合計メモリ、コア数、または特殊なコンピューティング単位数&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;属性:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; アーキテクチャ、バージョン、PCIe ルート コンプレックスまたは NUMA ノード&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ResourceClaim: 要件の定義&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ResourceClaim API を使用すると、AI エンジニアはアプリケーションを正常に実行するために必要なものを正確に定義できます。ResourceSlice API がデバイスの詳細を公開するため、開発者は一般的なリクエストにとどまらず、次の項目に基づく要件の指定を行うことができます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;属性ベースの選択:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 特定のモデルを指定する代わりに、ユーザーは「40 GB 以上の VRAM を備えた GPU」という風にリクエストできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;複雑な制約:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; DRA はデバイス間の制約をサポートします。たとえば、ハイ パフォーマンス コンピューティング ジョブでは、レイテンシを最小限に抑え、スループットを最大化するために、GPU と NIC の両方が同じ PCIe ルート コンプレックスに接続されているという要件のもとに、GPU と NIC をリクエストできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;能力ベースのアプローチによるスマートなスケジュール設定&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA は、「何」（ResourceClaim）を「どこ」（ResourceSlice）から切り離すことで、デバイスのマッチングの負担をユーザーから Kube-scheduler に移します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;以前までは、ユーザーは適切なハードウェアに Pod を配置するために、手動のノードセレクタや taint に頼らざるを得ないことがほとんどでした。DRA を使用すると、スケジューラはデバイスの属性とクラスタのトポロジを全体的な視点から把握できるようになります。これにより、より「流動的な」リソースプールが可能になります。スケジューラは、利用可能なすべてのスライスをクレームの特定の基準に基づいて評価し、静的なラベルではなく実際のハードウェアの可用性に基づいて配置を最適化できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この能力ベースのアプローチによって利用可能なハードウェアのうち最適なものにワークロードを確実に割り当てられるようになり、リソース使用率とアプリケーション パフォーマンスの両方が向上します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/DRA_Blog_Diagram.max-1000x1000.jpg"
        
          alt="DRA Blog Diagram"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA の動作を確認するには、&lt;/span&gt;&lt;a href="https://discuss.google.dev/t/running-inference-on-vllm-with-dynamic-resource-allocation-and-custom-compute-classes/342730" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google デベロッパー フォーラムのこちらのブログ記事&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。このブログ記事では、環境設定、GKE クラスタの作成、ドライバのインストール、レプリカのスケーリングなど、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-custom-compute-classes"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;カスタム ComputeClass&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して GPU をスケールする方法を紹介しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;1.35 のリリースでは、AI / ML ワークロードと最新のユースケースの新しい標準を確立するために、&lt;/span&gt;&lt;a href="https://github.com/cncf/k8s-ai-conformance" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Kubernetes AI Conformance プログラム&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;が作成されました。&lt;/span&gt;&lt;a href="https://github.com/cncf/k8s-ai-conformance/blob/main/docs/AIConformance-1.35.yaml#L20" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRA のサポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、この新しい基準の要となるため、最初の必須要件として特定されました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ぜひお試しください&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes ワークロードがより複雑でミッション クリティカルになるにつれて、柔軟でインテリジェントかつ使いやすいリソース管理の実現が重要になっています。GKE の DRA は、要求の厳しい動的な環境でハードウェア リソースを最適化する際に手作業や当て推量に頼る必要性を排除します。DRA の詳細と利用方法については、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-dynamic-resource-allocation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE の DRA に関するドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/blog/ja/products/networking/introducing-managed-dranet-in-google-kubernetes-engine?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ノード ネットワーキングの進化: DRANET ブログ&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/dranet"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRANET のドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Morten Torkildsen&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Bo Fu&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 02 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</guid><category>AI &amp; Machine Learning</category><category>GKE</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>DRA: 動的リソース割り当てが切り開く Kubernetes デバイス管理の新時代</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Morten Torkildsen</name><title>Senior Software Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Bo Fu</name><title>Senior Product Manager</title><department></department><company></company></author></item><item><title>Google の企業向けブラウザでセキュリティを一層強化する 5 つの方法</title><link>https://cloud.google.com/blog/ja/products/chrome-enterprise/5-ways-our-enterprise-browser-keeps-reinforcing-security/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="680io"&gt;※この投稿は米国時間 2026 年 3 月 25 日に、Google Cloud blog に&lt;a href="https://cloud.google.com/blog/products/chrome-enterprise/5-ways-our-enterprise-browser-keeps-reinforcing-security?hl=en&amp;amp;e=48754805"&gt;投稿&lt;/a&gt;されたものの抄訳です。&lt;/p&gt;&lt;p data-block-key="8g3g1"&gt;RSA には、セキュリティ業界の多くのエキスパートが集います。常に変化するリスク環境をサポートし続けるソリューション プロバイダであれ、業界で新しいベスト プラクティスを共有するリサーチ コミュニティであれ、社内のセキュリティ強化のために知識の拡大に励むセキュリティ担当者であれ、こと企業セキュリティに関しては、次から次へと把握すべき最新情報が尽きません。この最先端の情報共有の場で、Google は、セキュアな企業向けブラウジング ソリューションを紹介し、急速に進化する AI 時代に企業データを保護する方法をお客様にご体験いただいています。&lt;/p&gt;&lt;p data-block-key="1n2l2"&gt;また、Chrome とコアを一層強化し、Chrome Enterprise にさらに多くの保護をもたらす新しい機能もいくつかご紹介しています。ここでは、ブラウザの継続的な堅牢化からダウンロード管理の強化まで、BYOD ユーザーや契約社員も含む、すべての従業員の保護に役立つ新機能についてご案内します。ぜひ最後までお読みください。&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="91emp"&gt;&lt;b&gt;セッション ハイジャックと Cookie の盗難の防止:&lt;/b&gt; Chrome は昨年、デバイスにバインドされたセッション認証情報（DBSC）を導入し、ユーザー セッションの侵害防止に向けて大きく前進しました。セッション Cookie を特定のデバイスにバインドすることで、「セッション ハイジャック」の試みを効果的に無効化します。高度な攻撃者がユーザーのセッション Cookie を盗むことに成功したとしても、その Cookie は元の認証済みデバイス以外では役に立たなくなるため、企業のユーザー アカウントとデータは安全に保たれます。このアプローチは、ブラウザのセキュリティ強化の重要な基盤となり、すべてのユーザーのセキュリティに役立つだけでなく、企業全体のセキュリティにも大きく寄与します。&lt;/li&gt;&lt;li data-block-key="aih8n"&gt;&lt;b&gt;保存データの保護:&lt;/b&gt; ユーザーがブラウザを閉じてもセキュリティが不要になるわけではありません。使用中のデータ同様、残されたデータを保護することも重要です。Chrome では、新しいブラウザ キャッシュ暗号化機能により、デバイスのハードドライブに保存されたキャッシュが完全に暗号化されます。つまり、ノートパソコンの紛失や盗難があった場合、キャッシュに保存されたデータが第三者によって不正に再構築または悪用されることはありません。組織と従業員の両方に安心をもたらす機能です。&lt;/li&gt;&lt;li data-block-key="8i00u"&gt;&lt;b&gt;情報窃取型マルウェアの無効化:&lt;/b&gt;「情報窃取型」マルウェアの増加により、悪意のあるアプリケーションから機密性の高いブラウザデータを保護することの重要性がかつてないほど高まっています。そこで Chromeは、アプリケーションにバインドされた暗号化により、不正なソフトウェアがブラウザを掘り下げてパスワードや認証情報を抽出することを防ぐ鉄壁の防御補強機能を備えました。ブラウザデータへのアクセスをブラウザ自体に限定することで、マルウェアによるデータ侵害のリスクを大幅に軽減します。&lt;/li&gt;&lt;li data-block-key="3cvkd"&gt;&lt;b&gt;企業データのダウンロード制御を強化:&lt;/b&gt; 企業システムが周辺環境のセキュリティを維持するには、クラウドやウェブからローカル デバイスへのデータの移動をきめ細かく制御する必要があります。Chrome では、ダウンロード管理機能が強化され、ダウンロードしたファイルの保存場所に関するより厳格なポリシーの設定が可能になりました。これにより、IT チームやセキュリティ チームは、Chrome のダウンロードを Google ドライブに保存することを義務付けるルールを設定できます。この機能は、まもなく Microsoft OneDrive でも利用できるようになります。これは、ハイブリッド環境で従業員のセキュリティを確保するために特に重要で、管理対象デバイスはもちろん、BYOD ユーザーや提携先のハードウェアにも堅牢なデータ損失防止（DLP）を適用できます。&lt;/li&gt;&lt;/ol&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Gemini_Generated_Image_kqf4ehkqf4ehkqf4.max-1000x1000.jpg"
        
          alt="Gemini_Generated_Image_kqf4ehkqf4ehkqf4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="680io"&gt;&lt;b&gt;5. 技術パートナー エコシステムによる安全なアクセスの推進:&lt;/b&gt; 組織で安全なアクセスを保つため、特に管理対象外デバイスのアクセスに対応するため、企業はすでに環境全体でさまざまなソリューションに投資しています。Chrome Enterprise でも、主要セキュリティ ソリューション プロバイダと継続的に連携を深め、企業向けのフルスタック セキュリティ アプローチをさらに強化しています。たとえば、&lt;a href="https://www.citrix.com/blogs/2026/03/24/one-year-in-how-our-partnership-with-google-has-matured-secure-access-for-the-browser-era/" target="_blank"&gt;Citrix Secure Access と Chrome Enterprise の機能を組み合わせ&lt;/a&gt;ると、キーロギング防止などの高度な専用保護機能を適用しながら、SSH や RDP のワークロードに安全にアクセスできます。また、Chrome Enterprise は、ID ソリューションの Okta と提携し、Okta のお客様にアンチウイルス補足シグナルを提供することでアクセス決定をサポートしています。さらに、Chrome Enterprise のリモート コマンド（Cookie とキャッシュの消去など）は、Okta などのサードパーティ プロバイダによって管理されているプロファイルにも拡張され、各ユーザーにご利用いただけるようになっています。&lt;/p&gt;&lt;p data-block-key="9fcq2"&gt;Chrome Enterprise、および高度な企業向けブラウジング保護について詳しくは、&lt;a href="https://chromeenterprise.google/" target="_blank"&gt;Chrome Enterprise のウェブサイト&lt;/a&gt;をご覧ください。&lt;/p&gt;&lt;p data-block-key="f87e1"&gt;&lt;b&gt;&lt;i&gt;-&lt;/i&gt;&lt;/b&gt; &lt;i&gt;Chrome Enterprise、シニア プロダクト マネージャー、&lt;/i&gt;&lt;b&gt;&lt;i&gt;Niamh Cunningham&lt;/i&gt;&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="a8os0"&gt;&lt;i&gt;- Google Cloud Security、グループ プロダクト マネージャー、&lt;/i&gt;&lt;b&gt;&lt;i&gt;Christopher Altman&lt;/i&gt;&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 02 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/chrome-enterprise/5-ways-our-enterprise-browser-keeps-reinforcing-security/</guid><category>Chrome Enterprise</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Blog_header_2600x1280px_Option_1.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google の企業向けブラウザでセキュリティを一層強化する 5 つの方法</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Blog_header_2600x1280px_Option_1.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/chrome-enterprise/5-ways-our-enterprise-browser-keeps-reinforcing-security/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Niamh Cunningham</name><title>Senior Product Manager, Chrome Enterprise</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Christopher Altman</name><title>Group Product Manager</title><department>Google Cloud Security</department><company></company></author></item><item><title>読み取りのスケーラビリティを合理化する Cloud SQL の自動スケーリングを備えた読み取りプール</title><link>https://cloud.google.com/blog/ja/products/databases/cloudsql-read-pools-support-autoscaling/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 19 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/databases/cloudsql-read-pools-support-autoscaling?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;データベースから頻繁に読み取りを行うアプリケーションの一般的なパターンは、読み取り負荷の高いワークロードをリードレプリカにオフロードすることです。これにより、アプリケーションをスケールしても、プライマリ データベース インスタンスでの重要な書き込みオペレーションに影響が及ぶことはありません。しかし、このような読み取り負荷の高いワークロードでは、単一のリードレプリカの容量を簡単に超えてしまう可能性があります。デベロッパーはロードバランサの背後に複数のレプリカを手動で実装できますが、この方法は複雑で、保守とスケーリングが困難です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://cloud.google.com/sql"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud SQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、MySQL と PostgreSQL の読み取りプールを使用して、読み取りをスケールするための簡素化されたフルマネージド ソリューションを提供します。この機能を使用すると、単一の読み取りエンドポイントからアクセスできる複数のリードレプリカをプロビジョニングできるため、アプリケーションを変更することなく、リードレプリカを簡単に追加および削除できます。効率をさらに向上させるために、Google は最近、Cloud SQL の読み取りプールに自動スケーリングを導入しました。これにより、リアルタイムのアプリケーション ニーズに基づいて読み取り機能が動的に調整されます。&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;自動スケーリング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を備えた&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプール&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;は、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt; Cloud SQL Enterprise Plus エディション&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;で一般提供されています。詳しくは、&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/mysql/about-read-pools"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MySQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/postgres/about-read-pools"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;PostgreSQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; のドキュメントと&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/release-notes#September_08_2025"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;リリースノート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールを使用する理由&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プライマリ インスタンスからレプリケートする読み取りプールを作成すると、Cloud SQL は &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールノード&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;と呼ばれる複数のリードレプリカを自動的にプロビジョニングし、クエリをノードにラウンドロビン方式でディスパッチする単一のロードバランサ（&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りエンドポイント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;）を作成します。1 つのプールには 1～20 個のノードを含めることができます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_dN3AmBF.max-1000x1000.jpg"
        
          alt="1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールは単一のエンティティとして管理されるため、運用上の負担が軽減されます。プールは同種のノードのセットを表します。データベース フラグ、VM タイプ、その他のパラメータの更新などの構成変更を行うと、その変更はプール内のすべてのノードに自動的に適用されます。また、ワークロードの変化に応じて、プールからノードの追加や削除ができるため、いつでも&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;スケールアウトとスケールイン&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;が可能です。すべてのクエリは読み取りエンドポイントのロードバランサを通過するため、プール内のノードが更新、追加、削除されても、アプリケーションを再構成する必要はありません。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールの自動スケーリングでスケーリングが容易に&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールは、ワークロードが変動するシナリオで真価を発揮します。Cloud SQL の読み取りプール向けの自動スケーリングの一般提供が開始されたことで、こうした変動の管理がさらに簡単になりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールの自動スケーリングの主なメリットは以下のとおりです。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;トラフィックの急増に対する自動管理&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: データベース接続または CPU 使用率に基づいてプールが最大 20 個のノードまで動的にスケールアップされるため、需要がピークに達してもアプリケーションの応答性を維持できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;オペレーションの簡素化&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 自動スケーリングは単一の読み取りエンドポイントと統合されているため、基盤となるノードが調整されても、アプリケーションは同じアドレスに接続されたままになります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;費用の最適化&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: トラフィックが少ない期間は自動的なスケールインによって、実際に使用したリソースに対してのみ料金が発生するため、オーバープロビジョニングによって発生する費用を回避できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Cloud SQL が読み取りプールで可用性を向上させる仕組み&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ミッション クリティカルな信頼性を実現するように設計された Cloud SQL の読み取りプールは、可用性が高い読み取りワークロードの基盤となります。ノードを 2 つ以上維持することで、読み取りプールは 99.99% の可用性 SLA によってサポートされ、これにはメンテナンスのダウンタイムも含まれます。これを実現するために、Cloud SQL は次のように環境をインテリジェントに管理します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールにノードを追加する際、既存の接続は、既存のノードで中断することなく続行されます。新しい接続は新たに追加されたノードに割り当てられる場合があります。既存の接続が処理を完了すると、負荷はすべてのノード間で均等に分散されるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;2 つ以上のノードを含む読み取りプールの場合、VM タイプやデータベース フラグを変更したり、その他の大半の構成更新を実行したりすると、読み取りプールはダウンタイムがほぼゼロで更新されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;他の Cloud SQL インスタンスと同様に、Cloud SQL は読み取りプール インスタンスの基盤となるハードウェアの問題を自動的に検出して修復します。異常が検出されたノードは、ロードバランサのローテーションから削除され、それを置き換えるための新しいノードが作成されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;自動スケーリングを備えた読み取りプールの有効化と使用&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールは、ワークロードが大きく変動する環境で優れた性能を発揮します。Cloud SQL の自動スケーリングでは、CPU 使用率やデータベース接続などの主要な指標の目標値を設定すると同時に、ノードの最小数と最大数を定義できます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_dLy2Pt5.max-1000x1000.jpg"
        
          alt="2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;小売業界は良い例になります。トラフィックが、日々のサイクル、季節の変化、期間限定セールなどに基づいてよく変動するからです。こうしたピーク時に動的にスケールアウトし、需要が落ち着いたらスケールインすることで、オーバープロビジョニングされた環境のオーバーヘッドなしに、優れたカスタマー エクスペリエンスを提供できます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_e5mjKvv.max-1000x1000.jpg"
        
          alt="3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Enterprise Plus エディションのインスタンスをすでに作成している場合は、そのインスタンスからレプリケートする読み取りプールを作成できます。次のコマンドは、2 つのノードを含む読み取りプールを作成し、自動スケーリングを有効にします。自動スケーリングは、CPU 使用率を 60% 前後で維持しながら、ノードを 2～10 個の間でスケールするように構成されています。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud sql instances create myautoscaledreadpool \\\r\n  --tier=db-perf-optimized-N-4 --edition=ENTERPRISE_PLUS \\\r\n  --instance-type=READ_POOL_INSTANCE \\\r\n  --master-instance-name=myprimary \\\r\n  --region=us-west1 \\\r\n  --node-count=2 \\\r\n  --auto-scale-enabled \\\r\n  --auto-scale-min-node-count=2 \\\r\n  --auto-scale-max-node-count=10 \\\r\n  --auto-scale-target-metrics=AVERAGE_CPU_UTILIZATION=0.60&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984c3f40&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りエンドポイントの IP アドレスは、Google Cloud コンソールでインスタンスを確認するか、gcloud CLI を使用して取得できます。この IP アドレスは、プールの存続期間中は変更されません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;既存の読み取りプールがある場合は、簡単に自動スケーリングを有効にできます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud sql instances patch myreadpool \\\r\n  --auto-scale-enabled \\\r\n  --auto-scale-min-node-count=2 \\\r\n  --auto-scale-max-node-count=10 \\\r\n  --auto-scale-target-metrics=AVERAGE_DB_CONNECTIONS=100&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984c3eb0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このコマンドは、ノードが 2～10 個の間で自動的にスケールされるように myreadpool を構成します。その際、ノードあたりの平均データベース接続数が最大 100 になるように調整されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;自動スケーリングは、変動するワークロードのほとんどに推奨されますが、必要に応じてノード数を直接更新することで、読み取りプールを手動でスケールすることもできます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# Manually scale out to 4 nodes\r\ngcloud sql instances patch myreadpool --node-count=4\r\n\r\n# Manually scale back in to 2 nodes\r\ngcloud sql instances patch myreadpool --node-count=2&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f9a984c3dc0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;使ってみる&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;新しい自動スケーリング機能を備えた読み取りプールを使用することで、多数の読み取りレプリカの管理に伴う面倒な作業を回避できるほか、アプリケーションに必要な読み取り容量を必要に応じて提供でき、過剰な費用を回避できます。今すぐ始めるには、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;読み取りプールに関する Cloud SQL のドキュメント&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;ul&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールについて&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/mysql/about-read-pools"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MySQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/postgres/about-read-pools"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;PostgreSQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールの作成と管理&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/mysql/create-read-pool"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MySQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://cloud.google.com/sql/docs/postgres/create-read-pool"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;PostgreSQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）: gcloud CLI、Terraform、REST API のコマンド例を含む&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りプールの自動スケーリング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/sql/docs/mysql/read-pool-autoscaling"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MySQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/sql/docs/postgres/read-pool-autoscaling"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;PostgreSQL&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）: gcloud CLI、Terraform、REST API のコマンド例を含む&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/sql/docs/mysql/create-free-trial-instance"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;新しい Cloud SQL の無料トライアルにご登録ください。&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;これは、新規および既存の Google Cloud ユーザーの皆様を対象とした、Cloud SQL（PostgreSQL および MySQL）が提供するプレミアムなエンタープライズ グレードの機能をご利用いただくことを目的とした 30 日間の専用プログラムです。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Phil Sung&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;プロダクト マネージャー 、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Shahzeb Farrukh&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 01 Apr 2026 02:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/databases/cloudsql-read-pools-support-autoscaling/</guid><category>Cloud SQL</category><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>読み取りのスケーラビリティを合理化する Cloud SQL の自動スケーリングを備えた読み取りプール</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/databases/cloudsql-read-pools-support-autoscaling/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Phil Sung</name><title>Software Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Shahzeb Farrukh</name><title>Product Manager</title><department></department><company></company></author></item></channel></rss>