<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>AI &amp; 機械学習</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/</link><description>AI &amp; 機械学習</description><atom:link href="https://cloudblog.withgoogle.com/blog/ja/products/ai-machine-learning/rss/" rel="self"></atom:link><language>ja</language><lastBuildDate>Thu, 16 Apr 2026 02:35:53 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/static/blog/images/google.a51985becaa6.png</url><title>AI &amp; 機械学習</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/</link></image><item><title>新しい GKE Cloud Storage FUSE プロファイルにより、AI ストレージの構成における当て推量が不要に</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/optimize-aiml-workloads-with-gke-cloud-storage-fuse-profiles/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 9 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/optimize-aiml-workloads-with-gke-cloud-storage-fuse-profiles?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI / ML の世界では、データはトレーニングと推論のワークロードに欠かせない要素です。Google Kubernetes Engine（GKE）ユーザーは、Cloud Storage FUSE を使用して Google Cloud Storage に保存されているデータに高いパフォーマンスでスケーラブルにアクセスできます。しかし、Cloud Storage FUSE のパフォーマンスを最大限に引き出すのは複雑な場合がある、というお客様の声が寄せられていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、GKE Cloud Storage FUSE プロファイルが導入されました。この新機能は、運用オーバーヘッドを最小限に抑えながら、パフォーマンス調整を自動化し、AI / ML ワークロード（トレーニング、チェックポイント、推論）のデータアクセスを高速化するように設計されています。特定のワークロードのニーズに合わせて調整されたこれらのプロファイルを使用すると、Cloud Storage FUSE の高いパフォーマンスをすぐに活用できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;導入前&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（手動調整）&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;apiVersion: v1\r\nkind: PersistentVolume\r\nmetadata:\r\n  name: serving-bucket-pv\r\nspec:\r\n  accessModes:\r\n  - ReadWriteMany\r\n  capacity:\r\n    storage: 64Gi\r\n  persistentVolumeReclaimPolicy: Retain\r\n  storageClassName: &amp;quot;&amp;quot;\r\n  claimRef:\r\n    name: serving-bucket-pvc\r\n  mountOptions:\r\n    - implicit-dirs\r\n    - metadata-cache:ttl-secs:-1\r\n    - metadata-cache:stat-cache-max-size-mb:-1\r\n    - metadata-cache:type-cache-max-size-mb:-1\r\n    - file-cache:max-size-mb:-1\r\n    - file-cache:cache-file-for-range-read:true\r\n    - file-system:kernel-list-cache-ttl-secs:-1\r\n    - file-cache:enable-parallel-downloads:true\r\n    - read_ahead_kb=1024\r\n  csi:\r\n    driver: gcsfuse.csi.storage.gke.io\r\n    volumeHandle: BUCKET_NAME\r\n    volumeAttributes:\r\n      skipCSIBucketAccessCheck: &amp;quot;true&amp;quot;\r\n      gcsfuseMetadataPrefetchOnMount: &amp;quot;true&amp;quot;\r\n---\r\napiVersion: v1\r\nkind: PersistentVolumeClaim\r\nmetadata:\r\n  name: serving-bucket-pvc\r\nspec:\r\n  accessModes:\r\n  - ReadWriteMany\r\n  resources:\r\n    requests:\r\n      storage: 64Gi\r\n  volumeName: serving-bucket-pv\r\n  storageClassName: &amp;quot;&amp;quot;\r\n–--\r\napiVersion: v1\r\nkind: Pod\r\nmetadata:\r\n  name: gcs-fuse-csi-example-pod\r\n  annotations:\r\n    gke-gcsfuse/volumes: &amp;quot;true&amp;quot;\r\nspec:\r\n  containers:\r\n    # Your workload container spec\r\n    ...\r\n    volumeMounts:\r\n    - name: serving-bucket-vol\r\n      mountPath: /serving-data\r\n      readOnly: true\r\n  serviceAccountName: KSA_NAME \r\n  volumes:\r\n    - name: gke-gcsfuse-cache # gcsfuse file cache backed by RAM Disk\r\n      emptyDir:\r\n        medium: Memory \r\n  - name: serving-bucket-vol\r\n    persistentVolumeClaim:\r\n      claimName: serving-bucket-pvc&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7fb86021eeb0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;導入後&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;（Cloud Storage FUSE のマウント オプション、CSI 構成、ファイル キャッシュ メディアが自動的に構成されます）&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;apiVersion: v1\r\nkind: PersistentVolume\r\nmetadata:\r\n  name: serving-bucket-pv\r\nspec:\r\n  accessModes:\r\n  - ReadWriteMany\r\n  capacity:\r\n    storage: 64Gi\r\n  persistentVolumeReclaimPolicy: Retain\r\n  storageClassName: gcsfusecsi-serving\r\n  claimRef:\r\n    name: serving-bucket-pvc\r\n  csi:\r\n    driver: gcsfuse.csi.storage.gke.io\r\n    volumeHandle: BUCKET_NAME\r\n---\r\napiVersion: v1\r\nkind: PersistentVolumeClaim\r\nmetadata:\r\n  name: serving-bucket-pvc\r\nspec:\r\n  accessModes:\r\n  - ReadWriteMany\r\n  resources:\r\n    requests:\r\n      storage: 64Gi\r\n  volumeName: serving-bucket-pv\r\n  storageClassName: gcsfusecsi-serving\r\n–--\r\napiVersion: v1\r\nkind: Pod\r\nmetadata:\r\n  name: gcs-fuse-csi-example-pod\r\n  annotations:\r\n    gke-gcsfuse/volumes: &amp;quot;true&amp;quot;\r\nspec:\r\n  containers:\r\n    # Your workload container spec\r\n    ...\r\n    volumeMounts:\r\n    - name: serving-bucket-vol\r\n      mountPath: /serving-data\r\n      readOnly: true\r\n  serviceAccountName: KSA_NAME \r\n  volumes: \r\n  - name: serving-bucket-vol\r\n    persistentVolumeClaim:\r\n      claimName: serving-bucket-pvc&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7fb86091c280&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Cloud Storage FUSE の最適化に伴う課題&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;高パフォーマンスのワークロード向けに Cloud Storage FUSE を最適化することは、多次元的な問題です。従来、ユーザーは数十ページに及ぶ&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/storage/docs/cloud-storage-fuse/performance"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;手動構成ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を読み解く必要がありました。AI / ML の進化に伴い、Cloud Storage FUSE の機能も強化され、ワークロードを高速化するための新しいマウント オプションが利用できるようになりました。設定が「適切」かどうかは静的なものではなく、さまざまな動的要因に大きく左右されるものでした。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;バケットの特性&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: データセットの合計サイズとオブジェクトの数は、メタデータとファイル キャッシュの要件に大きく影響します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;インフラストラクチャの多様性:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; GPU、TPU、汎用コンピューティングのいずれを使用するかによって、最適な構成は異なります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ノードリソース: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Cloud Storage への費用のかかるラウンドトリップを最小限に抑えるためにローカルにキャッシュ保存できるデータの量は、利用可能な RAM とローカル SSD の容量によって決まります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ワークロード パターン: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;トレーニング ワークロード（大規模データセットの高スループット読み取り）では、チェックポイント ワークロード（バースト性が高い、高スループット書き込み）やサービング ワークロード（レイテンシの影響を受けやすいモデルの読み込み）とは異なる調整が必要です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;実際、多くのお客様は、Cloud Storage FUSE の設定が最適化されていないか、誤って構成されているために、利用可能なパフォーマンスを十分に活用できていないか、信頼性の問題（Pod のメモリ不足による強制終了など）に直面しています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;GKE 向け Cloud Storage FUSE プロファイルの概要&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Cloud Storage FUSE プロファイルは、特定の AI / ML パターンに合わせてカスタマイズされた、事前定義された動的管理の StorageClass を使用して、この複雑さを簡素化します。数十ものマウント オプションを手動で調整する必要はなく、ワークロードのタイプに一致するプロファイルを選択するだけでかまいません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのプロファイルは、階層化されたモデルで機能します。Cloud Storage FUSE の基本的なベスト プラクティスをベースに、GKE 固有のインテリジェンス レイヤを追加します。プロファイルを使用して Pod をデプロイすると、GKE は自動的に次の処理を行います。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;バケット（または特定のディレクトリ）をスキャンして、そのサイズとオブジェクト数を把握します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;ターゲット ノードを分析して、利用可能な RAM、ローカル SSD、アクセラレータ タイプを確認します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;最適なキャッシュ サイズを計算し、最適なバッキング メディア（RAM またはローカル SSD）を自動的に選択します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;リリース時には、次の 3 つの主要なプロファイルが用意されています。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;code style="vertical-align: baseline;"&gt;gcsfusecsi-training&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;: GPU と TPU にデータを供給し続ける高スループットの読み取りに最適化されています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;code style="vertical-align: baseline;"&gt;gcsfusecsi-serving&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;: モデルの読み込みと推論に最適化され、自動化された &lt;/span&gt;&lt;a href="https://cloud.google.com/storage/docs/anywhere-cache"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Rapid Cache&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 統合が可能です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;code style="vertical-align: baseline;"&gt;gcsfusecsi-checkpointing&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;: 数ギガバイトの大きなチェックポイント ファイルを高速かつ確実に書き込むように最適化されています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Cloud Storage FUSE プロファイルを使用すると、次のようなメリットがあります。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;調整の簡素化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 複雑でエラーが発生しやすい手動構成が、3 つのシンプルな専用 StorageClass に置き換えられます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;リソースを認識した動的な最適化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; CSI ドライバは、リアルタイムの環境シグナルに基づいてキャッシュ サイズを自動的に調整するため、ノードの安定性を損なうことなくパフォーマンスを最大化できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;読み取りパフォーマンスの向上:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; サービング プロファイルは Rapid Cache を自動的にトリガーし、データをコンピューティングの近くに配置して、コールド スタートモデルの読み込みを高速化します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;きめ細かなパフォーマンス分析情報:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 構造化されたログを通じて自動調整の決定を可視化し、特定のキャッシュ サイズとメディアが Pod に対して選択された理由を正確に把握できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_4Ng3Hpa.max-1000x1000.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Cloud Storage FUSE プロファイルの推論プロファイルを使用することで、TPU（480 GB）上の Qwen3-235B-A22B ワークロードのモデル読み込み時間を 39 時間からわずか 14 分に短縮できました。これにより、お客様は Cloud Storage FUSE GCSFuse をすぐに使用して最大限のメリットを得ることができます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;GKE で Cloud Storage FUSE プロファイルを使用する方法&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず、Cloud Storage FUSE CSI ドライバが有効になっている GKE バージョン 1.35.1-gke.1616000 以降がクラスタで実行されていることを確認します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;1. StorageClass を特定する&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE には、プロファイル ベースの StorageClass がプリインストールされています。次のコマンドで確認できます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;kubectl get sc -l gke-gcsfuse/profile=true&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7fb86091cbb0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;2. PV と PVC を作成する&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;PersistentVolume を作成する際、Cloud Storage バケットを参照するようにします。GKE は、最適な構成を判断するためにバケット スキャンを自動的に開始します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;apiVersion: v1\r\nkind: PersistentVolume\r\nmetadata:\r\n  name: gcs-pv\r\nspec:\r\n  accessModes:\r\n    - ReadWriteMany\r\n  capacity:\r\n    storage: 5Gi\r\n  persistentVolumeReclaimPolicy: Retain  \r\n  storageClassName: gcsfusecsi-training\r\n  mountOptions:\r\n    - only-dir=my-ml-dataset-subdirectory # Optional\r\n  csi:\r\n    driver: gcsfuse.csi.storage.gke.io\r\n    volumeHandle: my-ml-dataset-bucket\r\n---\r\napiVersion: v1\r\nkind: PersistentVolumeClaim\r\nmetadata:\r\n  name: gcs-pvc\r\nspec:\r\n  accessModes:\r\n    - ReadWriteMany\r\n  resources:\r\n    requests:\r\n      storage: 5Gi\r\n  storageClassName: gcsfusecsi-training\r\n  volumeName: gcs-pv&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7fb86091c490&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;3. デプロイを作成する&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;PersistentVolumeClaim（PVC）がバインドされたら、他のボリュームと同様に Deployment で使用するだけです。GKE は、ハードウェアとデータセットに必要となる正確な設定でボリュームをマウントします。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;apiVersion: apps/v1\r\nkind: Deployment\r\nmetadata:\r\n  name: my-deployment\r\nspec:\r\n  replicas: 3\r\n  selector:\r\n    matchLabels:\r\n      app: my-app\r\n  template:\r\n    metadata:\r\n      labels:\r\n        app: my-app\r\n      annotations:\r\n        gke-gcsfuse/volumes: &amp;quot;true&amp;quot;\r\n    spec:\r\n      serviceAccountName: my-ksa\r\n      containers:\r\n      - name: my-container\r\n        image: busybox\r\n        volumeMounts:\r\n        - name: my-gcs-volume\r\n          mountPath: &amp;quot;/data&amp;quot;\r\n      volumes:\r\n      - name: my-gcs-volume\r\n        persistentVolumeClaim:\r\n          claimName: gcs-pvc&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7fb86091c8b0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;デプロイ後、CSI ドライバは、GPU や TPU、メモリ、ローカル SSD、バケットまたはサブディレクトリのサイズ、サイドカーのリソース上限など、ノードのリソースに基づいて最適なキャッシュ サイズとマウント オプションを自動的に計算します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;使ってみる&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Cloud Storage FUSE プロファイルを使用すると、高パフォーマンスなクラウド ストレージを構成する際に当て推量が不要になります。手動の「ノブ調整」からワークロードを認識する自動プロファイルに移行することで、ストレージ スループットのデバッグに費やす時間を減らし、次世代の AI の構築に多くの時間を費やすことができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ぜひご利用ください。GKE Cloud Storage FUSE プロファイルは、バージョン 1.35.1-gke.1616000 で一般提供されています。AI / ML ワークロード向けに GKE で Cloud Storage FUSE プロファイルを構成する方法については、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/how-to/persistent-volumes/gcsfuse-profiles"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;公式ドキュメント&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;エンジニアリング マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Nishtha Jain&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Uriel Guzmán-Mendoza&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 16 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/optimize-aiml-workloads-with-gke-cloud-storage-fuse-profiles/</guid><category>AI &amp; Machine Learning</category><category>GKE</category><category>Storage &amp; Data Transfer</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>新しい GKE Cloud Storage FUSE プロファイルにより、AI ストレージの構成における当て推量が不要に</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/optimize-aiml-workloads-with-gke-cloud-storage-fuse-profiles/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Nishtha Jain</name><title>Engineering Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Uriel Guzmán-Mendoza</name><title>Software Engineer</title><department></department><company></company></author></item><item><title>Vertex AI の Lyria 3 モデルで音楽生成をアプリに組み込む</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/lyria-3-and-lyria-3-pro-on-vertex-ai/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 8 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/lyria-3-and-lyria-3-pro-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;最新情報:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Google の音楽生成モデル ファミリーである &lt;/span&gt;&lt;a href="https://deepmind.google/models/lyria/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Lyria 3&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; が、Vertex AI で公開プレビュー版としてご利用いただけるようになりました。Lyria 3 モデルを使用すると、テキスト プロンプトや画像から、ボーカル サポート付きの高音質かつ高忠実度のステレオ音声を生成できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;多様なニーズにお応えするため、API を通じて 2 つの異なるモデルを提供しています。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/lyria/lyria-3#lyria-3-pro-preview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Lyria 3 Pro:&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 最長 3 分の完全な楽曲を生成します。音楽の構成を理解し、イントロ、A メロ、サビ、ブリッジなどの特定の構成要素を考慮します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/lyria/lyria-3#lyria-3-clip-preview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Lyria 3:&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; 最長 30 秒のトラックを生成します。迅速なプロトタイピング、ソーシャル メディア アセット、短尺音声の生成に最適です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=hv8ZI7foGZk"
      data-glue-modal-trigger="uni-modal-hv8ZI7foGZk-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault_viXlAkn.max-1000x1000.jpg);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Lyria 3 Pro のご紹介&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-hv8ZI7foGZk-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="hv8ZI7foGZk"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=hv8ZI7foGZk"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;ビジネスにとって重要である理由:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; これらのモデルは、ボーカル、タイミングに合わせた歌詞、完全なインストゥルメンタル アレンジなど、構造的な一貫性を提供します。スタジオ品質の音声制作をアプリに直接組み込むことができ、以下のような制作が可能になります。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;マルチモーダル入力:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 標準的なテキスト プロンプトを使用するか、参照画像を使用してストーリー、ムード、スタイルをガイドすることで、音声を生成します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ボーカルと歌詞:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ボーカルと、タイミングを合わせた歌詞を生成したり、ユーザーが提供した歌詞を使用してトラックをガイドしたりできます。ボーカルなしの BGM が必要な場合は、プロンプトに「インストゥルメンタル」と入力します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;柔軟な構成:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 尺調整機能を使用して、明確なイントロ、A メロ、サビ、ブリッジを持つフル楽曲を生成できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Lyria へのアクセス方法:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/music/overview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI API&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/studio/media/music"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI Media Studio&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; からモデルにアクセスできます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Lyria 3 モデルがお客様のオーディオ エクスペリエンスの実現にどのように役立っているか&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「Artlist は、音楽に関する深い専門知識と、デジタル世界を形作るグローバルなサウンド トレンドを確立するというコミットメントに基づいて構築されています。豊富な経験を活かして、当社の『人間参加型』の音楽学と Google の最先端の生成音楽モデルを組み合わせることで、Lyria 3 の可能性を最大限に引き出しています。Lyria 3 は、これまでにないレベルのクリエイティブ コントロールと高忠実度の出力を提供し、技術革新と Artlist ブランドを定義する本格的なサウンドの強力な融合を実現します。」- Artlist、最高製品技術責任者、Roee Peled 氏&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「Lyria 3 により、『単なる生成』から『真のクリエイティブ コントロール』への明確な移行を実感しています。これにより、Freepik のお客様は、ビジョンやワークフローに、より正確に沿った音楽を制作できるようになります。Lyria 3 で際立っているのは、その制御性の高さです。イテレーションの時間を短縮し、音楽生成を実際のクリエイティブ パイプラインにおいて、はるかに予測可能で実用的なものにしています。」- Freepik、エンジニアリング リード、Carlos Perez 氏&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=26KBMFUFrO0"
      data-glue-modal-trigger="uni-modal-26KBMFUFrO0-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault-1_Gwzpla9.max-1000x1000.jpg);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Lyria 3 Pro on Vertex AI&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-26KBMFUFrO0-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="26KBMFUFrO0"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=26KBMFUFrO0"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;商用利用の安全性と責任ある制作&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;責任ある開発は基本であり、Lyria 3 モデルの設計とトレーニングにおいて不可欠な要素です。YouTube と Google が利用規約、パートナー契約、適用法に基づいて使用権を持つ素材のみを使用しています。さらに、既存のコンテンツと照合して出力をチェックするフィルタを導入しているほか、ユーザーは他者の知的財産権やプライバシーの権利を侵害することを禁止する&lt;/span&gt;&lt;a href="https://policies.google.com/terms?e=-IdentityBoqPoliciesUiGoodallSSAT::Launch,IdentityBoqPoliciesUiAdditionalAup::Launch#toc-what-we-expect" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;利用規約&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;と&lt;/span&gt;&lt;a href="https://policies.google.com/terms/generative-ai/use-policy?e=-IdentityBoqPoliciesUiGoodallSSAT::Launch,IdentityBoqPoliciesUiAdditionalAup::Launch" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;生成 AI の使用禁止に関するポリシー&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を遵守する必要があります。Lyria 3 と Lyria 3 Pro のすべての出力には &lt;/span&gt;&lt;a href="https://deepmind.google/models/synthid/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;SynthID&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の透かしが埋め込まれ、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/content-credentials"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;C2PA&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; に対応しています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;今すぐ制作に着手しましょう&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ベスト プラクティスについて詳しくは、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/lyria/lyria-3#lyria-3-pro-preview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;モデルカード&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/ultimate-prompting-guide-for-lyria-3-pro"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Lyria のプロンプトに関する究極のガイド&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Gen AI SDK for Python &lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/audio/music/getting-started/lyria3_music_generation.ipynb" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ノートブック&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-creative-studio/tree/main/experiments/mcp-genmedia" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gen Media MCP ツール&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でこれらのモデルを使用している場合は、こちらの&lt;/span&gt;&lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-creative-studio/blob/main/experiments/mcp-genmedia/skills/genmedia-audio-engineer/SKILL.md" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;エージェント スキル&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を介してドメイン固有のサウンド デザインの知識を提供できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Workspace または Google AI の定期購入をご利用のお客様は、&lt;/span&gt;&lt;a href="http://vids.new/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google Vids&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; で Lyria 3 モデルを体験し、ブランドのスタイルに合ったカスタム トラックを動画に追加することもできます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=75jheFplGkQ"
      data-glue-modal-trigger="uni-modal-75jheFplGkQ-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_abiaf90.max-1000x1000.png);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Create custom tracks with Lyria 3 Pro in Google Vids&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-75jheFplGkQ-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="75jheFplGkQ"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=75jheFplGkQ"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、生成メディア担当グループ プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Sandeep Gupta&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、プロダクト マネジメント担当シニア ディレクター、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Reah Miyara&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 14 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/lyria-3-and-lyria-3-pro-on-vertex-ai/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Lyria_3_models.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Vertex AI の Lyria 3 モデルで音楽生成をアプリに組み込む</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Lyria_3_models.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/lyria-3-and-lyria-3-pro-on-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sandeep Gupta</name><title>Group Product Manager, Generative Media, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Reah Miyara</name><title>Senior Director, Product Management, Google Cloud</title><department></department><company></company></author></item><item><title>膨大な表計算作業から脱却。AI と数理最適化で実現する、需要予測の先の「発注・在庫管理の自動化」</title><link>https://cloud.google.com/blog/ja/topics/customers/cainz-breaks-free-from-the-burden-of-massive-spreadsheet-work/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="yojbi"&gt;商品、サービス、店舗を通じて、より効率的で最適なサプライチェーンの実現を目指す中で、需要予測の精度向上は株式会社カインズにとっても最優先課題です。しかし、精度の高い需要予測モデルを構築し予測結果を出力することはサプライチェーン全体においては入り口に過ぎません。&lt;/p&gt;&lt;p data-block-key="7os5"&gt;実際には、予測値が出た後に、SKU ごとの特性や季節性に応じた「予測結果の精査」や「発注・在庫管理のためのメンテナンス」という不可欠な実務工程が存在し、その膨大な作業を表計算ソフトによる手作業で支えているという実態がありました。&lt;/p&gt;&lt;p data-block-key="7ji7u"&gt;本記事では、Vertex AI による需要予測の次のステップとして、AI エージェントを組み合わせることで、190 万行に及ぶ SQL 処理と複雑な表計算ソフト作業をどのように刷新したのか、株式会社カインズの取り組みの舞台裏を詳しく紹介します。&lt;/p&gt;&lt;p data-block-key="e09n9"&gt;&lt;b&gt;利用しているサービス:&lt;br/&gt;&lt;/b&gt;Big Query、Vertex AI、Cloud Run Jobs、Workflows、Vertex AI Agent Builder (SDK)&lt;/p&gt;&lt;h3 data-block-key="b38rm"&gt;&lt;b&gt;「表計算ソフト作業」への依存がもたらす限界&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="b6bin"&gt;これまで、需要予測の結果を実務に反映させるプロセスは、まさに「表計算ソフト作業との格闘」でした。システムから出力されるデータは、190 万行に及ぶ膨大な SQL クエリ結果を発注点メンテナンス向けの表計算ソフトの作業用シートに書き出したもので、その出力だけで丸 2 日を要していました。&lt;/p&gt;&lt;p data-block-key="fadn8"&gt;出力されたデータは 1 ファイルに収まりきらず、20 万行ごとに 6〜7 個のファイルに分割して管理されていました。現場の担当者は、これらのファイルに対して棚割りデータや在庫データ、直近の売上実績などから様々なフラグを作成したり、他システムで管理しているマスタデータを VLOOKUP 等の関数で紐付けたりしていました。さらに「この在庫は動かさない」といった個別のフラグを手作業で立てるなど、複雑で膨大な表計算ソフト作業を行っていました。&lt;/p&gt;&lt;p data-block-key="e0jgt"&gt;「こうした表計算ソフト作業でメンテナンスを行うこと自体が、もはや正解ではないと感じていました」と、矢口氏は当時の課題を振り返ります。表計算ソフトの作業用シートのメンテナンスは、専任の担当エンジニアがつきっきりで数式の変更や列の追加要望に対応していましたが、列ずれの確認やテストに多大な工数がかかり、現場のニーズに即座に応えることが難しい状況にありました。&lt;/p&gt;&lt;h3 data-block-key="d5ifp"&gt;&lt;b&gt;AI エージェントの導入：自然な対話で「発注点メンテナンス」を民主化&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="7dhoi"&gt;この課題を根本から解決するために導入されたのが、AI エージェントを活用したデータ処理基盤です。Vertex AI Agent Builder を活用し、ユーザーが自由な条件でデータの絞り込みを行える仕組みを構築しました。&lt;/p&gt;&lt;p data-block-key="fqopt"&gt;従来の運用では、メンテナンスの要望があるたびに表計算ソフト作業のロジックを書き換える必要がありましたが、AI エージェントを介することで、ユーザー自身が「この条件でデータを抽出してほしい」といった指示を出し、BigQuery 上のデータを直接操作・抽出することが可能になりました。&lt;/p&gt;&lt;p data-block-key="6aidi"&gt;また、需要予測の「後工程」として非常に負荷が高かったのが、酒類などの発注において「車建発注（在庫回転日数をコントロールしつつトラック積載量を最大化する）」の最適化計算です。これまでは、カインズ側でベースの発注量を 1 日かけて表計算ソフトで算出して翌日に取引先に送付し、取引先側で車建計算を行っていました。しかし、数理最適化を使ったアルゴリズムを開発し、計算を組み込むことでこのプロセスを自動化。現在ではカインズ自身で車建発注量の計算を行えるようになりました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_ZChPmq1.max-1000x1000.jpg"
        
          alt="image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="s4ezf"&gt;&lt;b&gt;導入効果：劇的な業務削減と「あるべき姿」への集中&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8klmh"&gt;今回の取り組みにより、主に以下の 3 つの成果が得られました。&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="ctc0f"&gt;劇的な工数削減： 2〜3 日かかっていた発注点メンテナンスのためのデータ抽出および表計算ソフト作業が大幅に効率化されました。&lt;/li&gt;&lt;li data-block-key="b4qnp"&gt;柔軟性の向上：Vertex AI Agent Builder を使った AI エージェントの導入により、自分たちで「やりたいこと」を AI エージェントを通じて即座に実行できる内製化のスピード感が実現しました。&lt;/li&gt;&lt;li data-block-key="6qrs5"&gt;データの正確性と一貫性：複数のファイルに分散しローカル保存されていた表計算ソフト作業のデータが BigQuery という単一のソースに統合され、属人的な数式ミスや列ずれの不安が解消されました。&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="5v7ih"&gt;「需要予測を起点に発注管理から在庫管理まで、すべて統合された基盤で実行することが可能になった」と矢口氏は語るように、点在していた業務プロセスが Google Cloud 上で統合されたことが、最大の価値となっています。&lt;/p&gt;&lt;h3 data-block-key="ad2m0"&gt;&lt;b&gt;今後の展望：数理最適化のさらなる拡張と AI エージェントの融合&lt;/b&gt;&lt;/h3&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_6mqxAKt.max-1000x1000.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="7fmyw"&gt;現在はローカル環境で行っている数理最適化計算のリクエスト処理なども、順次 AI エージェント上に移行していく予定です。またシーズン商品の最適化や棚割の最適化など、より複雑な変数が絡む領域への数理最適化の適用も視野に入れています。&lt;/p&gt;&lt;p data-block-key="d1s12"&gt;AI が単に予測値を出すだけでなく、実務における判断をサポートし、複雑な計算を肩代わりする。株式会社カインズにとって、この「需要予測のその先」の実現こそが、小売・流通業界における真の DX の鍵となるはずです。&lt;/p&gt;&lt;p data-block-key="a9mp0"&gt;&lt;b&gt;株式会社カインズ&lt;br/&gt;&lt;/b&gt;株式会社カインズは、29 都道府県下に 264 店舗を展開するホームセンター チェーンです。「くらし DIY 」をブランド コンセプトに、くらしを豊かにする価値ある商品・サービスを開発し、お値打ち価格で毎日提供します。Kindness（親切心）と創意工夫のアイデアあふれる店舗づくりに努めることで、お客様一人ひとりの、ご家族の、そして地域の日常を楽しいものとし、お客様とのプロミスである「くらしに、ららら。」をお届けします。&lt;/p&gt;&lt;p data-block-key="apk3s"&gt;&lt;b&gt;インタビュイー&lt;br/&gt;&lt;/b&gt;株式会社カインズ　&lt;br/&gt;ビジネスソリューション部 需要予測グループ　グループマネジャー　矢口 未知彦氏&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Tue, 14 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/customers/cainz-breaks-free-from-the-burden-of-massive-spreadsheet-work/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_UcB191V.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>膨大な表計算作業から脱却。AI と数理最適化で実現する、需要予測の先の「発注・在庫管理の自動化」</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_UcB191V.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/customers/cainz-breaks-free-from-the-burden-of-massive-spreadsheet-work/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>GKE Inference Gateway を使用して、同じインフラストラクチャでリアルタイム推論と非同期推論を実行する</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/unifying-real-time-and-async-inference-with-gke-inference-gateway/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 2 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/unifying-real-time-and-async-inference-with-gke-inference-gateway?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI ワークロードが実験的なプロトタイプから本番環境グレードのサービスに移行するのに伴い、それらをサポートするインフラストラクチャは、利用率のギャップが拡大するという課題に直面しています。昨今の企業は通常、同時実行性が高く、低レイテンシのリアルタイム リクエストに対応するシステムを構築するか、高スループットの「非同期」処理用に最適化するかという二者択一を迫られています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes 環境では、従来、これらの要件には、サイロ化された別々の GPU および TPU アクセラレータ クラスタによって対応してきました。リアルタイム トラフィックは、バーストを処理するためにオーバープロビジョニングされるため、オフピーク時には大幅なアイドル容量が発生する可能性があります。一方、非同期タスクは多くの場合、セカンダリ クラスタに追いやられるため、ソフトウェア スタックが複雑化し、リソース管理が断片化します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI サービング ワークロードの場合、Google Kubernetes Engine（GKE）は、推論パターンの全範囲に対応する統合プラットフォームである &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Inference Gateway&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して、この「費用とパフォーマンス」のトレードオフに対処します。Google は OSS ファーストのアプローチを活用することで、アクセラレータの容量を単一の流動的なリソースプールとして扱うスタックを開発しました。これにより、決定論的なレイテンシと高スループットの両方を必要とするワークロードに対応できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この投稿では、最新の AI サービスを推進する 2 つの主要な推論パターンと、それぞれのパターンにおける問題および現在利用可能なソリューションについて説明します。このブログ記事を最後までお読みいただくと、GKE が GKE Inference Gateway を介してこれらのパターンにどのように対応するかについておわかりいただけます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;2 つの推論パターン: リアルタイムと非同期&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このブログ記事では、リアルタイムと非同期という 2 種類の AI 推論ワークロードを取り上げます。リアルタイム推論の場合、これらは優先度の高い同期リクエストです。たとえば、お客様が LLM からの即時レスポンスを待っている、chatbot とのやり取りなどです。一方、小売業におけるインデックス登録や商品分類のドキュメント化などの非同期トラフィックでは、通常、レイテンシが許容されます。つまり、トラフィックはキューに入れられ、遅延して処理されることがよくあります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;1. リアルタイム推論: レイテンシの影響を受けやすい 0 秒のリクエスト&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;優先度の高い同期トラフィックの場合、レイテンシが最も重要な指標となります。しかし、従来のロード バランシングでは、高レイテンシを示す KV キャッシュ使用率などのアクセラレータ固有の指標が無視されることが多いため、パフォーマンスを最適化できません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;ソリューション: GKE Inference Gateway&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この問題のソリューションは、Inference Gateway です。Inference Gateway は、リアルタイムの指標（KV キャッシュのステータスなど）に基づいてモデルサーバーのパフォーマンスを予測し、レイテンシを考慮したスケジューリングを実行して、最初のトークンまでの時間を最小限に抑えます。これにより、キューイングの遅延も減り、負荷が高い場合でも一貫したパフォーマンスを確保できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;2. 非同期（ニア リアルタイム）推論: 0 分のレイテンシ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;レイテンシが許容されるタスクは、ミリ秒単位の要件ではなく、分単位のサービスレベル目標（SLO）で動作します。従来のセットアップでは、リアルタイム トラフィックとのリソース競合を防ぐために、これらのリクエストを別々の専用インフラストラクチャで実行することがよくありました。この静的なパーティショニングは、利用の断片化とハードウェア費用の膨張につながる可能性があります。さらに、カスタムビルドの非同期ポーラーは、通常、同じアクセラレータにワークロードを多重化するために必要な高度なスケジューリング ロジックを備えていないため、エンジニアは 2 つの異なる複雑なソフトウェア スタックを管理する必要があります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ソリューション: 非同期プロセッサ エージェント + Inference Gateway&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Inference Gateway を Cloud Pub/Sub と統合する「プラグ アンド プレイ」アーキテクチャ。バッチ処理エージェントは、構成されたトピックからリクエストを pull し、それらを「削除可能な」トラフィックとして Inference Gateway にルーティングします。システムはバッチタスクを「フィラー」として扱い、リアルタイムの急増の合間にアイドル状態のアクセラレータ（GPU / TPU）の容量を使用します。これにより、リソースの断片化が最小限に抑えられ、ハードウェア費用を削減できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;主な機能:&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;リアルタイム トラフィックのサポート:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; リアルタイム推論トラフィックは Inference Gateway によって処理されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;永続的なメッセージング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Pub/Sub を介して信頼性の高いリクエスト処理が行われます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;インテリジェントな再試行:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; キューの深さのリアルタイム モニタリングに基づいて、キュー アーキテクチャに組み込まれた構成可能な再試行ロジックを活用します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;厳密な優先順位:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ゲートウェイ レベルでは、リアルタイム トラフィックがバッチ トラフィックよりも常に優先されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;緊密な統合:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ユーザーは Pub/Sub トピックを「プラグイン」するだけで、エージェントが共有アクセラレータ プールへのルーティング ロジックを処理します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_1B5SFVy.max-1000x1000.png"
        
          alt="1"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="bvnwb"&gt;図 1 : リアルタイム推論トラフィックと非同期推論トラフィックを解決するための統合アーキテクチャの概要。&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;上の図に示されているリクエスト フローは次のとおりです。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;ユーザーがリアルタイム リクエストを送信します。Inference Gateway はまずそのリクエストのスケジュール作成をします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;ユーザーは、構成された Pub/Sub トピックを介して非同期推論リクエストをパブリッシュできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;非同期プロセッサが、利用可能な容量に基づいてキューから読み取りを行います。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;非同期プロセッサは、同じアクセラレータ（GPU / TPU）リソースを利用して、Inference Gateway を介してリクエストをルーティングします。リアルタイム リクエストが優先されます。非同期リクエストは、コンピューティング サイクルで未使用のアクセラレータに割り当てられます（上の図を参照）。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;非同期プロセッサは、レスポンスを出力トピックに書き込みます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;ユーザーは、レスポンス トピックから非同期リクエストのレスポンスを取得します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのリアルタイム ワークロードと非同期ワークロードを共有アクセラレータに統合することで、GKE は「費用とパフォーマンス」のパラドックスを解決します。脆弱なカスタム キューポーラーを管理したり、使用率の低いクラスタを個別に維持したりする必要はもうありません。さらに、これらの作業はすべてオープンソースで可能です。つまり、複数のクラウドや環境でこれらのプロダクトを使用できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;統合ワークロードの実例&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;共有インフラストラクチャでリアルタイム ワークロードと非同期ワークロードを実行するというアイデアは、理論的には素晴らしいものですが、実際にはどのように機能するのでしょうか。優先度の高いリアルタイム ワークロードとレイテンシが許容されるバッチ リクエストを統合リソースプール内で同時に処理する有効性を分析したところ、有望な結果が得られました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;リアルタイム トラフィックは、予測不能な急増が特徴です。低レイテンシの回答を維持するには、ピーク時にプールの容量の 100% をリアルタイム トラフィックに使用できるようにする必要があります。一方、レイテンシが許容されるタスクは、容量が使用可能になるまで保留状態のままにする必要があります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最初のテストで、管理されていない多重化のリスクが明らかになりました。優先度が低く、レイテンシが許容されるリクエストが、非同期プロセッサ エージェントを使用せずに Inference Gateway に直接送信された場合、リソースの競合によりメッセージの 99% が削除されました。しかし、非同期プロセッサを使用した場合、レイテンシが許容されるリクエストの 100% が利用可能なサイクル中に処理されました。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_fUTnUjp.max-1000x1000.png"
        
          alt="2"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="bvnwb"&gt;図 2: リアルタイム トラフィック + レイテンシが許容されるバッチ トラフィックで使用率が向上することを示しています。&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;次のステップ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;同じインフラストラクチャでリアルタイム AI ワークロードとバッチ AI ワークロードの両方を実行することに関心をお持ちの場合は、最初に、&lt;/span&gt;&lt;a href="https://github.com/llm-d-incubation/llm-d-async/blob/main/README.md" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Inference Gateway を使用した非同期推論のクイックスタート ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;a href="https://github.com/llm-d-incubation/llm-d-async/tree/main" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GitHub で OSS プロジェクトに参加&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;して、この取り組みに貢献することもできます。開発の次の段階では、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;期限を考慮したスケジューリング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;に重点を置き、ユーザーがバッチ完了期間に「ソフトリミット」を設定できるようにすることで、フィラー トラフィックとリアルタイムの需要のバランスをシステムが取る方法をさらに最適化します。この重要な取り組みでコミュニティと連携できることを楽しみにしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Poonam Lamba&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア スタッフ ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Abdullah Gharaibeh&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 14 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/unifying-real-time-and-async-inference-with-gke-inference-gateway/</guid><category>AI &amp; Machine Learning</category><category>GKE</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>GKE Inference Gateway を使用して、同じインフラストラクチャでリアルタイム推論と非同期推論を実行する</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/unifying-real-time-and-async-inference-with-gke-inference-gateway/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Poonam Lamba</name><title>Senior Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Abdullah Gharaibeh</name><title>Senior Staff Software Engineer</title><department></department><company></company></author></item><item><title>Google Cloud で利用できる Gemma 4 の概要: Google の最も高性能なオープンモデル</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/gemma-4-available-on-google-cloud/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 3 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/gemma-4-available-on-google-cloud?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今回、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud での Gemma 4 &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;をリリースいたしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;最新情報: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;これは、サイズに対して最も高性能なオープンモデル ファミリーです。Gemini 3 と同じ研究に基づいて構築され、商用利用の自由度が高い Apache 2.0 ライセンスでリリースされたこれらのモデルは、チャットの枠を超えて進化しています。最大 256K のコンテキスト ウィンドウ、ネイティブのビジョンと音声処理、140 以上の言語での流暢な対応を実現しており、特に複雑なロジック、オフラインのコード生成、エージェント ワークフローに優れたモデルとなっています。モデルについて詳しくは、&lt;/span&gt;&lt;a href="https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちら&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。 &lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;ビジネスにとって重要である理由: &lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;エンタープライズ AI には、データを安全な境界内に保持しながら複雑なロジックを実行するモデルが必要です。Gemma 4 ではこれを両立できます。組織は、Sovereign Cloud ソリューションを含む厳格なコンプライアンス保証を満たすために、Google Cloud 全体でこれらのモデルをデプロイできます。これにより、デジタル主権の基盤が提供され、チームはデータ、インフラストラクチャ、モデルを完全に制御できるようになります。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Gemma 4 を使い始めるには&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Vertex AI&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Gemma 4 を独自の Vertex AI エンドポイントにデプロイします。&lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemma4"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Model Garden&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; からモデルを選択し、アプリケーションに必要な特定のコンピューティング リソースをプロビジョニングします。このセルフデプロイ モデルでは、Google Cloud 環境内にデータを保持しながら、サービング インフラストラクチャと費用を直接管理できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、&lt;/span&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt; &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/docs/training/training-clusters/overview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI Training Clusters&lt;/span&gt;&lt;/a&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;（VTC）&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;を使用して Gemma 4 をファインチューニングすることもできます。VTC は、NVIDIA NeMo Megatron を通じて、最適化された SFT レシピと高スケールなレジリエンスを提供します。これにより、エッジタスク向けの効率的な 2B（E2B）モデルから、複雑なエンタープライズ オーケストレーション向けの 31B 高密度モデルまで、あらゆるバリアントを効率的に適応させることができます。&lt;/span&gt;&lt;a href="https://discuss.google.dev/t/end-to-end-guide-fine-tuning-and-serving-gemma-4-on-vertex-ai/345865" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt; Vertex AI で Gemma 4 31B モデルを効率的にファインチューニングしてサービングするためのエンドツーエンド ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;さらに、Google は、Vertex AI で利用可能な自社モデル、オープンモデル、サードパーティ モデルの厳選されたコレクションにより、お客様の選択肢を増やし、イノベーションを推進できるよう取り組んでいます。そこでこのたび、Gemma 4 26B MoE モデルが今後数日以内に &lt;/span&gt;&lt;a href="https://cloud.google.com/model-garden?hl=ja&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Model Garden&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; でフルマネージドのサーバーレスとして利用可能になることを発表いたします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Agent Development Kit（ADK）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;ADK は、AI エージェントの開発とデプロイを目的として設計された、柔軟性の高いモジュール型オープンソース フレームワークです。Gemma 4 は、推論、関数呼び出し、コード生成、構造化出力などの高度なエージェント機能を備えています。ADK を使用すれば、Gemma 4 で完全に機能する AI エージェントを構築できます。&lt;/span&gt;&lt;a href="https://adk.dev/agents/models/google-gemma/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemma 4 と Google ADK を使用して AI エージェントの構築を&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;今すぐ開始しましょう。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Cloud Run&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA RTX PRO 6000（Blackwell）GPU のパワーを活用して、要求の厳しい Gemma 4 推論ワークロードを Cloud Run で効率的に実行できるようになりました。96 GB の vGPU メモリにより、&lt;/span&gt;&lt;a href="https://codelabs.developers.google.com/codelabs/cloud-run/cloud-run-gpu-rtx-pro-6000-gemma4-vllm" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemma-4-31B-it&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などのモデルをサーバーレス GPU に簡単にデプロイできます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;基盤となるインフラストラクチャは Cloud Run で処理されるため、ユーザーはアプリケーションに集中できます。モデルは非アクティブ時にはゼロまでスケールダウンし、需要に応じて動的に調整されます。使用した分のみが課金対象となるため、費用が最適化されます。さらに、推論ワークロードごとに CPU とメモリの構成を柔軟に調整できます。us-central1 または europe-west4 では、予約なしでオンデマンドでご利用いただけます。&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/run/docs/run-gemma-on-cloud-run"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;今すぐお試しください&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Kubernetes Engine（GKE）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;GKE は、Gemma 4 をデプロイするためのスケーラビリティとカスタマイズ性に優れた環境を提供します。これは AI インフラストラクチャをきめ細かく制御する必要があるチームに最適です。GKE で独自のインフラストラクチャを管理することで、コンピューティング リソースを柔軟に調整し、特定の GPU または TPU アクセラレータを選択し、トラフィック パターンに正確に一致するカスタムの自動スケーリング指標を実装できます。この制御レベルにより、AI ワークロードを既存のマイクロサービスとシームレスに統合しながら、組織の厳格なセキュリティとデータ コンプライアンスの要件を遵守できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、高スループットでメモリ効率の高い LLM サービング エンジンである vLLM を使用して、GKE で Gemma 4 モデルを効率的にサービングできるようになりました。GKE を活用することで、リソース使用率と費用を最適化しながら、推論ワークロードをゼロからピーク需要までシームレスにスケールできます。使い始めるにあたって、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/tutorials/serve-gemma-gpu-vllm"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE で Gemma 4&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; をサービングする方法に関する最新のチュートリアルをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;将来に向けて、Gemma 4 は、Google Cloud 上で次世代のエージェント アプリケーションを強化できる独自の立場にあります。Gemma 4 のマルチステップ プランニング機能と新しい &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/how-to/agent-sandbox"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Agent Sandbox&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を組み合わせることで、開発者は LLM で生成されたコードとツール呼び出しを、高度に分離された Kubernetes ネイティブ環境内で安全に実行できます。この環境では、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;1 秒未満のコールド スタート&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;と、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;1 秒あたり最大 300 のサンドボックス&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;が提供され、安全かつ効率的なマルチステップ プランニングが実現します。さらに、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Inference Gateway&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="http://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の高度な分散推論機能（&lt;/span&gt;&lt;a href="https://llm-d.ai/blog/predicted-latency-based-scheduling-for-llms" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;予測レイテンシ ベースのスケジューリング&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;など）を活用することで、これらの複雑なワークフローは、キャッシュの再利用とサーバー負荷を動的にバランスさせるインテリジェントなルーティングの恩恵を受けます。GKE Inference Gateway と予測レイテンシ ブーストを組み合わせると、ヒューリスティックな推測をリアルタイムの容量認識ルーティングに置き換えることで、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;最初のトークンまでの時間（TTFT）のレイテンシを最大 70%&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 削減できます。手動によるチューニングは必要ありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Google Cloud TPU&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Gemma 4 は、GKE、GCE、Vertex AI を通じて Google Cloud 全体の TPU で利用可能になります。このたび、一般的によく使用されるさまざまなオープンソース TPU プロジェクトを使用して、Gemma-4-31B Dense と Gemma-4-26B-A4B MoE のサービング、事前トレーニング、事後トレーニングが可能になりました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;事前トレーニングと事後トレーニングのテストには &lt;/span&gt;&lt;a href="https://github.com/AI-Hypercomputer/maxtext/tree/main/src/maxtext/models" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;MaxText&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を活用し、事後トレーニングを実施して、テキスト分析と生成、推論、画像分析のユースケースに合わせてカスタマイズできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;オンライン サービングとバッチ推論では、本番環境ワークロード対応の &lt;/span&gt;&lt;a href="https://github.com/vllm-project/tpu-inference/tree/main" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;vLLM TPU&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用できます。これには Google の事前構築済み Docker コンテナ、クイックスタート ビジョン、テキストデモ チュートリアルが使用されます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;コミュニティから提供される SGLang-JAX チュートリアルにもご期待ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;Sovereign Cloud&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;Gemma 4 は、すべての&lt;/span&gt;&lt;a href="https://cloud.google.com/sovereign-cloud"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Sovereign Cloud サービス&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;でご利用いただけます。これには、Data Boundary を活用したパブリック クラウド、Google Cloud Dedicated（フランスの S3NS など）、エアギャップとオンプレミスのデプロイ向け Google Distributed Cloud が含まれます。この拡大は、組織がデータ、暗号化、運用環境を完全に制御できる、オープンな主権のあるデジタル世界の実現という Google のコミットメントを強化するものです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Gemma 4 は、オープン ウェイトを提供することで、デベロッパーが機密性の高い環境向けの特別なソリューションを構築できるようにしています。企業や政府機関は、データ所在地とデータ主権に関する厳格なルールを満たしながら、地域ごとの違いやドメインの専門知識を尊重するローカライズされたサービスをデプロイできるようになりました。このアプローチにより、組織は国内および業界の要件を完全に遵守しながら、AI を活用して迅速にイノベーションを実現できます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;使ってみる &lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Vertex AI から Sovereign Cloud まで、Gemma 4 を使用した構築を今すぐ始めましょう。Google Cloud で Gemma 4 を選択することで、企業や主権組織は、最高水準のセキュリティと信頼性を満たしながら最先端の機能を提供する、信頼できる透明性の高い基盤が手に入ります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、チーフ エバンジェリスト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Richard Seroter&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 13 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/gemma-4-available-on-google-cloud/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Gemma_4_Cloud_Blog_Header.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google Cloud で利用できる Gemma 4 の概要: Google の最も高性能なオープンモデル</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Gemma_4_Cloud_Blog_Header.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/gemma-4-available-on-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Seroter</name><title>Chief Evangelist, Google Cloud</title><department></department><company></company></author></item><item><title>Claude Mythos Preview: Vertex AI で限定公開プレビュー版を提供開始</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/claude-mythos-preview-on-vertex-ai/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 8 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/claude-mythos-preview-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Anthropic の最新かつ最も強力なモデルである Claude Mythos Preview が、Project Glasswing の一環として、Google Cloud の一部のお客様を対象に限定公開プレビュー版で利用可能になりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Vertex AI での Claude Mythos Preview の提供は、最先端の AI ラボのモデルをお客様に提供するという Google の取り組みを明確に示すものです。AI アプリケーションとエージェントの構築、スケーリング、管理を行うためのエンタープライズ グレードの Vertex AI の機能と、この新しい汎用モデルを組み合わせることで、サイバーセキュリティ リスクの低減に新たな焦点を当てつつ、多様なユースケースにおいて高いパフォーマンスを発揮します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このリリースの詳細については、&lt;/span&gt;&lt;a href="https://anthropic.com/glasswing" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Anthropic のブログ投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/anthropic/model-garden/claude-opus-4-6"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Claude Opus 4.6&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/anthropic/model-garden/claude-sonnet-4-6"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Claude Sonnet 4.6&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; などの他の Claude モデルを使用して、今すぐ &lt;/span&gt;&lt;a href="http://goo.gle/anthropic" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; で構築しましょう。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Vertex AI、プロダクト マネジメント担当バイス プレジデント、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Michael Gerstenhaber&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 13 Apr 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/claude-mythos-preview-on-vertex-ai/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/033026c_HF1473_GC_Social_Anthropic_Multi-reg.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Claude Mythos Preview: Vertex AI で限定公開プレビュー版を提供開始</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/033026c_HF1473_GC_Social_Anthropic_Multi-reg.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/claude-mythos-preview-on-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Michael Gerstenhaber</name><title>VP of Product Management, Vertex AI</title><department></department><company></company></author></item><item><title>FM Logistic が AlphaEvolve を使って倉庫規模の「巡回セールスマン問題」を解決</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;巡回セールスマン問題とは、「すべての地点を 1 回ずつ訪問する最短ルートは何か」という、一見すると単純な問題です。これはコンピュータ サイエンスにおける最も難しい問題の一つであり、数学者は 1 世紀近くもこの問題に取り組んでいます。また、&lt;/span&gt;&lt;a href="https://www.fmlogistic.com/about-us/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;FM Logistic&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; のポーランドの倉庫作業員が日々直面している課題でもあります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;倉庫は全体でサッカー場 8 面分の広さがあり、ピッキング ポイントの数は 17,700 を超えています。シフトごとの作業員数は数十人にのぼり、その各人が電動車両に乗ってフロアを縦横に駆け巡り、1 度の巡回で数十か所の保管場所を回って段ボール箱を回収します。こうした作業において、不要な経路が積み重なっていくと、時間が無駄になるだけでなく、車両の劣化や、納品の遅延にもつながります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;14 か国以上でグローバル事業を展開する物流プロバイダの FM Logistic は、すでにルーティングを最適化する仕組みを有していました。既存のモデルは、費用優先の高速なルート割り当てロジックに基づき、リアルタイムで応答を得られるようなものです。これはこれでうまく機能していましたが、ルートの判断がその都度行われる仕組みになっており、倉庫全体から見たルート調整能力に限界がありました。一度のシフトで同時に働く作業員数が数十人にのぼることを考えると、ルートがわずかでも改善されれば、大きな効果に直結します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そこで導入されたのが、Google Cloud の &lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/ai-machine-learning/alphaevolve-on-google-cloud?e=0&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlphaEvolve&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI に、もっと優れたアルゴリズムを書いてもらう&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve は、Gemini モデルを使ってアルゴリズムを自律的に生成、改良する進化型のコーディング エージェントです。固定ルールからスケジュールを計算するのではなく、コーディング パートナーのように動作するのが特徴で、新しいコードを記述し、スコアを付け、最初のコードよりも優れたソリューションが見つかるまで反復処理を行います。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この取り組みをゼロから始めたわけではありません。既存のアルゴリズムを AlphaEvolve に「シード」プログラムとして提供しました。このアルゴリズムは、各ステップごとに、最善と思われるルートをその都度採用するというものです。この実際に使用されているアルゴリズム（すでに問題を解決しており、まだ最適化の余地があるもの）をベースラインとして使用し、Gemini を使って変更や新しいロジックを加えて新たなコードを生成して、人間が設計した元のコードを上回ることができるかどうかを調べました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;改善結果の評価&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve によって改善するには、各アルゴリズムのパフォーマンスを測定する方法が必要となります。そこで、60 件の巡回（合計 1 時間以上の作業員データ）を代表的なデータセットとして使ってカスタム評価関数を設計し、生成された数千のアルゴリズムを実際の状況下でテストしました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この評価では、「ピックごとの平均移動距離を最小に抑える」という基本的な目標に基づいてコードをスコア付けします。また、運用上の問題を回避するため、フォークリフトの容量超過や、注文品の回収漏れ、同じ箱の重複割り当て、注文の先入れ先出しルール違反、リアルタイム運用で許容される計算時間の超過といった事象にそれぞれペナルティを設け、不適切な解を避けられるようにしています。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;結果&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;新しいルーティング ロジックでは、過去最良だったベースラインからの改善をただちに数値で確認できました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;過去最良のソリューションと比較して、ルーティング効率が 10.4% 向上。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;全体で、倉庫内の移動距離が年間 15,000 km 以上削減。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この効率化により、人員や車両を増やすことなく、従来と同じ作業員数および設備でより多くの注文を処理できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;FM Logistic のグループ CIO である Rodolphe Bey 氏は、次のように述べています。「Google Cloud と協力して AlphaEvolve および Gemini を実装したことで、このスピードが要求される業務においてルーティング アプローチをさらに最適化することができました。既存のアルゴリズムもすでに高度に最適化されていたため、そのベースラインを超えることは困難と思われましたが、上乗せで 10.4% の改善を実現しました。この改善は、納品のスピードアップや、労働条件の改善、車両の劣化軽減に直結しています。」&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;最終的に勝ち残ったアルゴリズムの動作&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AlphaEvolve の実験を繰り返し、実験のたびに数百の候補プログラムを生成するという方法によって、人間が設計した最良のアルゴリズムを上回る新しいアルゴリズムが生み出されました。この新しいアルゴリズムは、人間が解読可能なルールセットとなっており、倉庫チームが内容を確認して適宜調整することが可能です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;3 つの主な改善点:&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;密度ベースの開始点（アンカー選択）:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 旧システムでは、最も多くのピッキングが必要な一か所を開始点として選択していました。新しいアルゴリズムでは、開始点を広く捉えるようになっています。具体的には、互いに近くにあるアイテム同士をクラスタ化して、アイテムが密集しているエリアを開始点（基点アンカー グループ）として使用します。この方法によって、すべての巡回において開始点の効率が高められます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;距離シミュレーションにおけるフィルタリング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; リアルタイムに通用する速度を維持するため、2 段階の処理プロセスを使用しています。まず、クイックフィルタによって、ルートロジックに適さない注文を除外します。続けて、残った適切な候補に対してのみ厳密な距離シミュレーションを実行することで、スピードを落とすことなく最も効率の良い経路を見つけています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;柔軟なルート構築:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ある出発点から初めて、トラックを効率的に満載にできなくなった場合、無駄なルートを強制することはありません。メインプールにいったん積み荷を戻し、後でもっと良いルートでピックすることで、倉庫全体で効率を向上させています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;次のステップ&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ポーランドでの試験運用（現在は本番環境に移行済み）では、倉庫規模の複雑なルーティングにおいて、進化型 AI が役立つことが示されました。FM Logistic は現在、大量の商品を扱っている他の e コマース施設にもこのアルゴリズムを適用することを計画中です。また、&lt;/span&gt;&lt;a href="https://deepmind.google/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;AlphaEvolve&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を道路輸送にも応用し、トラックが積載量に満たない場合の効率化に役立てられないかどうか探っています。さらに、倉庫内の商品配置にも AI を活用して移動距離をさらに短縮できないかどうか検討中です。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt;&lt;sup&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;このプロジェクトは、FM Logistic チーム（Mateusz Klimowicz、Jarosław Urbański、Florent Martin、Alberto Brogio）、Google Cloud の AI for Science チーム（Kartik Sanu、Laurynas Tamulevičius、Nicolas Stroppa、Chris Page、Gary Ng、John Semerdjian、Skandar Hannachi、Vishal Agarwal、Anant Nawalgaria、他）、Google DeepMind の協力によって実現しました。&lt;/span&gt;&lt;/sup&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;FM Logistic、シニア ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Mateusz Klimowicz 氏&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google、シニアスタッフ ML エンジニア兼プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt; Anant Nawalgaria&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</guid><category>Retail</category><category>Customers</category><category>Data Analytics</category><category>Google Cloud in Europe</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Gen_AI_4_Multiplayer_Games.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>FM Logistic が AlphaEvolve を使って倉庫規模の「巡回セールスマン問題」を解決</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Gen_AI_4_Multiplayer_Games.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Mateusz Klimowicz</name><title>Sr. Software Engineer, FM Logistic</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Anant Nawalgaria</name><title>Sr. Staff ML Engineer &amp; PM, Google</title><department></department><company></company></author></item><item><title>Vertex AI に Veo 3.1 Lite と Veo の新しいアップスケーリング機能を導入</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 4 月 4 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、Vertex AI に、最も費用対効果の高い動画モデルである Veo 3.1 Lite を導入いたします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、この新しいモデルとともに、既存の動画アセットを強化するのに役立つ、Veo のスタンドアロンの新しいアップスケーリング機能も Vertex AI でリリースいたします。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ワークロードに適した Veo モデルの選択&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;動画生成機能をアプリケーションに統合する際は、特定のユースケースに合わせてモデルを選ぶことが重要です。Veo 3.1 ファミリーのティアは 3 つになり、いずれのティアでもネイティブ音声生成機能が利用可能です。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; このモデルは、最終的な制作カットで視覚的な忠実度が最優先される最先端の動画生成向けに設計されています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Fast:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 高品質を維持しながら動画生成を高速化するオプションで、標準的な制作ワークフローに最適です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Lite:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Google の最も費用対効果の高いモデルです。企業は大量の動画アプリケーションを構築し、迅速に反復処理してスケールできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;料金の内訳については、&lt;/span&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/pricing#veo"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI の料金ページ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;完全なガイドについては、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/ai-machine-learning/ultimate-prompting-guide-for-veo-3-1?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Veo 3.1 のプロンプトに関する究極のガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo の新しいアップスケーリング機能でアセットをアップスケール&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;お客様から特に要望の多かった機能は、既存の低解像度動画を高解像度にアップスケールする機能です。限定公開プレビュー版で利用可能で、近日中に公開プレビュー版で利用可能になる Veo の新しいアップスケーリング機能により、Veo、他の AI モデル、従来のカメラのいずれで生成された動画でも、1080p および 4K まで画質を向上させることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;次のデモで、Veo がアイデアをどのように形にするかをご覧ください。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=1BySW9YaSME"
      data-glue-modal-trigger="uni-modal-1BySW9YaSME-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        

        &lt;div class="article-video__aspect-image"
          style="background-image: url(https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault_AyzQwc0.max-1000x1000.jpg);"&gt;
          &lt;span class="h-u-visually-hidden"&gt;Veo 3.1 Lite&lt;/span&gt;
        &lt;/div&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-1BySW9YaSME-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="1BySW9YaSME"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=1BySW9YaSME"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Veo 3.1 Lite を今すぐお試しください&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/model-reference/veo-video-generation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI API&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/studio/media/video"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI Media Studio&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を通じてこのモデルにアクセスいただけるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ベスト プラクティスについて詳しくは、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/veo/3-1-generate?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;デベロッパー向けドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-creative-studio/blob/main/experiments/mcp-genmedia/skills/genmedia-video-editor/SKILL.md" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;動画編集者向けのエージェント スキル&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google Cloud、生成メディア担当グループ プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Sandeep Gupta&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Veo_3.1_lite.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Vertex AI に Veo 3.1 Lite と Veo の新しいアップスケーリング機能を導入</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Veo_3.1_lite.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/veo-3-1-lite-and-a-new-veo-upscaling-capability-on-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sandeep Gupta</name><title>Group Product Manager, Generative Media, Google Cloud</title><department></department><company></company></author></item><item><title>AI リテラシーの新しい形: 学生デベロッパーを対象とした調査結果</title><link>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 27 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI により、学生デベロッパーはかつてないレベルで作業を効率化し、難しい問題を解決したり、野心的なプロジェクトに取り組んだりできるようになりました。一方、この新技術の登場によって、技術専攻の学生たちは学習について本質的な問いに向き合うようになってきています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;それは、AI をどの程度、何に使用すべきか、という問題です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://dora.dev/dora-report-2025/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google の DORA 2025 レポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;によると、現在、日々の業務で AI を使用している技術者は 90% に達しています。こうした状況の中で、次世代が AI ツールとどう付き合っているのかを理解することがこれまでになく重要になっています。カリフォルニア大学バークレー校の学生を対象とした Google の調査では、学業における不正行為や知的作業の省略といった懸念を覆す結果が明らかになりました。学生は AI を近道としてではなく、学習パートナーとして捉え、タスクによって意図的に使用したり、使用を控えたりしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI がソフトウェア開発の基盤となるにつれ、AI ツールを導入するかどうかよりも、懸命な活用方法が焦点になってきています。カリフォルニア大学バークレー校の学生たちは、その答えの一つを示してくれます。それは、彼らのもつ好奇心や、慎重さ、学習に対する純粋な意欲を、AI は支えることはできても、取って代わることはできない、ということです。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;カリフォルニア大学バークレー校の 4 人の学生チーム（Andrew Harlan、Mindy Tsai、Kenny Ly Hong、Karissa Wong）が、学業での AI の利用状況を把握するため、コンピュータ サイエンス、電気工学、デザイン、データ サイエンス専攻の学生を対象に調査を実施しました。この調査には、混合手法を使用しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、同校の別のチーム（Edward Fraser、Jessie Deng、Eileen Thai）が、デベロッパー歴 1～5 年の人々を対象に、アイ トラッキング技術を使って AI コーディング アシスタントの使用状況を観察しました。両チームとも専任メンターの支援のもと調査を進め、混合手法調査については Google 社員の Harini Sampath、Becky Sohn、Derek DeBellis が、アイトラッキング調査についてはカリフォルニア大学バークレー校の John Chuang 教授（博士）が助言を行っています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの調査から、学生が AI を活用すると同時に、真の専門知識を身につけるためにどのような方法をとっているのか、3 つの重要な結果が明らかになりました。学生の間で見られるパターンは、実際に開発職に就いている人々を対象にした DORA の調査結果とよく似通っています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 1: 24 時間 365 日、いつでも頼れる先生&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI は近道ではなく家庭教師&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;調査で AI との関係性について尋ねられた学生は皆一様に、学びの場ならではの言葉を使いました。AI のことを、アシスタントや生産性向上ツールではなく、「家庭教師」や「先生」と呼んでいたのです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI は教師のような存在です。内容の濃い資料を解説してもらったり、データベースにあらかじめ記述されているコードを部分的に説明してもらったりするなど、プロジェクトの基礎的な部分について理解を深めるためにとても役立っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「[AI を] お抱えの家庭教師として利用しています。授業や講義の特定のトピックの [理解を深める] ために。コンピュータ サイエンスだけでなく、あらゆる授業で使っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ここで重要なのは、学生が AI に依存せず、計画的に使用しているということです。AI に課題を完成させるのではなく、自分の理解度を踏まえて AI を使用し、知識の抜けを特定したり、不確かな概念を明らかにしたり、学習プロセスをリードしてもらったりしています。回答の中には、講義で取り上げられた複数の学術論文を要約してもらい、どれを深く読みこむべきかを判断するといった使い方や、コードでエラーが発生する理由を AI に説明してもらう、といったものがありました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ある学生は、学習プロセスに次のように組み込んでいます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「教授の説明がわからなかったときは AI に尋ねます。たとえば、ある概念や、コードの機能について説明してもらったりします。また、ラボのどこから手をつけたらよいかわからないときは、AI にプロンプトで尋ねます。それからコードを書き始め、修正すべき点を尋ねるといった具合です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学習障がいのある学生にとっては、常に利用できるという点が、不利な状況を克服するために役立っています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私は学習障がいがあるため、問題を理解するのに人より時間がかかります。AI にはすごく助けられています。24 時間 365 日、いつでも付いていてくれるサブ教師のような存在です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI を使えば、学校の営業時間に縛られることなく、いつでも理解を掘り下げられます。AI のおかげで脳の処理能力に余裕が生まれ、より高度な思考が可能となります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「実際にコーディングする時間は減り、全体のアイデアを練るのに時間をかけられるようになりました。今では、手動でコードを生成する代わりに、ロジックとコンセプトの検討や、アイデアの創出に時間を費やしています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうしたコメントから、AI が最終的な作品を仕上げるためではなく、探索ツールとして利用されている様子が浮かび上がります。これは、DORA の調査結果と一致しています。調査によると、AI がルーチンワークを引き受けることで、デベロッパーはユーザーへの価値提供に専念できるようになっています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 2: 過度な依存に対する積極的な抵抗&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;学びのプロセスを守るために、境界線を設ける&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生たちは、AI を学習ツールとして活用する一方で、AI への過依存への不安を率直に表現しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI がなくなったら、自分で解決方法を探すのに苦労してしまうかもしれません。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エッセイ執筆中の脳活動を脳波検査で測定した最近の研究では、AI の利用者は、検索エンジンやツールを使用しない人に比べ、認知エンゲージメントのパターンが弱いことがわかりました。また、AI のヘビーユーザーが、アシスタントを使わずにエッセイを書いてみたところ、以前に書いた作品についての記憶があまりなく、自分の作品であるという意識も低いことがわかりました。このことを、論文の著者は「認知の負債」と表現しています。&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;1&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;一方で、ポジティブな兆候が明らかになりました。学生たちは、この認知上のリスクをただ受け入れるのではなく、意図的に境界線を設けて対応しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;機械工学専攻のある学生は、電子機器を何年も使用するうちに、以下のように能力ベースの AI 使用ルールを確立したといいます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「サーボや超音波などの基本的センサーなら自分でコーディングできますが、複雑なセンサーで、かつ、機能を厳密に把握する必要性がないときは、AI を使用します」と回答し、次のように説明しています。「何かがうまくいかないとき、その理由を理解できても、問題を解決するための直接的な言語を知らない場合があります。AI は、そのような状況で役立ちます。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この学生は、最近携わったプロジェクト（触って操作できるストーリーテリング ツールの構築）において、基本的なコンセプトを理解した後、カウントおよび比較のシステム構築のために助けを求めたとのことです。「AI は、基本構造のセットアップに大変役立ちましたが、その後、微調整のコーディングは自力でやる必要がありました。」また、作業の振り分けについては、次のように明確な意見を述べています。「自分でも引き続き、コードを書いています。技術者のように丸投げするわけではなく、AI と共同で作業を進め、私が司令塔となって AI にやってほしいことを指示します。ただやみくもにリクエストしても、まったく役に立ちません。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生が AI を利用する際には、明確な利用ルールを設けているケースが多く見られました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI にはたまに、完全な答えではなく方向性だけを示すように頼みます。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;過度な依存を避けるため、学生は以下のような具体策を編み出しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;高度なモデルの利用を避ける:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「料金制の AI ツールを使用するつもりはありません。AI モデルを使いすぎてしまう恐れがありますから。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI の使用、不使用を交互に繰り返す:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「for ループの処理など、一部の処理はまた自分で書くようになりました。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;「バイブ コーディング」を警戒する:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI ツールがデベロッパーの生産性を高めるために役立つことは間違いありません。ただし、バイブ コーディングに慣れてしまわないよう、十分な注意が必要です。AI が生成するコードを理解して検証し、適切な方法で使用するということが大前提です。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした懸念は、学生たちが認知について意識的に考えているということを示しています。彼らは、一番楽な方法が最も学習効果が高いわけではないと認識しています。これは DORA の調査結果とも一致しています。調査によると、AI の導入率が 90% にのぼるにもかかわらず、利用者の約 30% が AI が生成したコードをほとんど（あるいはまったく）信用していないと答えています。AI を効果的に使用するには、単に導入するだけでなく、厳しい評価と検証の方法を習得することが求められます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;調査結果その 3: AI の使いどころを心得ている&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;アイ トラッキング データからわかったこと&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;アイ トラッキング技術を使用した調査では、人の動作の面から検証を行いました。1～5 年の経験を持つデベロッパーを対象に、AI コーディング アシスタントとやり取りする様子を観察したところ、タスクの種類によって AI の利用に大きな違いがあることがわかりました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;思考と深い理解が必要なタスク&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI への視覚的注目が 1% 未満&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;機械的なタスク（ボイラープレート コードなど）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI への視覚的注目が 19%&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;高度な作業においては、たとえ AI の提案が正確で時間の節約につながるような場合でも、敢えて無視されていることがわかりました。深い理解が必要なときは、AI は認知上の負担となります。熟練デベロッパーは、AI をオフにすべきときを心得ています。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;すべてを任せるのではなく、意図的に取り入れる&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;学生への聞き取り調査からも、学生が AI を用途に応じて使い分けている様子が伺えます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私は普段、とっかかりとなるアイデアを得るために AI を使っています。」&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「AI の使用が許可されていることは知ってましたが、学習と試行錯誤のプロセスを大事にしました。創造性の余地も必要です。」&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;カスタマイズが肝&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現在、ほとんどの AI コーディング アシスタントは、インライン提案のオン / オフを切り替えたり、オンデマンド専用モードに設定したり、提案頻度を調整したりできます。これらの設定を試して、タスクとその認知要件に応じて AI を使い分けることで、ルーチンワークでは助けてもらいつつ、自分で深く考えたい仕事の邪魔をされないようにすることができます。&lt;/span&gt;&lt;/p&gt;
&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;この調査結果が業界において意味すること&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;AI を利用した開発の未来を形作っていくのは、今の学生たちです&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;調査に協力してくれた学生たちは、時代の一歩先をいっており、すでに AI リテラシーを身につけています。用途に応じた使い分けや、出力の検証方法を心得ており、自らの理解力を維持するためにときには敢えて手動で作業するといった対策をとっています。AI 導入を検討中の方にとって、こうした学生の経験は、進むべき方向を探るヒントとなります。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;さまざまなカスタマイズ設定を試す&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 作業の妨げとならず、助けとなるような設定を見つけましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ワークフローに検証プロセスを取り入れる&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: AI の提案を無批判に受け入れないようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;自分の聖域を確保する&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: スピードよりも深い理解が重要となる高度な問題には、AI の助けを借りずに自分で取り組むようにしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI がソフトウェア開発の基盤となるにつれ、AI ツールを導入するかどうかよりも、懸命な活用方法が焦点になってきています。カリフォルニア大学バークレー校の学生たちは、その答えの一つを示してくれます。それは、彼らのもつ好奇心や、慎重さ、学習に対する純粋な意欲を、AI は支えることはできても、取って代わることはできない、ということです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;業界の専門家が AI の導入をどのように進めているかについて詳しくは、&lt;/span&gt;&lt;a href="https://dora.dev/dora-report-2025/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;2025 年 DORA レポート: AI 支援によるソフトウェア開発の現状&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をダウンロードしてご覧ください。&lt;/span&gt;&lt;a href="https://dora.dev/insights/tags/uc-berkeley/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;カリフォルニア大学バークレー校の研究者との共同研究による論文全文&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;もあわせてお読みいただけます。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt;&lt;sup&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;1. Kosmyna, Nataliya, et al. "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task." arXiv, 10 June 2025, doi:10.48550/arXiv.2506.08872.（参照日付: 2026 年 1 月 28 日）&lt;/span&gt;&lt;/sup&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- Andrew Harlan 博士&lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;（独立系 UX リサーチャー兼クリエイティブ テクノロジスト）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- Steve Fadden 博士&lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;（Google、UX リサーチ担当リード）&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 07 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</guid><category>AI &amp; Machine Learning</category><category>Developers &amp; Practitioners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI リテラシーの新しい形: 学生デベロッパーを対象とした調査結果</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/developers-practitioners/how-uc-berkeley-students-use-ai-as-a-learning-partner/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Andrew Harlan, Ph.D.</name><title>UX Researcher &amp; Creative Technologist, Independent</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Steve Fadden, Ph.D.</name><title>UX Research Lead, Google</title><department></department><company></company></author></item><item><title>初級者コースのように簡単: Vail Resorts がパーソナライズされたおすすめを自動化する AI アシスタントを構築した方法</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 28 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;スキーヤーやスノーボーダーは、新雪を追い求めたり、新しいトリックをマスターしたり、新しい地形を探索したりと、ゲレンデでのあらゆる瞬間を精一杯楽しむものです。よく知っているお気に入りのゲレンデを訪れる場合でも、初めてのゲレンデを訪れる場合でも、必要な情報をすぐに手に入れて、自信を持って移動し、隠れた名所を見つけ、到着した瞬間からその場所に溶け込みたいと考えています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;そのような理由から、Vail Resorts は 2024～2025 年の雪シーズンに My Epic Assistant をリリースしました。Vail は、世界で最も象徴的で愛されている山岳リゾート（ウィスラー ブラッコム、パークシティ マウンテン、ストウ、クレステッド ビュートなど）を運営しています。同社は、すべての利用者が新しいアプリで十分なサポートを受けられる、つまり、ゲレンデ体験に没頭したまま、迅速かつ有益な回答を得て、ゲレンデにあるすべてのものを発見できるようにしたいと考えていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;情報ブースを探すのと、次の滑走に向けてリフトに乗っている間にアプリで情報を得るのと、どちらがよいか、考えれば答えは明白です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://news.vailresorts.com/2024-03-18-Vail-Resorts-Announces-My-Epic-Assistant-in-the-My-Epic-app-Powered-by-Advanced-AI-and-Resort-Experts" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;My Epic Assistant&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、Vail Resorts の IT チーム、接客チーム、運営チームのノウハウを Google の強力な &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Gemini モデル&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;にフィードする AI 搭載アシスタントです。結果として、ゲレンデで適切なシーズンパスを選択するサポート、最新の雪の状況の共有、レッスンの準備状況の確認、ココアを飲むのに最適な場所の提案などを、このエージェントで行えるようになりました。Vail Resorts は、単なる chatbot ではなく、ウィスラーでパウダースノーを楽しめる日と、ビーバー クリークへの家族旅行に適した日の微妙な違いを理解できるデジタル コンシェルジュを求めていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらのサービスを次のレベルに引き上げるため、Vail Resorts のチームと Google Cloud スペシャリスト &lt;/span&gt;&lt;a href="https://cloud.google.com/find-a-partner/partner/66degrees"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;66degrees&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、2025～2026 年シーズン向けに My Epic Assistant を更新し、シーズンパスのおすすめや強化されたパーソナライズなどの新機能を追加しました。この機能により、ゲストの質問を理解し、複雑なリクエストに対応して、ゲストに最適なパスをインテリジェントに案内できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この投稿では、ゲレンデを楽しむために迅速なサポートを求めている、目の肥えた利用者からの、微妙な違いのある複雑な質問に効果的に回答できるマルチエージェント システムをオーケストレートするという難題に、Google がどのように取り組んだのかをご紹介します。このような AI 搭載ツールを活用できるのは、ゲレンデに詳しい利用者だけではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このような AI 搭載ツールを活用できるのは、ゲレンデに詳しい利用者だけではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このブログ投稿では、接客業のこの過酷な分野特有の課題に巧みに対処できるマルチエージェント システムをオーケストレートして、My Epic Assistant を構築した方法について詳しく説明します。これは、顧客中心の他の分野の組織が、それぞれの状況に合わせてエージェント システムを構築するうえでも役立つアプローチです。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_uWRwTlQ.max-1000x1000.jpg"
        
          alt="image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="iviqa"&gt;&lt;b&gt;新しいシーズン、より良い結果&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="dk6p5"&gt;My Epic Assistant 内のパーソナライズ、検索、要約の各機能、会話フローを実装して改良した結果、アプリの初回リリース以降、人間のエージェントへのエスカレーションが 45% 減少しました。&lt;/p&gt;&lt;p data-block-key="arnli"&gt;テクノロジーは人と人の触れ合いに取って代わるのではなく、それを強化するものです。日常的なロジスティクスを自動化し、パーソナライズを拡大することで、Vail Resorts のゲスト エクスペリエンス テクノロジー チームは、そのことを確実にすることができました。全体的に、サポートを求める利用者は、より迅速かつ確実に、より多くの方法とタイミングでサポートを利用できるようになりました。&lt;/p&gt;&lt;p data-block-key="peco"&gt;「Google Cloud のツールを利用することで、エージェント設計パターンを活用して、自然でパーソナライズされた会話を実現できました。これにより、顧客満足度が向上し、手動でのインテント設計の必要性が低減しました。また、これらのツールにより、柔軟性と制御性を組み合わせて、アシスタントがブランド、ポリシー、プロダクト戦略の範囲内で常に流動的に対応できるようになりました」とチームは述べています。&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;My Epic Assistant の構築手順&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;まず、My Epic Assistant は&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;サブトピック分類エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;を使用して、パスの比較、おすすめの提案、一般的な情報の検索など、利用者の最初のリクエストを理解します。パスは期間限定でのみ購入できるため、日付オブジェクトを使用して時期を判断します。パスが販売終了している場合は、自動的にリフト券の情報にルーティングされます。パスとリフト券の両方が購入可能な場合、アシスタントはいくつかの確認の質問をして、旅行に最適な価値を提供するオプションを顧客が決定できるようにします。次に、アシスタントは、おすすめを提示するために必要な追加データを判断するために、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;データ収集エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;に引き継ぎます。認証済みのユーザーの場合、Vail Resorts は、よく訪問するリゾート、平均訪問回数、年齢、今後訪問予定のリゾート、ピーク日の好みなどの既存のデータを、Webhook から呼び出して提供します。認証されていない新規のユーザーの場合、ギャップを埋めるために、確認のための回答しやすい質問をします。一方通行の静的なフォーム入力ではありません。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このステップでは、生成 AI の会話機能が真価を発揮します。My Epic Assistant は、自由に会話できるように設計されているため、利用者はいつでも確認のための質問をして、コンテキストを失うことなくレコメンデーション プロセスに戻ることができます。ハンドブックの手順に沿って、モデルは出力に必要なすべてのパラメータが入力されているかどうかを継続的に評価し、次のステップに進みます。このプロセス中も、利用者は他の質問をすることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;たとえば、ピーク日の利用を希望するかどうかを尋ねられた利用者が、「制限の対象となる今年のピーク日はいつですか？」と続けて質問する可能性があります。My Epic Assistant は、Vail Resorts の広範な知識を体系化したウェブサイトのデータストアを呼び出して対応します。その後、My Epic Assistant は回答を提供し、コンテキストを失うことなく会話の前のターンに戻ります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最後に、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;レコメンデーション エージェント&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;が引き継ぎます。収集したユーザーデータを使用して、すべてのパス オプションの構造化データベースに対してクエリを実行し、完全一致を見つけます。その後、システムは、特定されたパスが適している理由を説明するユーザー フレンドリーな回答を生成し、直接購入リンクを含むコンテンツ カードを提供して、利用者の最終ステップを簡素化します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_tFanwPx.max-1000x1000.png"
        
          alt="image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;パス レコメンデーション エージェントのコア機能は、既存のすべてのパス、その特長、制限事項の構造化ファイルを含むパス マトリックスのデータストア ツールです。利用可能なオプションが多数あるため、ツールがすべての入力パラメータを受け取ったときに有効で適切なオプションを返すことを確認するには、広範なテストが必要でした。66degrees は、この分野に関する Vail Resorts の深い知識を活用して、あらゆる結果を検証しました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;プロンプト エンジニアリングにより、最終的な回答では、特定のパスが利用者に最適なオプションである理由を詳細に説明したおすすめが提示されます。また、おすすめの購入リンクを含むコンテンツ カードも呼び出されます。ハンドブックを終了する必要はありません。新しくリリースされた Epic Friends 機能に関する詳細情報が表示されるなど、生成された回答が適切でない場合もありました。静的な回答は、コード スニペットと条件付きアクションを介して呼び出されます。これらもハンドブック自体に格納されるため、全体的なアーキテクチャが簡素化されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;パーソナライズが初級者コースのように簡単に&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;My Epic Assistant のスマート テクノロジーとユーザー重視のデザインの新しい組み合わせにより、Vail Resorts は、単なる顧客の質問とその回答という枠を超えて、多くの顧客のリクエストに対して真に会話型でありながら完全に自動化されたエクスペリエンスを提供できるようになりました。重要なのは、Vail Resorts のような運営企業にリゾート利用者が期待するコンシェルジュ サービスを、AI とクラウド テクノロジーなしでは実現できない規模で提供していることです。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Vail Resorts は、My Epic Assistant のパスのおすすめ機能により、すべての利用者がこれまでで最高のシーズンを過ごすためのカスタムのおすすめ情報を受け取れるように準備を進めています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;上級者コースのように技術的に難しい課題を、初級者コースのように簡単に扱えるソリューションで解決することをご希望の場合は、66degrees と Google Cloud の&lt;/span&gt;&lt;a href="https://cloud.google.com/find-a-partner/partner/66degrees"&gt;&lt;span style="font-style: italic; text-decoration: underline; vertical-align: baseline;"&gt;エキスパートにお問い合わせ&lt;/span&gt;&lt;/a&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;のうえ、最新の AI とクラウド テクノロジーで何ができるかをご確認ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;66degrees、会話アーキテクト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Olivia Marrese&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google、カスタマー エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Jacob Walcik&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 06 Apr 2026 02:20:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</guid><category>Customers</category><category>Retail</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_SoM8w0v.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>初級者コースのように簡単: Vail Resorts がパーソナライズされたおすすめを自動化する AI アシスタントを構築した方法</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_SoM8w0v.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-vail-resorts-built-an-ai-assistant-to-automate-personalized-recommendations/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Olivia Marrese</name><title>Conversational Architect, 66degrees</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jacob Walcik</name><title>Customer Engineer, Google</title><department></department><company></company></author></item><item><title>AI インフラストラクチャとしての Kubernetes: Google Cloud、llm-d、CNCF</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 25 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud は、大規模な基盤モデルのビルダーや AI ネイティブ企業の膨大なニーズに応えることを、当社の AI インフラストラクチャ戦略の最優先事項としています。生成 AI の利用がミッション クリティカルな本番環境へと移行する中、このようなイノベーターは、複雑なオーケストレーションの課題を克服し、エージェント主導の未来を推進できる、動的かつ絶え間なく効率的なインフラストラクチャを必要としています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした状況を鑑み、このたび、&lt;/span&gt;&lt;a href="https://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; が Cloud Native Computing Foundation（CNCF）のサンドボックス プロジェクトとして&lt;/span&gt;&lt;a href="https://www.cncf.io/blog/2026/03/24/welcome-llm-d-to-the-cncf-evolving-kubernetes-into-sota-ai-infrastructure/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;正式に&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;承認されたことを大変嬉しく思います。Google Cloud は、Red Hat、IBM Research、CoreWeave、NVIDIA とともに、llm-d の創設メンバーとして貢献できることを誇りに思います。私たちは、業界を定義する明確なビジョン「&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;あらゆるモデル、あらゆるアクセラレータ、あらゆるクラウド&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;」の下に団結しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この貢献は、オープンソースのイノベーションにおける Google の長年のリーダーシップを裏付けるものです。私たちはまた、Linux Foundation の信頼できる管理の下、分散 AI 推論の未来が、閉ざされた環境ではなくオープン スタンダードに基づいて構築されるよう支援しています。これにより、基盤モデルのビルダーは、ベンダーに縛られることなくモデルをグローバルにデプロイできるという確信を得られるとともに、これらのオープン テクノロジーの実装を高度に最適化したうえで Google Cloud で直接行えるようになります。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_KwJQrYd.max-1000x1000.png"
        
          alt="1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;推論のための Kubernetes の強化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes は、オーケストレーションの業界標準として揺るぎない地位を確立しています。強固な基盤を提供しますが、元々は、LLM 推論のために構築されたものではなく、高度にステートフルで動的な要求には対応できませんでした。&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/tutorials/serve-with-gke-inference-gateway"&gt;&lt;strong style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Inference Gateway&lt;/strong&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、こうした新しいタイプのワークロードに対応するために Kubernetes を進化させたもので、単純なロード バランシングをはるかに超えるネイティブ API を提供します。このゲートウェイの内部では、スケジューリング インテリジェンスのために &lt;/span&gt;&lt;a href="https://github.com/kubernetes-sigs/gateway-api-inference-extension/tree/main/docs/proposals/004-endpoint-picker-protocol" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d Endpoint Picker（EPP）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を活用しています。このシステムでは、ルーティングの決定を llm-d に委任することで、リアルタイムの KV キャッシュ ヒット率、処理中のリクエスト数、インスタンス キューの深さを考慮した多目的ポリシーを適用し、各リクエストを処理に最適なバックエンドにルーティングします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;大規模に運用する基盤モデルのビルダーにとって、こうしたモデル対応のルーティングがもたらす現実世界への影響は画期的です。最近、Google の Vertex AI チームは本番環境でこのアーキテクチャを&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/containers-kubernetes/how-gke-inference-gateway-improved-latency-for-vertex-ai?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;検証&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;し、脆弱なカスタム スケジューラに依存することなく、予測が非常に難しいトラフィックを処理できることを証明しました。Qwen Coder を使用したコンテキストを多用するコーディング タスクでは、最初のトークンまでの時間（TTFT）のレイテンシが 35% 以上短縮されました。また、研究目的に DeepSeek を使用してバースト性が高く確率的なチャット ワークロードを処理した場合には、P95 テール レイテンシが 52% 改善され、深刻な負荷変動を効果的に吸収できました。特に重要なのは、このゲートウェイのルーティング インテリジェンスにより、Vertex AI の接頭辞キャッシュ ヒット率が 35% から 70% に倍増したことであり、これにより、再計算のオーバーヘッドとトークンあたりの費用が大幅に削減されました。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_K56j60Q.max-1000x1000.png"
        
          alt="2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;インテリジェントなルーティングに加えて、マルチノード AI デプロイをオーケストレートするには、堅牢な基盤となるプリミティブが必要です。そのため、Google では Kubernetes &lt;/span&gt;&lt;a href="https://lws.sigs.k8s.io/docs/overview/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;LeaderWorkerSet&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;（LWS）API の開発を主導しています。LWS により、llm-d は広範なエキスパート並列処理をオーケストレートし、計算負荷の高いプリフィル フェーズとメモリ負荷の高いデコード フェーズを、個別にスケーリング可能な Pod に分離できます。業界で広く採用されている LWS は、今では、急速に拡大する本番環境の AI ワークロードのフットプリントをオーケストレートし、グローバル規模で TPU と GPU の大規模なフリートを管理しています。このオーケストレーションを補完するものとして、Google は最近、&lt;/span&gt;&lt;a href="https://vllm.ai/blog/vllm-tpu" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Cloud TPU 向けに vLLM をネイティブに拡張&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;しました。PyTorch と JAX の統合バックエンドに加え、Ragged Paged Attention v3 などの革新的な機能を備えたこのインテグレーションにより、昨年初めにリリースした最初のバージョンと比較して、スループットが最大 5 倍向上しました。Google Cloud TPU や NVIDIA GPU のどちらでスケールする場合でも、これらの進歩により、最先端の AI サービングが高度に最適化され、アクセラレータに依存しない機能として維持されます。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;次世代の AI インフラストラクチャを共同で構築&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;究極の AI インフラストラクチャを構築するには、クラウドネイティブな Kubernetes オーケストレーションと最先端の AI 研究との間のギャップを埋める必要があります。本番環境レベルの生成 AI への移行には、信頼性と透明性を備えたエンジンが必要であり、可能性の限界を押し広げる AI / ML リーダーとの緊密なコラボレーションも求められます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;私たちは、Linux Foundation、CNCF、PyTorch Foundation、その他のオープンソース コミュニティとともに、次世代の AI インフラストラクチャを構築できることを大変嬉しく思っています。「well-lit paths」（現実的な負荷の下でエンドツーエンドにテストされた、実証済みで再現可能なブループリント）を確立することで、高性能な AI がオープンで誰もがアクセスできるエコシステムとして発展し、境界のないイノベーションを促進できるようにしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI 推論のオープンな未来を一緒に形作りましょう。大規模基盤モデルのビルダー、AI ネイティブ企業、プラットフォーム エンジニア、AI 研究者の皆様の参加を心よりお待ちしております。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;「well-lit paths」を確認する:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; &lt;/span&gt;&lt;a href="https://llm-d.ai/docs/guide" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;llm-d ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を参照し、ご自身のインフラストラクチャに SOTA 推論スタックを今すぐデプロイしましょう。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 公式ウェブサイト（&lt;/span&gt;&lt;a href="https://llm-d.ai/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;https://llm-d.ai&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;/）をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ご協力のお願い:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Slack のコミュニティに参加し、GitHub リポジトリ（&lt;/span&gt;&lt;a href="https://github.com/llm-d/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;https://github.com/llm-d/&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;）での活動にご協力ください。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;llm-d の CNCF サンドボックス プロジェクトへの参加をお待ちしております。皆様とともにこのエンジンを発展させていくことを楽しみにしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Sean Horgan&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア クラウド デベロッパー アドボケイト、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Abdel Sghiouar&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 03 Apr 2026 01:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</guid><category>GKE</category><category>AI &amp; Machine Learning</category><category>Open Source</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>AI インフラストラクチャとしての Kubernetes: Google Cloud、llm-d、CNCF</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/llm-d-officially-a-cncf-sandbox-project/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sean Horgan</name><title>Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Abdel Sghiouar</name><title>Senior Cloud Developer Advocate</title><department></department><company></company></author></item><item><title>DRA: 動的リソース割り当てが切り開く Kubernetes デバイス管理の新時代</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 26 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation?hl=en&amp;amp;e=48754805"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;大規模言語モデル（LLM）の爆発的な普及により、GPU や TPU などの高性能アクセラレータの需要が高まっています。組織が AI 機能を拡大させる中で、コンピューティング リソースの不足が主要なボトルネックとして浮上することがあります。すべての GPU と TPU のサイクルを効率的に管理することは、もはや推奨事項ではなく、運用上の必要事項となっています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes は、企業が LLM を実行する際の事実上の標準プラットフォームになりつつあります。今週開催された KubeCon Europe において、&lt;/span&gt;&lt;a href="https://blogs.nvidia.com/blog/nvidia-at-kubecon-2026" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;NVIDIA は&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; GPU 用の動的リソース割り当て（DRA）ドライバを、&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/gke-and-oss-innovation-at-kubecon-eu-2026"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google は Tensor Processing Unit（TPU）用の DRA ドライバを&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;それぞれ Kubernetes コミュニティに寄贈しました。このことは、より広範なコミュニティの育成とイノベーションの加速を実現し、Kubernetes が最新のクラウド環境に対応して AI ワークロードのポータビリティを向上させることにつながります。DRA は Google Kubernetes Engine（GKE）でも一般提供されています。このブログ記事の残りの部分では &lt;/span&gt;&lt;a href="https://kubernetes.io/docs/concepts/scheduling-eviction/dynamic-resource-allocation/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRA&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; について掘り下げ、DRA が構築された理由、DRA でできること、DRA の使用方法について説明します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;静的なインフラストラクチャからの脱却&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;長年にわたり、ハードウェア アクセラレータを使用するには、Kubernetes のデバイス プラグイン フレームワークを利用するのが標準的な方法でした。ただし、デバイス プラグインでは、ハードウェア要件を単純な整数（例: &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;gpu: 1&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt;）としてしか表現できないため、フラクショナル GPU は使用できません。これでは、現代の複雑なワークロードに求められる微妙できめ細かな調整を行うには不十分です。また、デバイス プラグインでは、Pod のスケジューリングに先立って、クラスタにアクセラレータを事前プロビジョニングさせておく必要があります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes におけるリソース管理の新標準である DRA は &lt;/span&gt;&lt;a href="https://kubernetes.io/blog/2025/09/01/kubernetes-v1-34-dra-updates/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Kubernetes OSS 1.34&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; で「安定版」のステータスに昇格しました。DRA は、ハードウェアの処理方法において、静的な割り当てから柔軟なリクエストベースのモデルへの移行というパラダイム シフトを体現しています。これにより、次のような課題が解決されます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;手動によるノードの固定が不要:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; デバイス プラグイン フレームワークでは、アプリ オペレーターは、特定のハードウェアを搭載したノードを自分で調べてから、nodeSelector またはアフィニティを使用して、Pod がそのノードに配置されるようにする必要がありました。DRA は、スケジューラが特定のハードウェア機能をネイティブに認識できるようにすることで、このプロセスを自動化します。リクエストに基づいてワークロードに適したノードを検出するため、ユーザーがクラスタのトポロジをマッピングする必要はありません。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;柔軟なパラメータ化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; デバイス プラグインの「全か無か」のアプローチとは異なり、DRA では、ResourceClaim を使用して、最小 VRAM 量、特定のハードウェア モデル、相互接続要件などの特定の要件を定義できます。これにより、高価なハードウェアをよりきめ細かく効率的に使用できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;DeviceClass を介したハードウェアの抽象化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; DRA は、ハードウェアの「ブループリント」として機能する DeviceClass を導入します。プラットフォーム管理者は、デベロッパーが名前でリクエストするクラス（例: high-memory-gpu や low-latency-fpga）を定義できます。これにより、基盤となるハードウェア アドレスからワークロードのニーズが切り離されます。これは、スケジューラがワークロードの要件と利用可能なハードウェア インベントリのマッチングを行うことを可能にします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;詳細解説: DRA の仕組み&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA の中核をなすのは ResourceSlice と ResourceClaim です。これら 2 つの主要な構成要素は、ハードウェア インベントリとワークロード要件を分離します。これらは、Kube-scheduler が適切な意思決定を行い、より柔軟なリソースプールを実現するために使用する入力です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ResourceSlice: 可用性の記述&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ResourceSlice API は、基盤となるハードウェアの機能と属性をリソース ドライバがクラスタに公開するために使用されます。デバイス プラグインが単純なラベルを使用することでデバイスの詳細を覆い隠しがちであるのと対照的に、ResourceSlice は利用可能なアセットを忠実に記述します。これにより、ドライバは各デバイスに関する以下のような詳細情報を報告できます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;容量:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 合計メモリ、コア数、または特殊なコンピューティング単位数&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;属性:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; アーキテクチャ、バージョン、PCIe ルート コンプレックスまたは NUMA ノード&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ResourceClaim: 要件の定義&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;ResourceClaim API を使用すると、AI エンジニアはアプリケーションを正常に実行するために必要なものを正確に定義できます。ResourceSlice API がデバイスの詳細を公開するため、開発者は一般的なリクエストにとどまらず、次の項目に基づく要件の指定を行うことができます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;属性ベースの選択:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 特定のモデルを指定する代わりに、ユーザーは「40 GB 以上の VRAM を備えた GPU」という風にリクエストできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;複雑な制約:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; DRA はデバイス間の制約をサポートします。たとえば、ハイ パフォーマンス コンピューティング ジョブでは、レイテンシを最小限に抑え、スループットを最大化するために、GPU と NIC の両方が同じ PCIe ルート コンプレックスに接続されているという要件のもとに、GPU と NIC をリクエストできます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;能力ベースのアプローチによるスマートなスケジュール設定&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA は、「何」（ResourceClaim）を「どこ」（ResourceSlice）から切り離すことで、デバイスのマッチングの負担をユーザーから Kube-scheduler に移します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;以前までは、ユーザーは適切なハードウェアに Pod を配置するために、手動のノードセレクタや taint に頼らざるを得ないことがほとんどでした。DRA を使用すると、スケジューラはデバイスの属性とクラスタのトポロジを全体的な視点から把握できるようになります。これにより、より「流動的な」リソースプールが可能になります。スケジューラは、利用可能なすべてのスライスをクレームの特定の基準に基づいて評価し、静的なラベルではなく実際のハードウェアの可用性に基づいて配置を最適化できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この能力ベースのアプローチによって利用可能なハードウェアのうち最適なものにワークロードを確実に割り当てられるようになり、リソース使用率とアプリケーション パフォーマンスの両方が向上します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/DRA_Blog_Diagram.max-1000x1000.jpg"
        
          alt="DRA Blog Diagram"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;DRA の動作を確認するには、&lt;/span&gt;&lt;a href="https://discuss.google.dev/t/running-inference-on-vllm-with-dynamic-resource-allocation-and-custom-compute-classes/342730" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Google デベロッパー フォーラムのこちらのブログ記事&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。このブログ記事では、環境設定、GKE クラスタの作成、ドライバのインストール、レプリカのスケーリングなど、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-custom-compute-classes"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;カスタム ComputeClass&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して GPU をスケールする方法を紹介しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;1.35 のリリースでは、AI / ML ワークロードと最新のユースケースの新しい標準を確立するために、&lt;/span&gt;&lt;a href="https://github.com/cncf/k8s-ai-conformance" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Kubernetes AI Conformance プログラム&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;が作成されました。&lt;/span&gt;&lt;a href="https://github.com/cncf/k8s-ai-conformance/blob/main/docs/AIConformance-1.35.yaml#L20" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRA のサポート&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;は、この新しい基準の要となるため、最初の必須要件として特定されました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;ぜひお試しください&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Kubernetes ワークロードがより複雑でミッション クリティカルになるにつれて、柔軟でインテリジェントかつ使いやすいリソース管理の実現が重要になっています。GKE の DRA は、要求の厳しい動的な環境でハードウェア リソースを最適化する際に手作業や当て推量に頼る必要性を排除します。DRA の詳細と利用方法については、以下のリソースをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-dynamic-resource-allocation"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE の DRA に関するドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/blog/ja/products/networking/introducing-managed-dranet-in-google-kubernetes-engine?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ノード ネットワーキングの進化: DRANET ブログ&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/dranet"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;DRANET のドキュメント&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Morten Torkildsen&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Bo Fu&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 02 Apr 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</guid><category>AI &amp; Machine Learning</category><category>GKE</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>DRA: 動的リソース割り当てが切り開く Kubernetes デバイス管理の新時代</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/kubernetes-device-management-with-dra-dynamic-resource-allocation/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Morten Torkildsen</name><title>Senior Software Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Bo Fu</name><title>Senior Product Manager</title><department></department><company></company></author></item><item><title>「生成 AI」から「エージェント型 AI」へ — 自律する AI が変える企業経営</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-autonomous-ai-is-transforming-corporate-management/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="nct3h"&gt;&lt;b&gt;エージェント型 AI（Agentic AI）に投資した企業は、平均 3.5 倍の ROI を達成し、プロジェクト成功率は 81% に達しています。&lt;/b&gt; 成功の鍵は、AI スキルへの人材投資、高品質なデータ基盤、そしてフルスタック プラットフォームの選択にありました。&lt;/p&gt;&lt;p data-block-key="94qas"&gt;今、企業がとるべきアプローチは明確です。&lt;b&gt;エージェント型 AI を軸に据え、データ基盤を整備し、人材のスキルを高め、信頼できるプラットフォームと組む。&lt;/b&gt;本記事では、IDC による最新調査「Asia Pacific Generative AI Adoption Study 2025」のデータから、そのポイントを解説します。&lt;/p&gt;&lt;p data-block-key="nspm"&gt;&lt;b&gt;詳細なホワイトペーパーは&lt;/b&gt;&lt;a href="https://cloud.google.com/resources/content/intl/ja-jp/genai-to-agenticai?hl=ja&amp;amp;e=48754805"&gt;&lt;b&gt;こちらからダウンロード&lt;/b&gt;&lt;/a&gt;&lt;b&gt;してください。&lt;/b&gt;&lt;/p&gt;&lt;h3 data-block-key="3jfd2"&gt;&lt;b&gt;単なるコンテンツ生成から自律的な意思決定へ — エージェント型 AI の台頭&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8nvm0"&gt;&lt;b&gt;AI は今、自ら分析し、推論し、行動するエージェント型 AI へと進化しています。&lt;/b&gt; 人間の指示を待つのではなく、複数のツールを連携させてワークフローを自律的に実行し、複雑なビジネス目標を人手を介さずに成果へと変えていく。これがエージェント型 AI の最大の強みです。&lt;/p&gt;&lt;p data-block-key="ao2ns"&gt;すでに現場での活用も広がっています。製造業では、予測型 AI と生成 AI を組み合わせ、ラインの速度を調整したり、不足した部品をリアルタイムで自動発注したりして、ダウンタイムなしでの稼働を実現。小売業でも、店舗と配送センターの間で欠品の自動補充や、1 時間ごとの動的な価格調整が自律的に動き始めました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_AuRQMp7.max-1000x1000.png"
        
          alt="image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="nct3h"&gt;&lt;b&gt;期待される 3 倍の ROI と「先行組」の成功の秘訣&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="9tc2s"&gt;&lt;b&gt;企業の 66% が、生成 AI への投資で 3 倍の ROI を期待しています。&lt;/b&gt; そして実際に、先行組と呼ばれる企業群は&lt;b&gt;平均 3.5 倍の ROI を達成し、AI プロジェクトの成功率も 81%&lt;/b&gt; に達しました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_3tyn492.max-1000x1000.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="nct3h"&gt;この成功の裏には、&lt;b&gt;AI ツール単体への依存ではなく、部門横断的な協力体制の構築や、社内のメンター制度の促進など、人とエージェントが協力するためのスキルアップ プログラムへの積極的な投資&lt;/b&gt;がありました。熟練したチームの存在こそが、AI 主導の変革を成功に導く鍵になっています。&lt;/p&gt;&lt;h3 data-block-key="8qu56"&gt;&lt;b&gt;成功の鍵を握るデータ基盤とフルスタック プラットフォーム&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="7l067"&gt;&lt;b&gt;エージェント型 AI のスケールを左右するのは、データ基盤とプラットフォームの質です。&lt;/b&gt; すべての業界で最大の障壁となっているのが不十分なデータアクセスと低いデータ品質であり、一部の業界では最大 51% の組織がこの課題に直面しています。高品質なデータがなければ、AI エージェントは正確に機能しません。&lt;/p&gt;&lt;p data-block-key="8fik1"&gt;こうした現実を受けて、企業は AI 予算のかなりの部分を、&lt;b&gt;データエンジニアリングや AI インフラストラクチャ、セキュリティといった基盤に戦略的に振り向け始めました&lt;/b&gt;。&lt;/p&gt;&lt;p data-block-key="603dh"&gt;プラットフォームの選択も同様に欠かせないポイントです。モデル、ツール、インフラストラクチャ、ガバナンスをひとつのプラットフォームで提供し、既存の企業システムとシームレスに統合できるフルスタック AI ソリューション ベンダーを、戦略的パートナーとして重視する傾向が強まっています。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image4_oP4LfOi.max-1000x1000.png"
        
          alt="image4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="nct3h"&gt;&lt;b&gt;実務的なアプローチで進化する日本市場の未来&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="epnq4"&gt;&lt;b&gt;日本では今後 12 か月以内に 42% の組織がエージェント型 AI の導入を計画しています。&lt;/b&gt; 生成 AI の導入率はすでに 65% とアジア太平洋地域で 3 番目に高く、保守的でありながらも実用性を重視する日本独自の姿勢がこの数字に表れています。&lt;/p&gt;&lt;p data-block-key="dhov8"&gt;注目すべきは、モデルやプラットフォーム基盤よりも、ビジネス アプリケーションへの適用を強く優先している点でしょう。&lt;b&gt;生産性の向上で 67%、カスタマーサポートで 66%&lt;/b&gt; と、エージェント型 AI への期待が高い領域がはっきりしており、従業員の負荷軽減や顧客エクスペリエンスの向上といった具体的なビジネス課題に焦点を当てた取り組みが進んでいます。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_HeaK2qH.max-1000x1000.png"
        
          alt="image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="nct3h"&gt;日本企業の今後 12 か月の AI 投資先を見ると、ビジネスアプリケーション（45%）を筆頭に、セキュリティが 41%、データエンジニアリングが 39%、インフラストラクチャが 36% と、基盤領域への投資も着実に伸びています。ビジネス アプリケーションで成果を実感した企業が、次のステップとしてデータ基盤やプラットフォームの整備へと投資を広げていく流れは、今後さらに加速していくでしょう。&lt;/p&gt;&lt;p data-block-key="ektse"&gt;これからの企業成長において、AI は単なる IT プロジェクトではなく、企業の中核的なケイパビリティになっていきます。安全なデータ基盤を構築し、従業員のスキルを高め、信頼できるプラットフォームと連携する。その先に、エージェント型 AI がもたらす自律的な未来が広がっています。&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 31 Mar 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-autonomous-ai-is-transforming-corporate-management/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/hero-genai-agenticai-resized.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>「生成 AI」から「エージェント型 AI」へ — 自律する AI が変える企業経営</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/hero-genai-agenticai-resized.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/how-autonomous-ai-is-transforming-corporate-management/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>Ironwood TPU を使用したトレーニングに関するデベロッパー ガイド</title><link>https://cloud.google.com/blog/ja/products/compute/training-large-models-on-ironwood-tpus/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 24 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/compute/training-large-models-on-ironwood-tpus?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;数兆単位のパラメータを扱う AI モデルへの移行により、演算リソースの需要が急激に高まり、従来のインフラストラクチャの限界が試されています。第 7 世代の Ironwood TPU は、Google がカスタム設計した AI インフラストラクチャです。チップ間相互接続（ICI）、光回路スイッチ（OCS）、データセンター ネットワーク（DCN）、および大規模な集約型高帯域幅メモリ（HBM）容量を組み合わせることで、最大 9,216 個のチップを格納できる Pod に対応する包括的なシステムとしてスケールできるように設計されています。さらに、Ironwood はハードウェア アーキテクチャとソフトウェアの統合された共同設計を特徴としており、コンパイラ中心の XLA、および Pallas や Mosaic などの Python ネイティブ カーネルといったイノベーションが導入されています。組織はこれらの機能を組み合わせることで、高度なフロンティア モデルをトレーニングおよび提供する能力を大幅に高め、AI ライフサイクル全体を最適化し、高いパフォーマンスを維持できます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_YpVMWLp.max-1000x1000.jpg"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;この技術概要では、Ironwood ハードウェア上でのトレーニング効率の向上と、卓越したパフォーマンスの実現を目指して設計された、JAX および MaxText エコシステムにおける具体的な手法とツールについて説明します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Ironwood の主な最適化戦略&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;1. MaxText によるネイティブ FP8 の活用&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Ironwood は、行列乗算ユニット（MXU）で 8 ビット浮動小数点（FP8）をネイティブにサポートする最初の TPU 世代です。重み、アクティベーション、勾配に FP8 精度を利用することで、ユーザーは理論上、スループットを Brain Floating Point 16（BF16）の 2 倍に高められます。FP8 レシピを正しく構成すると、モデルの品質を損なうことなく効率を向上させることができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの FP8 トレーニング レシピを実装するには、&lt;/span&gt;&lt;a href="https://github.com/google/qwix" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Qwix&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; ライブラリから始めます。この機能は、MaxText 構成内で関連するフラグを指定すると有効になります。,  &lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;詳しくは、Google デベロッパー フォーラムのブログ投稿 &lt;/span&gt;&lt;a href="https://discuss.google.dev/t/inside-the-optimization-of-fp8-training-on-ironwood/336681" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Ironwood での FP8 トレーニングの最適化について&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;2. Tokamax カーネルによる加速&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://github.com/openxla/tokamax/tree/main" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Tokamax&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; は、TPU 向けに最適化された高パフォーマンスの JAX カーネルのライブラリです。これらのカーネルは、次のメカニズムを通じて特定のボトルネックを軽減するように設計されています。&lt;/span&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Splash Attention&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: このメカニズムは、標準的なアテンション プロセスに内在する I/O の制限に対処します。オンチップ SRAM 内で計算を維持することで、メモリ帯域幅が制約になることが多い長いコンテキストの処理に特に効果を発揮します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;Megablox グループ化行列乗算（GMM）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: これは、混合エキスパート（MoE）モデルでよく見られる「不規則な」なテンソルを管理します。GMM を利用すると、システムは非効率的なパディングを回避し、MXU の使用率を高められます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: decimal; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;カーネル チューニング&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: Tokamax ライブラリには、ハイパーパラメータを最適化するための&lt;/span&gt;&lt;a href="https://github.com/openxla/tokamax/blob/main/tokamax/experimental/utils/tuning/tpu/README.md" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ユーティリティ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;が含まれています。これらのツールを使用すると、Ironwood TPU の特定のメモリ階層に合わせて、タイルサイズやその他の構成を調整できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;3. SparseCore への集団のオフロード&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Ironwood の第 4 世代 SparseCore は、不規則なメモリアクセス パターンを管理するために特別に設計されたプロセッサです。ユーザーは、特定の &lt;/span&gt;&lt;a href="https://github.com/AI-Hypercomputer/maxtext/blob/c0abc4c0c0a98e02413d7b6c669927d013467045/benchmarks/xla_flags_library.py#L70-L116" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;XLA フラグ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を使用して、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;All-Gather&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;Reduce-Scatter&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; などの集団通信演算を SparseCore に直接オフロードできます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このオフロード メカニズムにより、TensorCore を主要なモデル計算に専念させながら、通信タスクを並行して実行できます。このような機能の重複は、通信のレイテンシを隠し、MXU へのデータ スループットを一定に保つための重要な戦略です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;4. VMEM 上でのメモリ パイプラインのファインチューニング&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;TPU メモリ アーキテクチャの重要な部分である VMEM は、カーネルのパフォーマンスを最適化するように設計された高速なオンチップ SRAM です。現在の演算と将来の重みのプリフェッチの間で VMEM の割り当てを調整することで、実行速度を全体的に向上させることができます。たとえば、現在のスコープ用に予約されている VMEM を増やすと、カーネルで使用されるタイルサイズを大きくすることができます。これにより、潜在的なメモリストールが解消され、カーネルのパフォーマンスが向上します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;TPU メモリ アーキテクチャの詳細については、&lt;/span&gt;&lt;a href="https://docs.jax.dev/en/latest/pallas/tpu/pipelining.html" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;TPU パイプライン&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;5. 最適なシャーディング戦略の選択&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;最後に、MaxText は、すべての TPU で利用できるさまざまな並列処理手法をサポートしています。最適な選択は、モデルサイズ、アーキテクチャ（Dense や MoE）、シーケンス長によって異なります。適切なシャーディング戦略を選択すると、モデルのパフォーマンスを高められます。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;完全にシャーディングされたデータ並列処理（FSDP）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: これは、単一チップのメモリ容量を超える大規模モデルをトレーニングする場合に推奨される戦略です。FSDP は、モデルの重み、勾配、オプティマイザの状態を複数のチップにシャーディングします。デバイスごとのバッチサイズを増やし、より多くの演算を導入することで、All-Gather 演算のレイテンシを隠し、効率を向上させることができます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;テンソル並列処理（TP）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 個々のテンソルをシャーディングします。Ironwood は演算密度が高いため、モデルの次元が極めて大きい場合に TP が最大の効果を発揮します。TP を 2 分割して活用すると、Ironwood のデュアル チップレット設計における高速なダイ間相互接続を利用できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;エキスパート並列処理（EP）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: MoE モデルでエキスパートをデバイス間で分散するのに役立ちます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;コンテキスト並列処理（CP）&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 非常に長いシーケンスに必要で、シーケンスの次元に沿ってアクティベーションをシャーディングします。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ハイブリッド アプローチ&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;: 大規模な実行で演算、メモリ、通信のバランスを取るには、戦略の組み合わせが必要になる場合が多いです。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;上述の 2～5 の手法について詳しくは、デベロッパー フォーラムの投稿 &lt;/span&gt;&lt;a href="https://discuss.google.dev/t/optimizing-frontier-model-training-on-tpu-v7x-ironwood/336983/2" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Optimizing Frontier Model Training on TPU v7x Ironwood（TPU v7x Ironwood でのフロンティア モデル トレーニングの最適化）&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Ironwood のメリット: システムレベルのパフォーマンス&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの最適化手法と、高速の 3D トーラス チップ間相互接続（ICI）や大容量 HBM などの Ironwood のアーキテクチャ上の強みを組み合わせることで、フロンティア モデルのトレーニング向け高性能プラットフォームが実現します。ハードウェア、コンパイラ（XLA）、フレームワーク（JAX、MaxText）間の緊密な共同設計により、AI インフラストラクチャから最大限のパフォーマンスを引き出すことができます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI の取り組みを加速させる準備は整いましたか？以下のリソースで、各最適化手法について詳しく確認できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="vertical-align: baseline;"&gt;関連情報&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://discuss.google.dev/t/inside-the-optimization-of-fp8-training-on-ironwood/336681" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Ironwood での FP8 トレーニングの最適化について&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://discuss.google.dev/t/optimizing-frontier-model-training-on-tpu-v7x-ironwood/336983/2" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;TPU v7x Ironwood でのフロンティア モデル トレーニングの最適化&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;このブログ投稿に協力してくれた Hina Jajoo と Amanda Liang に感謝します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;プロダクト戦略およびオペレーション担当、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Lillian Yu&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;Google TPU 担当プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Liat Berry&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 30 Mar 2026 02:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/compute/training-large-models-on-ironwood-tpus/</guid><category>AI &amp; Machine Learning</category><category>TPUs</category><category>Compute</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ironwood TPU を使用したトレーニングに関するデベロッパー ガイド</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/compute/training-large-models-on-ironwood-tpus/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Lillian Yu</name><title>Product Strategy &amp; Operations</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Liat Berry</name><title>Product Manager, Google TPUs</title><department></department><company></company></author></item><item><title>JA 共済連: 年間数百件におよぶ問い合わせの回答支援 AI エージェントを Gemini Enterprise を用いてスピーディに構築</title><link>https://cloud.google.com/blog/ja/topics/customers/ja-kyosairen-rapidly-develops-ai-agent-using-gemini-enterprise/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="1k1gb"&gt;将来的な人員減を見据え、全国共済農業協同組合連合会（以下、JA共済連）は、富士通株式会社（以下、富士通）とのパートナーシップのもと、Google Cloud の AI エージェント プラットフォーム Gemini Enterprise を活用した業務効率化プロジェクトを始動させました。その第一歩となったのが、各県域における地域貢献活動にかかる積立金の支出可否判断の支援です。ここでは取り組みの詳細をプロジェクトで中心的な役割を担った 4 名のキーパーソンに伺います。&lt;/p&gt;&lt;p data-block-key="fhap0"&gt;&lt;b&gt;利用しているサービス:&lt;/b&gt;&lt;br/&gt; &lt;a href="https://cloud.google.com/gemini-enterprise?hl=ja&amp;amp;utm_source=google&amp;amp;utm_medium=cpc&amp;amp;utm_campaign=1713704-Workspace-DR-APAC-JP-ja-Google-BKWS-MIX-Hybrid-GeminiEnterprise&amp;amp;utm_content=c-Hybrid+%7C+BKWS+-+EXA+%7C+Txt-Gemini+Enterprise-Generic-ja-511071189780&amp;amp;utm_term=gemini%20enterprise&amp;amp;gclsrc=aw.ds&amp;amp;gad_source=1&amp;amp;gad_campaignid=23381002691&amp;amp;gclid=Cj0KCQiAy6vMBhDCARIsAK8rOgkupmYy8ze95KeqIHqP1UZC2O17KlirvRsU9GftxghuGYDPYjtLibkaAo8FEALw_wcB"&gt;Gemini Enterprise&lt;/a&gt; など&lt;/p&gt;&lt;p data-block-key="27dal"&gt;&lt;b&gt;利用しているソリューション:&lt;/b&gt;&lt;br/&gt; &lt;a href="https://cloud.google.com/ai/gemini"&gt;生成 AI&lt;/a&gt;&lt;/p&gt;&lt;h3 data-block-key="9sv95"&gt;&lt;b&gt;AI エージェント活用で「2040 年問題」に備える&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="adl9a"&gt;多くの企業・組織で人手不足が叫ばれる昨今。政府試算によると、日本の労働人口は 2040 年までに現労働人口の約 2 割、最大 1,200 万人ほど減少すると言われています。この問題はJA 共済連にとっても無縁ではありません。同会は「相互扶助」の理念を掲げ、全国の JA（農業協同組合）と連携・協調しながら「ひと・いえ・くるま」の総合保障の提供のほか、豊かで安心して暮らすことのできる地域社会づくりに貢献しています。この質の高いサービスを維持するためにも、「2040 年問題」にいかに備えるかが喫緊の課題となっています。そこで着目されたのが生成 AI の技術です。JA共済連 農業・地域活動支援部 地域貢献企画管理グループ主幹の市川 豪氏は、次のように説明します。&lt;/p&gt;&lt;p data-block-key="75a63"&gt;「将来的に予想される職員の減少に対応するためには、業務を効率化していくことも有効な手段となります。最近、社会的に大きな注目を集めている 生成 AI 技術を活用することで、現状をかなり改善できるのではないかという期待があり、具体的な活用方法を探ってみることになりました。」&lt;/p&gt;&lt;p data-block-key="937vc"&gt;JA共済連は、同会のシステム開発・運用パートナーである富士通に AI を用いた業務効率化を相談。いくつかのユースケースを検討した結果、対応のスピードアップと負荷軽減が求められていた地域貢献活動にかかる基金の支出判断に、AI エージェント技術を活用するプランを採用します。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_K3A0634_small.max-1000x1000.jpg"
        
          alt="_K3A0634_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="i7kvg"&gt;「地域貢献活動とは、健康増進や防災、交通事故対策、農機具の寄贈など、JA・JA共済連が、組合員や地域住民の方々のために行う活動です。実施に当たっては、ガイドラインに基づいて支出可否を判断します。ただし、地域貢献活動は一般的な共済事業と異なり、明確な約款が定められているわけではありません。実際には、過去事例などと照らし合わせながら個別かつ総合的に検討する必要があり、どうしても判断に時間がかかってしまいます。公益性の高い非常に重要な活動を充実させるうえでも、判断の迅速化が求められていました。」（市川氏）&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="1k1gb"&gt;市川氏とともに同業務を担当してきた地域貢献企画管理グループ 主査、町田 瑞季氏は、AI導入によって期待される効果を、業務負荷の軽減という観点から説明します。&lt;/p&gt;&lt;p data-block-key="drkc2"&gt;「最大の問題はガイドラインの解釈が担当者によって異なり、判断基準に差が生じるリスクがあったことです。これまでは、そうした問題を未然に防ぐため、部署内で全国からの問い合わせに関する認識をすり合わせたうえで、回答を行っていました。しかし、文書による照会だけで年間 200～300 件、さらに毎日数件、電話による問い合わせがあり、認識のすり合わせだけでも負担になっていました。この部分に AI エージェントをうまく活用できれば、私たち本部の作業だけでなく、地域貢献活動を実施する JA と直接やりとりをしている全国各地の担当者の作業負荷も大きく軽減されるのではないかという期待がありました。」&lt;/p&gt;&lt;h3 data-block-key="4km"&gt;&lt;b&gt;Gemini Enterprise だから実現できた短期間での課題解決&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="d71qq"&gt;この課題解決にあたり、富士通の営業部門担当者として、JA共済連の業務効率化を担当してきた岡田 晋太朗氏は、さまざまなソリューションの中から、Gemini Enterprise の採用を決定しました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_K3A0348_small.max-1000x1000.jpg"
        
          alt="_K3A0348_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="i7kvg"&gt;「AI エージェント導入に際しては、『短期間で成果を出したい』『アジャイル的に対話しながら AI を育てたい』というリクエストがありましたので、ノーコード・ローコードで構築できる Gemini Enterprise を選択しました。他の選択肢も検討しましたが、チューニング力や短期間での成果創出の確実性を考えると、今回は Gemini Enterprise が最適解という結論に達しました。」&lt;/p&gt;&lt;p data-block-key="5bn2q"&gt;2025 年 7 月に開発に着手。その後はスピード感をもって進められ、業務フローのヒアリング後、わずか 1〜2 週間でプロトタイプが完成。富士通のエンジニアとして AI エージェント開発に携わった宇野 健介氏は、Gemini Enterprise を用いた AI エージェント作成について、こう語ります。&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_K3A0574_small.max-1000x1000.jpg"
        
          alt="_K3A0574_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="i7kvg"&gt;「今回は Gemini Enterprise の ADK（Agent Development Kit）を用いてAI エージェントを開発しました。Gemini Enterprise には、Gemini Pro をはじめとする高性能なモデル、SDK、UI、ローコード ツールなどが一通り揃っているうえ、それらを連携させるのも容易で、スムーズに開発を進めることができました。今回、Gemini には、ガイドラインのほか、過去 3 年分、約 600 件の照会票（照会内容と回答の記録）データをナレッジとして追加しました。AI エージェントに新たに照会内容を入力すると、ナレッジを参照し、適切な回答を出してくれる仕組みです。最初のプロトタイプの時点でかなり精度が出ていましたが、そこからさらにご要望に沿うようチューニングしていき、トータルおよそ 1.5 か月程度で必要な精度・内容に仕上げられています。」&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="1k1gb"&gt;チューニングでは、いくつかの工夫も行われました。&lt;/p&gt;&lt;p data-block-key="ftmm0"&gt;「例えば、照会内容によって検討すべき争点が異なるため、まず AI エージェントに照会内容から争点を洗い出させ、そのうえで回答を生成させるようにしました。これにより、担当者の思考プロセスに、より近い回答が生成されるようになりました。また、単に過去事例をナレッジとして追加するだけでは、AI がキーワードにヒットした複数の過去事例の「いいところ取り」をしてしまい、文脈のつながらない回答を生成してしまう恐れがありました。照会票データを 1 つずつ「別のファイル」としてナレッジに追加することで、個別ケースの文脈を維持した回答を引き出せるように対応しました。」（宇野氏）&lt;/p&gt;&lt;p data-block-key="27ejk"&gt;さらに、回答精度の向上に加え、「この情報が足りていないので教えてください」と AI 側から追加情報の提供を促す機能も実現。これらの改善によって、実用性が大きく高まったと言います。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/QuanGongLian_AI_Agent_GaiNianTu.max-1000x1000.png"
        
          alt="全共連_AI Agent 概念図"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="1k1gb"&gt;&lt;b&gt;業務負荷を最大 50％ 削減見込み、今後は他部署への展開を予定&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8bl37"&gt;町田氏は出来上がった AI エージェントを初めて利用した際、瞬時に理想的な回答が提示されたことに感動したと、当時を振り返ります。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_K3A0503_small.max-1000x1000.jpg"
        
          alt="_K3A0503_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="i7kvg"&gt;「単に承認・否決を判定するのではなく、過去事例なども踏まえ、『ガイドラインのこの箇所に合致します、理由はこれです』と判断の根拠を明確に提示してくれるため、これならすぐに業務に使えそうだと感じたのをよく覚えています。また、チャット形式でやり取りできることも操作の学習が不要でありがたかったですね。」（町田氏）&lt;/p&gt;&lt;p data-block-key="898j4"&gt;市川氏によると、本システムの導入によって、照会応答業務負荷が 20〜50％ 程度削減できることを見込んでいるとのこと。&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;「特に回答の均質化・平準化が図れる点を高く評価しています。今後、実務への導入が実現した場合には、まずは各県本部に対してこの AI エージェントをリリースすることで、各地の職員が悩む時間を減らし、迅速に判断できるのではないかと考えています。将来的には他部署へも横断的に展開し、組織全体の効率化を図っていきたいです。Gemini Enterprise の導入で削減できた時間を、本来注力すべき、より良い地域貢献活動の企画・分析に充てていくことで、最終的には組合員や利用者の利益にもつなげていけるのではと期待しています。」（市川氏）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今回の取り組みの成功を受け、JA 共済連と富士通は今後、さらに AI エージェントの活用を拡大していく予定で、すでに別部署では、新たな業務効率化に向けた PoC（概念実証）も始まっています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;「今後は問い合わせ業務に限らず、営業推進、査定、支払いなど、バリュー チェーン全体での活用を提案していければと考えています。また、現場の担当者自らが Gemini Enterprise を操作し、AI エージェントを作成・チューニングしていく取り組みも加速していきたいです。」（岡田氏）&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;「今回は AI エージェントを用いた業務改善でしたが、今後は、地域貢献活動参加者のニーズ分析などに Google Cloud の技術と知見を活用していきたいと考えています。2026 年 1 月に JA共済連は 75 周年を迎えました。伝統を守りつつも、新しいテクノロジーの力で組織の変革・改革を前に進めて、より深く多角的に地域に貢献していきたいですね。」（市川氏）&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;p&gt; &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_53A6212_small.max-1000x1000.jpg"
        
          alt="_53A6212_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="1k1gb"&gt;&lt;a href="https://www.ja-kyosai.or.jp/" target="_blank"&gt;&lt;b&gt;全国共済農業協同組合連合会&lt;/b&gt;&lt;/a&gt;&lt;br/&gt;JA グループの共済事業を全国規模で支える連合会。「相互扶助」の理念のもと、「ひと・いえ・くるま」の総合保障を中心とした活動で、組合員・地域住民の暮らしと営農を支える。全国本部と 47 都道府県本部からなる体制で、総窓口数は約 5,400 か所。従業員数は6,367 名（2025 年 3 月末現在）。&lt;/p&gt;&lt;p data-block-key="eldd1"&gt;&lt;a href="https://global.fujitsu/ja-jp" target="_blank"&gt;&lt;b&gt;富士通株式会社&lt;/b&gt;&lt;/a&gt;&lt;br/&gt;（Google Cloud パートナー）&lt;br/&gt;「イノベーションによって社会に信頼をもたらし、世界をより持続可能にしていく」というパーパスを掲げ、世界中のお客様に選ばれるデジタル・トランスフォーメーション（DX）パートナーとして、社会課題の解決に取り組んでいる。AI、コンピューティング、ネットワーク、データ＆セキュリティ、およびコンバージングテクノロジーの 5 つの重点技術領域を核に、幅広いサービスとソリューションを提供。これらの技術を駆使し、持続可能な社会の実現を目指すサステナビリティ・トランスフォーメーション（SX）を推進している。&lt;/p&gt;&lt;p data-block-key="8ot6q"&gt;&lt;b&gt;インタビュイー&lt;/b&gt;&lt;br/&gt;全国共済農業協同組合連合会&lt;br/&gt;・農業・地域活動支援部 地域貢献企画管理グループ 主幹　市川 豪 氏&lt;br/&gt;・農業・地域活動支援部 地域貢献企画管理グループ 主査　町田 瑞季 氏&lt;br/&gt;富士通株式会社&lt;br/&gt;・Finance &amp;amp; Public事業本部 共済事業部　岡田 晋太朗　 氏&lt;br/&gt;・クロスインダストリーソリューション事業本部&lt;br/&gt;　Forward Deployed Engineering事業部　宇野 健介 氏&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 30 Mar 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/customers/ja-kyosairen-rapidly-develops-ai-agent-using-gemini-enterprise/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_image_ja_horizontal.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>JA 共済連: 年間数百件におよぶ問い合わせの回答支援 AI エージェントを Gemini Enterprise を用いてスピーディに構築</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_image_ja_horizontal.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/customers/ja-kyosairen-rapidly-develops-ai-agent-using-gemini-enterprise/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>映像制作は映像「創作」へ ── 日本テレビが挑む AI 共創の最前線</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/ntvs-pioneering-efforts-in-ai-co-creation/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="tglzl"&gt;Google Cloud 主催「Agentic AI Summit '26 Spring」内で開催された第 5 回生成 AI 事例アワード。6 社のファイナリストによるピッチコンテストで見事最優秀賞に輝いたのは、日本テレビ放送網が開発した AI 共創プラットフォーム「AI Co-Creator」でした。&lt;/p&gt;&lt;h3 data-block-key="1dueg"&gt;&lt;b&gt;ドラマ「TOKYO 巫女忍者」で証明した AI × 実写の可能性&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="893jj"&gt;発表者は日本テレビ放送網の古谷康佑氏。2024 年新卒入社ながら、AI チーフクリエイターとして地上波ドラマ「TOKYO 巫女忍者」の制作を主導。大規模セットを使わず、実写と生成 AI を高度に融合させた映像作品を実現しました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/01_drama.max-1000x1000.png"
        
          alt="01_drama"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="tglzl"&gt;&lt;b&gt;台本ひとつで映像が動き出す「AI Co-Creator」&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="ajulo"&gt;この成功体験から生まれたのが「AI Co-Creator」です。台本を入力するだけで、AI が場所・人物・衣装などを自動で読み解き、シーンをまたいでも一貫した世界観を保つ画像・動画を生成します。中核には Gemini 3 Pro がオーケストレーターとして座り、画像生成には Nano Banana Pro、動画生成には Veo 3.1 を使い分けながら、アセットは Google Cloud Storage に蓄積。これらが自律型 AI エージェントとして連携する仕組みです。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/04_archtecture.max-1000x1000.png"
        
          alt="04_archtecture"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="tglzl"&gt;&lt;b&gt;AI が自ら採点・修正し、クリエイターの「打席数」を増やす&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="c7s4b"&gt;最大の特徴は、生成された動画を AI 自らが採点し修正案を出してくれる点。クリエイターは泥臭い修正作業から解放され、制作の主体が「手」から「目」へと変わります。従来数週間かかっていた絵コンテ制作がわずか 1 時間で完結し、アイデアの打席数を爆発的に増やせるようになりました。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/03_cocreator.max-1000x1000.png"
        
          alt="03_cocreator"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI は単なる効率化ツールではなく、「そうきたか」とプロを触発するクリエイティブパートナー。アイデアを持つ誰もが物語を解き放てる世界が、すぐそこまで来ています。古谷氏は今後の展望として、これまで予算の壁で諦めていたハリウッド級の CG 表現を AI で実現し、よりプレミアムなコンテンツを発信していきたいと語りました。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://www.youtube.com/watch?v=_Gn_DH_g3AE&amp;amp;t=16327s" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;発表の様子（YouTube 4:22:10〜）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://www.youtube.com/watch?v=JUBBC_r_yTU" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;TOKYO 巫女忍者 予告（YouTube）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloudonair.withgoogle.com/events/agentic-ai-summit-26-spring" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agentic AI Summit '26 Spring（イベントページ）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloudonair.withgoogle.com/events/gcgenai-innovation-awards" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;第 5 回生成 AI 事例アワード&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Thu, 26 Mar 2026 03:10:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/ntvs-pioneering-efforts-in-ai-co-creation/</guid><category>Customers</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_1.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>映像制作は映像「創作」へ ── 日本テレビが挑む AI 共創の最前線</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_1.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/ntvs-pioneering-efforts-in-ai-co-creation/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>サイバーエージェント: 広告クリエイティブ制作を効率化する「AI SCREAM」において、 Google Cloud の画像生成 AI モデルが活躍</title><link>https://cloud.google.com/blog/ja/topics/customers/ai-scream-google-cloud-ai/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="brbdh"&gt;株式会社サイバーエージェント（以下、サイバーエージェント）は、同社が誇る豊富なクリエイティブ制作のノウハウに生成 AI 技術を組み合わせた「AI クリエイティブ BPO（Business Process Outsourcing）」事業（※1）を展開しています。その中でもとりわけ注目されているのが、クリエイティブ生成 AI プラットフォーム「AI SCREAM（アイスクリーム）」（※2）です。今回は、同プロジェクトで中心的な役割を果たしてきたおふたりに、AI SCREAM 誕生の裏側と、どのように Google Cloud の生成 AI 技術が活用されているかを伺いました。&lt;/p&gt;&lt;p data-block-key="4ojl2"&gt;&lt;b&gt;利用しているサービス:&lt;/b&gt;&lt;br/&gt; &lt;a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/model-reference/veo-video-generation?hl=ja"&gt;Veo&lt;/a&gt;、&lt;a href="https://cloud.google.com/resources/content/intl/ja-jp/imagenpromptguide?hl=ja"&gt;Imagen&lt;/a&gt;、&lt;a href="https://gemini.google/jp/overview/image-generation/?hl=ja-JP" target="_blank"&gt;Nano Banana&lt;/a&gt; など&lt;/p&gt;&lt;p data-block-key="fjhg8"&gt;&lt;b&gt;利用しているソリューション:&lt;/b&gt;&lt;br/&gt;&lt;a href="https://cloud.google.com/ai/generative-ai?hl=ja"&gt;生成 AI&lt;/a&gt;&lt;/p&gt;&lt;h3 data-block-key="f9a9v"&gt;&lt;b&gt;生成 AI 活用により広告クリエイティブ制作の「量と質」を最大化する「AI SCREAM」&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="4sbj3"&gt;運用の最適化が求められるインターネット広告においては、ターゲットの属性やリアルタイムな広告効果の変化に合わせて、最適なクリエイティブを供給し続ける必要があります。サイバーエージェントの「AI SCREAM」は、各社の生成 AI モデルを、統一された UI 上で一元管理し、横断的に活用できる画期的なプラットフォームです。このプラットフォームでは、広告制作などに必要な静止画や動画、テキストといった「素材」の準備から、それらを組み合わせて広告クリエイティブなどの最終アウトプットを完成させるまでの作業を、誰もがスピーディーに行うことが可能です。&lt;/p&gt;&lt;p data-block-key="1famo"&gt;AI SCREAM 開発に初期から携わってきた同社 AI 事業本部 AIクリエイティブカンパニー プロジェクトマネージャー、亀山 千尋氏はその開発の背景と強みを次のように説明します。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_53A6927_small.max-1000x1000.jpg"
        
          alt="_53A6927_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="ob00x"&gt;「生成 AI を利用した広告クリエイティブ制作は、膨大な量の素材を即座に用意できることが最大の長所で、インターネット広告との相性が良いと言えます。一方で、各社のモデルは提供方法や UI、対応言語などがそれぞれ異なっており、現場のビジネス職が複数のモデルを適材適所で使い分けるハードルの高さも課題になっていました。こうしたギャップを埋めるために誕生したのが『AI SCREAM』です。プロンプトの改善や目的に最適なモデルの選択をワンストップで行える環境を整えており、専門知識を問わず、誰もが高精度なクリエイティブ制作を実現できるようになっています。」&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="brbdh"&gt;AI SCREAM は、企画当初から AI クリエイティブ BPO 事業での展開を想定。社外へ質の高いサービスを提供するため、まずは社内で徹底的に使い込み、完成度を高める方針で開発が進められました。その後、社内 PoC を経て 2024 年 2 月に社内向けにリリースされ、現在は社内のクリエイターやビジネス職など、毎日およそ 1,000 名のユーザーに利用されるまでに成長しています。&lt;/p&gt;&lt;h3 data-block-key="bdm21"&gt;&lt;b&gt;Google Cloud の生成 AI モデルは人物のフォトリアルな表現に長けている&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="buoor"&gt;AI SCREAM では、商用利用可能な新たな生成 AI モデルが各社から登場すると毎回、社内ガイドライン（※3）と照らし合わせた上で、2 週間以内に検証・実装を完了するスピード重視の方針が採用されています。亀山氏によれば、さまざまな 生成 AI の中でも、Veo や Imagen、Nano Banana などの Google Cloud の画像生成 AI モデル群は、社内利用で高い評価を獲得しているとのことです。&lt;/p&gt;&lt;p data-block-key="3ffue"&gt;「広告クリエイティブにおいて、商品やサービスに親近感を持っていただくためには、自然な人物描写が必要な場合があります。その点、Google Cloud の画像生成 AI モデルは、特に人物を違和感なく描写できるといったような評価がとても多いです。」&lt;/p&gt;&lt;p data-block-key="bop5q"&gt;亀山氏と共に AI SCREAM のプロジェクトを推進してきた、AI 事業本部 AI クリエイティブカンパニー プロジェクトマネージャー、鈴木 知佳氏は、フォトリアルな表現に加え、ユーザーの意図に忠実なアウトプットが可能であることも、Google Cloud の生成 AI モデル群が高く支持される理由だと語ります。&lt;/p&gt;&lt;p data-block-key="crbs6"&gt;「Google Cloud の画像生成 AI モデルは、プロンプトの意図を正確に捉えた出力精度が高く、イメージ通りに仕上げやすいところが喜ばれているようです。特に Nano Banana は、発表直後から機能性や表現力の面で注目を集めており、現場からは『1 日も早く AI SCREAM に組み込んでほしい』という要望が上がるほどでした。」&lt;/p&gt;&lt;p data-block-key="dn6qm"&gt;サイバーエージェントでは、現場の声を受けた改善も継続的に実施。例えば 2025 年 12 月には、クリエイティブ制作から部分的な修正・編集までを誰でもスピーディーに完結できる、「ブラッシュアップ AI 機能」も追加されています。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_53A7099_small.max-1000x1000.jpg"
        
          alt="_53A7099_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;p data-block-key="ob00x"&gt;「ブラッシュアップ AI 機能は、複数の生成 AI モデルを組み合わせたエージェント技術で実現しています。ただし、開発は容易ではありませんでした。AI ならではの出力の不確実性を最小限に抑え、膨大な選択肢から、ベスト プラクティスを見出すことの難しさを痛感させられましたね。」（鈴木氏）&lt;/p&gt;&lt;p data-block-key="bqhdr"&gt;この課題を乗り越えるべく、AI SCREAM 開発チームはアジャイルなアプローチを採用。まずはベータ版として同機能を提供し、ユーザーからのフィードバックを踏まえて、迅速に改善を重ねることで完成度を高めていきました。亀山氏は、この迅速な開発サイクルを支えたのが、Google Cloud の献身的なサポート体制だったと振り返ります。&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="brbdh"&gt;「生成 AI モデルのベンダーは多くが海外企業ということもあり、サポートを受けるまで時間を要する場合もあります。しかし Google Cloud の対応は極めて速く、いつも助けられました。『新モデル登場から 2 週間以内に提供する』という私たちの方針を維持し、ブラッシュアップ AI 機能を実現できたのは、その親身な伴走のおかげだと感じています。」&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/JiShiNeiHuaXiang_CA_small.max-1000x1000.jpg"
        
          alt="記事内画像_CA_small"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="8m6wi"&gt;（AI SCREAM によるクリエイティブ編集の例）&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="brbdh"&gt;&lt;b&gt;AI SCREAM がデザイナー、ビジネス職双方に意識変容をもたらした&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="92et6"&gt;AI SCREAM で生成された素材の点数は、2025 年 2 月からの 1 年間で累計 120 万点を突破しました（※4）。そのうち約 10 万点が実際の案件や社内キャンペーン、提案資料など、さまざまなシーンで使われています。とりわけ特筆すべきは、制作時間短縮で、従来の方法に比べて現段階で約 30% の削減に成功しました。しかし鈴木氏は、それが意味するのは、単なる省力化やコストカットではないと胸を張ります。&lt;/p&gt;&lt;p data-block-key="7bv9a"&gt;「広告クリエイティブ制作に携わるメンバーが『どうすれば広告効果を最大化できるか』という本質的な発想や表現の開発により注力できるようになりました。 AI を活用することで、人間とテクノロジーの適切な役割分担が実現しています。」&lt;/p&gt;&lt;p data-block-key="c0obg"&gt;さらに、亀山氏は、AI SCREAM 最大の成果は、直観的で分かりやすい UI / UX の実現によって、ビジネス職でも、自らクリエイティブを制作・編集を行える環境が整ったことだと強調します。&lt;/p&gt;&lt;p data-block-key="9d0ke"&gt;「このことは大きな意識変容をもたらしました。広告運用の現場では、細かな修正に即座に対応し、PDCA を回す速さが成果を左右します。 こうしたスピーディーな対応を誰もが行える環境になったことは、ビジネス職にとっても大きな変化でした。 クリエイターには、彼らにしかできない高度な判断や企画にリソースを集中させ、それ以外の工程を効率化するという好循環が生まれ、結果としてアウトプット全体のクオリティ向上につながっています。」&lt;/p&gt;&lt;p data-block-key="2rvk7"&gt;サイバーエージェントは、自社およびパートナー企業での活用を通じて得られた知見と実績をもとに、今後は外部企業への展開をより一層加速させていきます。最後に、亀山氏は将来を見据え、Google Cloud への期待を語ってくれました。&lt;/p&gt;&lt;p data-block-key="fqlig"&gt;「継続的な機能改善のためにも、Google Cloud が提供する優れたモデルのさらなる進化を心待ちにしています。個人的には、グローバル企業ならではのローカライズに期待しているところです。“日本らしさ” を理解し、これまで以上に違和感のない出力ができるようになると、活用の幅がますます広がっていくはずです。また、多くの企業が安心して生成 AI を導入できるよう、Google Cloud には安全性強化の点でも、業界を牽引していただけることを願っています。」&lt;/p&gt;&lt;p data-block-key="53kcj"&gt;&lt;sup&gt;（※1）&lt;/sup&gt;&lt;a href="https://www.cyberagent.co.jp/news/detail/id=31144" target="_blank"&gt;&lt;sup&gt;AI クリエイティブ BPO（Business Process Outsourcing）事業&lt;/sup&gt;&lt;/a&gt;&lt;sup&gt;&lt;br/&gt;（※2）&lt;/sup&gt;&lt;a href="https://www.cyberagent.co.jp/news/detail/id=32681" target="_blank"&gt;&lt;sup&gt;クリエイティブ生成 AI プラットフォーム「AI SCREAM（アイスクリーム）」&lt;/sup&gt;&lt;/a&gt;&lt;sup&gt;&lt;br/&gt;（※3）&lt;/sup&gt;&lt;a href="https://www.cyberagent.co.jp/way/list/detail/id=30017" target="_blank"&gt;&lt;sup&gt;社内ガイドライン&lt;/sup&gt;&lt;/a&gt;&lt;sup&gt;&lt;br/&gt;（※4）&lt;/sup&gt;&lt;a href="https://www.cyberagent.co.jp/news/detail/id=33089" target="_blank"&gt;&lt;sup&gt;AI SCREAM で生成された累計生成点数は 120 万点を突破&lt;/sup&gt;&lt;/a&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;hr/&gt;
&lt;p&gt; &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/_53A7183_small.max-1000x1000.jpg"
        
          alt="_53A7183_small"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="brbdh"&gt;&lt;a href="https://www.cyberagent.co.jp/" target="_blank"&gt;&lt;b&gt;株式会社サイバーエージェント&lt;/b&gt;&lt;/a&gt;&lt;br/&gt;「21 世紀を代表する会社を創る」をビジョンに掲げ、 1998 年に設立。国内最大級のインターネット広告代理事業をはじめ、メディア&amp;amp;IP事業、ゲーム事業を主軸とした多岐にわたる事業を展開している。従業員数は 8,264 名（連結子会社含む。2025 年 12 月時点）。&lt;/p&gt;&lt;p data-block-key="dd7qp"&gt;&lt;b&gt;インタビュイー&lt;/b&gt;&lt;br/&gt;・AI 事業本部　AI クリエイティブカンパニープロジェクトマネージャー　亀山 千尋 氏&lt;br/&gt;・AI 事業本部　AI クリエイティブカンパニープロジェクトマネージャー　鈴木 知佳 氏&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;hr/&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;その他の導入事例は&lt;/span&gt;&lt;a href="https://cloud.google.com/customers?hl=ja&amp;amp;e=48754805#/"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;こちら&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 26 Mar 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/topics/customers/ai-scream-google-cloud-ai/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_image_CyberAgent_horizontal.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>サイバーエージェント: 広告クリエイティブ制作を効率化する「AI SCREAM」において、 Google Cloud の画像生成 AI モデルが活躍</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/hero_image_CyberAgent_horizontal.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/topics/customers/ai-scream-google-cloud-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>マルチクラスタ GKE Inference Gateway のご紹介: 世界中で AI ワークロードをスケール</title><link>https://cloud.google.com/blog/ja/products/containers-kubernetes/multi-cluster-gke-inference-gateway-helps-scale-ai-workloads/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 18 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/multi-cluster-gke-inference-gateway-helps-scale-ai-workloads?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI の世界は急速に変化しており、モデルのサービングを大規模かつ確実に行う必要性も高まっています。このたび、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;マルチクラスタ GKE Inference Gateway&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; のプレビュー版がリリースされましたのでお知らせいたします。これにより、複数の Google Kubernetes Engine（GKE）クラスタにわたり（異なる Google Cloud リージョンにまたがる場合も含め）、AI / ML 推論ワークロードのスケーラビリティ、復元力、効率性を強化できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/gateway-api?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GKE Gateway API&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の拡張機能として構築されたマルチクラスタ Inference Gateway は、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/multi-cluster-gateways?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;マルチクラスタ Gateway&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; の機能を活用して、特に要求の厳しい AI アプリケーション向けに、モデル対応のインテリジェントなロード バランシングを提供します。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_gRilinA.max-1000x1000.jpg"
        
          alt="1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI 推論にマルチクラスタを使用する理由&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI モデルの複雑性が増し、ユーザーのグローバル化が進むにつれて、単一クラスタのデプロイでは次のような課題に直面する可能性があります。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;可用性のリスク:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; リージョンの停止やクラスタのメンテナンスがサービスに影響を及ぼす可能性があります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;スケーラビリティの上限:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 単一のクラスタまたはリージョン内で、ハードウェアの上限（GPU / TPU）に達してしまいます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;リソースのサイロ化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; あるクラスタで十分に活用されていないアクセラレータ容量を別のクラスタで使用できません。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;レイテンシ:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; サービスを提供しているクラスタから離れているユーザーはレイテンシが高くなる可能性があります。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;マルチクラスタ GKE Inference Gateway は、これらの課題に正面から取り組み、次のようなさまざまな機能とメリットを提供します。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;信頼性とフォールト トレランスの強化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 異なるリージョン間を含め、複数の GKE クラスタにわたってトラフィックをインテリジェントにルーティングします。1 つのクラスタまたはリージョンで問題が発生した場合、トラフィックは自動的に再ルーティングされ、ダウンタイムが最小限に抑えられます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;スケーラビリティの向上とリソース使用量の最適化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; さまざまなクラスタから GPU / TPU リソースをプールして活用できます。単一クラスタの容量を超えてバーストすることで需要の急増に対応し、利用可能なアクセラレータをフリート全体で効率的に活用できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;グローバルに最適化されたモデル対応のルーティング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; Inference Gateway は、高度なシグナルを使用してスマートなルーティング判断を下すことができます。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;GCPBackendPolicy&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; を使用して、リアルタイムのカスタム指標（モデルサーバーの KV キャッシュ使用率指標など）に基づいてロード バランシングを構成できるので、最適なバックエンド インスタンスにリクエストが送信されるようになります。処理中リクエストの制限など、他のモードもサポートされています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;運用の簡素化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; モデルを複数の「ターゲット クラスタ」で実行しながら、専用の GKE「構成クラスタ」で 1 つの Inference Gateway 構成を使用して、グローバルに分散された AI サービスへのトラフィックを管理できます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;仕組み&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Inference Gateway には、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;InferencePool&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; と &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;InferenceObjective&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; という 2 つの基本リソースがあります。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;InferencePool&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; は、同じコンピューティング ハードウェア（GPU や TPU など）とモデル構成を共有する Pod のリソース グループとして機能し、スケーラブルで高可用性のサービングを実現します。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;InferenceObjective&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; は、特定のモデル名を定義し、サービングの優先順位を割り当てます。これにより、Inference Gateway はトラフィックをインテリジェントにルーティングし、レイテンシの影響を受けやすいタスクと緊急性の低いワークロードを多重化できます。&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_ek1kPQE.max-1000x1000.png"
        
          alt="2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このリリースでは、Kubernetes カスタム リソースを使用して、分散推論サービスが管理されます。各「ターゲット クラスタ」の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;InferencePool&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リソースは、モデルサーバーのバックエンドをグループ化します。これらのバックエンドはエクスポートされ、「構成クラスタ」で &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;GCPInferencePoolImport&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リソースとして表示されます。構成クラスタ内の標準の &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;Gateway&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リソースと &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;HTTPRoute&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リソースは、エントリ ポイントとルーティング ルールを定義し、トラフィックをこれらのインポートされたプールに転送します。&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;CUSTOM_METRICS&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; や &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;IN_FLIGHT&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リクエストの使用など、きめ細かいロード バランシングの動作は、&lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;GCPInferencePoolImport&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; にアタッチされた &lt;/span&gt;&lt;code style="vertical-align: baseline;"&gt;GCPBackendPolicy&lt;/code&gt;&lt;span style="vertical-align: baseline;"&gt; リソースを使用して構成されます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このアーキテクチャにより、グローバルな低レイテンシのサービング、障害復旧、容量のバースト、異種ハードウェアの効率的な使用などのユースケースが可能になります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GKE Inference Gateway のコアコンセプトについて詳しくは、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway#understand_key_concepts"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;ガイド&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;使ってみる&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI 推論サービング ワークロードをより多くの場所とより多くのユーザーにスケールする際に、マルチクラスタ GKE Inference Gateway をぜひお試しください。詳細と利用方法については、次のドキュメントをご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/about-multi-cluster-inference-gateway"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;マルチクラスタ GKE Inference Gateway について&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/setup-multicluster-inference-gateway"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;マルチクラスタ GKE Inference Gateway を設定する&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/customize-backend-multicluster-inference-gateway"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;GCPBackendPolicy でバックエンド構成をカスタマイズする&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニア プロダクト マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Arman Rye&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;- &lt;/strong&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;シニアスタッフ ソフトウェア エンジニア、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Andres Guedez&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 25 Mar 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/containers-kubernetes/multi-cluster-gke-inference-gateway-helps-scale-ai-workloads/</guid><category>AI &amp; Machine Learning</category><category>GKE</category><category>Networking</category><category>Developers &amp; Practitioners</category><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>マルチクラスタ GKE Inference Gateway のご紹介: 世界中で AI ワークロードをスケール</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/containers-kubernetes/multi-cluster-gke-inference-gateway-helps-scale-ai-workloads/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Arman Rye</name><title>Senior Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Andres Guedez</name><title>Senior Staff Software Engineer</title><department></department><company></company></author></item><item><title>Anatom-AI：自然言語で 3D 人体解剖アトラスを操作する、医師チームの挑戦</title><link>https://cloud.google.com/blog/ja/products/ai-machine-learning/a-team-of-doctors-using-natural-language-to-navigate-a-3d-human-anatomy-atlas/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="cd1kx"&gt;Zenn 主催、Google Cloud 協賛で開催した「第 4 回 Agentic AI Hackathon with Google Cloud 」では、全 880 エントリー・200 超のプロジェクトが集まりました。その中で最優秀賞に輝いたのが、現役医師 4 名のチームが開発した &lt;b&gt;Anatom-AI&lt;/b&gt; です。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="2fddf"&gt;&lt;b&gt;医療現場から生まれた課題意識&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="bnaqh"&gt;医学生の 71% が解剖学に苦手意識を持つと言われています。従来の教科書は 2D のイラストが中心で、臓器の立体的な位置関係を把握しにくいという課題がありました。3D アプリも登場していますが、目的の臓器にたどり着くまでに何十回ものクリック操作が必要で、初学者にとってハードルの高いものでした。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image4_MnulbIC.max-1000x1000.png"
        
          alt="image4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="2fddf"&gt;&lt;b&gt;AI エージェントが解剖学の「使いにくさ」を解消&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="c30jl"&gt;Anatom-AI は、Google Cloud の Vertex AI（Gemini）を活用した AI エージェントと、2,000 パーツ以上の 3D モデルを組み合わせた解剖アトラスです。バックエンドは Cloud Run 上にデプロイされており、スケーラブルかつ低コストな運用を実現しています。チャット欄に「膵臓の位置を教えて」と入力するだけで、AI が必要な臓器を自動で判断し、周囲を透明化して 3D で表示します。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_gzrl5gN.max-1000x1000.png"
        
          alt="image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2fddf"&gt;注目すべきは、単なる解剖学習にとどまらない点です。「脳梗塞で詰まる血管の影響範囲を見せて」といった病態の可視化にも対応しており、チームによれば救急現場での迅速な確認や患者への説明ツールとしての活用も見据えているとのことです。&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_yTj2crc.max-1000x1000.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph_advanced"&gt;&lt;h3&gt;&lt;strong style="vertical-align: baseline;"&gt;拡張性のあるアーキテクチャと今後の展望&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;AI エージェントと 3D モデルを分離した設計により、3D パーツを自由に拡張できる点も高く評価されました。チームによると、今後は患者の CT 画像から個別の 3D モデルを再構成し、手術前シミュレーションに活用できる「患者個別アトラス」への発展を構想しているとのことです。また、脳梗塞や胆嚢疾患などの典型的な病態テンプレートを充実させることで、教材としての有用性をさらに高めていく予定だと語っていました。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;現役医師ならではのリアルな課題意識と、AI エージェントの可能性を最大限に引き出した技術力。まさに Agentic AI が医療の未来を変えていく好例と言えるプロジェクトでした。&lt;/span&gt;&lt;/p&gt;
&lt;hr/&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://www.youtube.com/watch?v=guB-4Fzxfj0&amp;amp;t=13337s" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;発表の様子（YouTube 3:42:17〜）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://zenn.dev/jcs300/articles/5511ded660f522" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;プロジェクト詳細（Zenn）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://cloudonair.withgoogle.com/events/agentic-ai-summit-26-spring" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agentic AI Summit '26 Spring（イベントページ）&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;a href="https://zenn.dev/hackathons/google-cloud-japan-ai-hackathon-vol4" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Zenn 主催 第 4  回 &lt;/span&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Agentic AI Hackathon with Google Cloud&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Wed, 25 Mar 2026 02:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/ai-machine-learning/a-team-of-doctors-using-natural-language-to-navigate-a-3d-human-anatomy-atlas/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_gJU4dRl.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Anatom-AI：自然言語で 3D 人体解剖アトラスを操作する、医師チームの挑戦</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/image3_gJU4dRl.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/ai-machine-learning/a-team-of-doctors-using-natural-language-to-navigate-a-3d-human-anatomy-atlas/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Japan Team </name><title></title><department></department><company></company></author></item><item><title>Google Cloud と NVIDIA が GTC 2026 で業界全体に AI イノベーションを拡大</title><link>https://cloud.google.com/blog/ja/products/compute/google-cloud-ai-infrastructure-at-nvidia-gtc-2026/</link><description>&lt;div class="block-paragraph_advanced"&gt;&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;※この投稿は米国時間 2026 年 3 月 17 日に、Google Cloud blog に&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/products/compute/google-cloud-ai-infrastructure-at-nvidia-gtc-2026?hl=en"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;投稿&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;されたものの抄訳です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エージェント型 AI の時代により、企業インフラストラクチャのニーズは根本的に変化しています。組織が動的な推論と自律的な実行が可能なシステムを構築するにつれて、基盤となるインフラストラクチャも進化する必要があります。これらのエージェント ワークロードを大規模な混合エキスパート（MoE）アーキテクチャとともにスケールするには、細部まで最適化された共同設計のスタックが必要です。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;こうした需要に応えるため、Google は AI に最適化された Infrastructure as a Service である Google Cloud AI Hypercomputer を構築しました。これは、パフォーマンスが最適化されたハードウェア、最先端のソフトウェア、オープン フレームワーク、柔軟な使用量モデルを包括的な単一システムに統合したものであり、超低レイテンシ、高スループット、費用対効果の高い推論を実現します。この統合アーキテクチャ内でお客様にさらに多くのオプションを提供するために、Google は NVIDIA とのパートナーシップを拡大しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;今週開催される NVIDIA GTC 2026 で、Google Cloud と NVIDIA はパートナーシップを拡大し、共同設計した AI インフラストラクチャ基盤を紹介する一連の新しい発表を行います。&lt;/span&gt;&lt;/p&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;インフラストラクチャとハードウェア&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;ul&gt;
&lt;ul&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA RTX Pro&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;™&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt; 6000 Blackwell Server Edition を搭載した Google Cloud G4 VM の勢い&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA vGPU テクノロジーを使用した、柔軟な分割式 G4 VM のプレビュー版 - NVIDIA RTX Pro&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;™&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt; 6000 Blackwell Server Edition では業界初&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA Vera Rubin NVL72 プラットフォームのサポート予定&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/ul&gt;
&lt;/ul&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;ソフトウェアとプラットフォーム&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;ul&gt;
&lt;ul&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA Dynamo と GKE Inference Gateway のインテグレーション&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;Vertex AI Training と Model Garden 全体で NVIDIA のサポートを強化&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/ul&gt;
&lt;/ul&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;エコシステム&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;ul&gt;
&lt;li aria-level="2" style="list-style-type: circle; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;span style="vertical-align: baseline;"&gt;公共部門向け AI スタートアップ アクセラレータ プログラムの開始&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;発表内容を詳しく見ていきましょう。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;G4 VM で AI ワークロードを高速化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA RTX Pro 6000 Blackwell Server エディション GPU を搭載した G4 VM は、高度な空間コンピューティングから完全な AI 開発ライフサイクルまで、さまざまな高パフォーマンス ワークロードを強化するために構築されています。たとえば、Otto Group One.O や WPP などの企業は、G4 を使用して物理的に正確なシミュレーションやリアルタイムの 3D レンダリングを大規模に実行しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;シミュレーション以外にも、G4 はモデルのファインチューニングと推論で優れた性能を発揮し、特に 300 億から 1,000 億以上のパラメータを持つモデルに適しています。4 ビット浮動小数点（FP4）精度と Google のピアツーピア（P2P）通信を活用することで、お客様は&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/compute/g4-vms-p2p-fabric-boosts-multi-gpu-workloads?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;モデル提供のスループットの向上とレイテンシの大幅な削減&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を実現し、リアルタイムのマルチモーダル AI エージェントや応答性の高い生成 AI アプリケーションという新しいクラスを可能にしています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;お客様がすでに G4 VM のパフォーマンスと効率性を活用して、最も要求の厳しいワークロードを高速化させている例をいくつかご紹介します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「Google Cloud の G4 VM は、膨大な量のフォトリアルなシミュレーションをパイプラインで処理するために必要とされる、スケーラブルな GPU バックボーンを提供してくれます。スループットが 4 倍に向上したことで、ML チームはより迅速にイテレーションを行い、より豊富なデータでトレーニングし、モデルが実環境に導入されるよりかなり前にエッジケースを検証できるようになりました。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;– General Motors、AI / ML エンジニアリング担当ディレクター、Sony Mohapatra 氏&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;「&lt;/span&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;NVIDIA Blackwell を搭載した G4 VM を使用することで、マルチモーダル モデルをさらに進化させられるようになりました。推論の高速化、信頼性の向上、言語を問わない即時応答などです。目標は変わりません。企業規模で機能する音声エージェントを、妥協せずに作成することです。今後も共同で開発を続け、お客様がこのツールをどのように活用されるかを楽しみにしています。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;– ElevenLabs、共同創業者、Mati Staniszewski 氏&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「Google Cloud G4 VM は、当社のロボット連携レイヤの計算バックボーンを提供し、物流センター全体で自律型フリートをミリ秒単位の精度で同期できるようにします。忠実度の高いデジタルツインで複雑な倉庫環境をシミュレートすることで、サプライ チェーン全体を仮想的に最適化してから、ロボットに床を移動させることができます。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt; - Otto Group One.O、CEO、Stefan Borsutzky 博士&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「G4 VM に移行したところ、Terraform スクリプトを更新するだけで、処理レイテンシが 50% 削減され、スループットが 6 倍に向上しました。運用オーバーヘッドを追加することなく、コア ワークロードのパフォーマンスをこれほど向上させることはめったにありません。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;– Imgix、エンジニアリング責任者、Alfonso Acosta 氏&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;分割式 G4 VM の導入&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;このたび、AI およびグラフィック ワークロード向けの非常に効率的で費用対効果の高いエントリー ポイントとなる、分割式 G4 VM のプレビュー版がリリースされました。NVIDIA 仮想 GPU（vGPU）テクノロジーを使用したこれらの新しい構成により、NVIDIA RTX PRO 6000 Blackwell Server エディション GPU のパワーを柔軟かつ小規模な単位で活用できるため、アプリケーションの特定の需要に合わせてインフラストラクチャを適切なサイズに調整できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「企業は、複雑なエージェント型 AI ワークロードをスケールするために、前例のないほどの柔軟性を必要としています。NVIDIA は Google Cloud とともに、NVIDIA RTX PRO 6000 を搭載した分割式 G4 VM を導入し、お客様が GPU 容量のサイズを適正化して ROI を最大化できるようにしました。Vertex AI 上の NVIDIA NeMo から GKE の NVIDIA Dynamo まで、共同設計されたスタックにより、次世代の推論モデルと MoE モデル向けのオープンで高性能なプラットフォームを提供します。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;- NVIDIA、ハイパースケール / HPC 担当バイス プレジデント兼ゼネラル マネージャー、Ian Buck 氏&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;高度なハードウェアへのアクセスをより細かく制御できるため、分割式 G4 VM はパフォーマンスを犠牲にすることなく、リソース割り当てを最適化してオーバーヘッドを削減できます。特定のニーズに合わせて、追加の GPU スライスサイズから選択できるようになりました。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;1/2 GPU:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; LLM 推論、ロボット センサー シミュレーション、高忠実度 3D レンダリングなど、より負荷の高いタスクに最適です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;1/4 GPU:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 中程度のクリエイティブ デザイン、動画のコード変換、リアルタイムのデータ可視化など、主流のワークロード向けに最適化されています。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;1/8 GPU:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; リモート デスクトップ、生産性向上ツール、エントリーレベルのストリーミング サービスなどの軽量アプリケーションに最適です。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの柔軟な G4 サイズ ポートフォリオにより、次のことが可能です。&lt;/span&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;インフラストラクチャの適切なサイジング:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 軽量なリモート デスクトップから集中的なデータ処理まで、GPU 容量をアプリケーションの需要に正確に一致させます。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;費用効率を最大化:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 特定のタスクに必要な分割 GPU リソースのみを利用して料金を支払うことで、運用オーバーヘッドを削減します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li aria-level="1" style="list-style-type: disc; vertical-align: baseline;"&gt;
&lt;p role="presentation"&gt;&lt;strong style="vertical-align: baseline;"&gt;多様なワークロードをスケール:&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; 高忠実度のクリエイティブ デザインやストリーミングから、複雑なロボット シミュレーションやリアルタイム推論まで、幅広いイノベーションを推進します。&lt;/span&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;これらの部分的な G4 VM は Google Kubernetes Engine（GKE）で管理できるため、開発者は高度なコンテナ ビンパッキングを使用して、さらに高い費用対効果とリソース使用率を実現できます。Dynamic Workload Scheduler を使用して管理する場合、分割スライスにフォールバックの優先順位を設定できます。これにより、スケジューラが各ワークロードで利用可能な GPU 構成を自動的に検出できるようになるため、取得可能性が大幅に向上します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「G4 vGPU の柔軟なサイズ設定により、各分子シミュレーションの規模に合わせてコンピューティング リソースを正確に調整できるため、創薬パイプライン全体で最大限の効率を確保できます。このきめ細かい制御により、研究者は固定されたハードウェア構成に制約されることなく、小規模なワークフローと大規模な並列処理の間をシームレスに切り替えられます。」&lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;– Schrödinger、EVP、CIO、Shane Brauner 氏&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;NVIDIA Vera Rubin NVL72 で AI Hypercomputer をスケーリング&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;NVIDIA との緊密なエンジニアリング パートナーシップを基盤として、Google は NVIDIA Blackwell アーキテクチャの後継である、先日発表された NVIDIA Vera Rubin プラットフォームをサポートできることを誇りに思います。Google は 2026 年下半期に NVIDIA Vera Rubin NVL72 ラック規模システムをいち早く提供するクラウド プロバイダとなる予定です。このシステムを Google の AI Hypercomputer アーキテクチャに統合し、次世代の推論 AI とエージェント型 AI を強化します。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;AI インフラストラクチャ スタック全体で効率性を実現&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google は、完全にオープンなエコシステムへの取り組みの一環として、Dynamo と GKE &lt;/span&gt;&lt;a href="https://docs.cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway?hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Inference Gateway&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; のインテグレーションを発表いたしました。これにより、アプリケーション レイヤとハードウェア全体にわたってモジュール式のオープンソース コントロール プレーンが提供されます。Dynamo と GKE の Inference Gateway を組み合わせることで、チームはインフラストラクチャを正確なニーズに合わせて調整し、アクセラレータから最大限の費用対効果を引き出し、新しい AI モデルの市場投入までの時間を短縮し、デプロイを将来にわたって保証できます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;A4X VM（NVIDIA GB200 NVL72 と Dynamo を搭載）向けの新しい&lt;/span&gt;&lt;a href="https://cloud.google.com/blog/ja/products/compute/scaling-moe-inference-with-nvidia-dynamo-on-google-cloud-a4x?e=48754805&amp;amp;hl=ja"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;高度なスケーリング レシピ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;を通じて、大規模な MoE アーキテクチャのパフォーマンスを最大化する方法を学ぶことができます。これらの構成は、AI Hypercomputer で AI 推論ワークロードを実行する際に、メモリとインターコネクトのボトルネックを克服する方法を示しています。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;また、Dynamic Workload Scheduler を通じてリソースの取得可能性を高めています。A4X および A4X Max（NVIDIA GB300 NVL72 搭載）の Calendar モードと Flex Start、および G4 VM の新しい Flex Start サポートが提供されます。Dynamic Workload Scheduler を使用すると、必要な容量を正確に予約したり、柔軟な開始ウィンドウを使用したりできます。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google Cloud の長年の顧客である Snap は、主要なデータ処理パイプライン 2 つを NVIDIA L4 Tensor コア GPU を搭載した Google Cloud G2 VM に移行することで、大幅な費用削減を実現しました。これは、GKE 上の Spark と NVIDIA の新しい cuDF ライブラリを活用することで実現しました。cuDF ライブラリは、シャッフルを多用するワークロードの最適化を自動化し、GPU の効率を最大限に高めます。&lt;/span&gt;&lt;a href="https://www.nvidia.com/gtc/session-catalog/sessions/gtc26-s81678/" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;詳しくは、GTC セッション S81678 をご覧ください。&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;Vertex AI のトレーニングと Model Garden の進化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;Google は、&lt;/span&gt;&lt;a href="https://docs.cloud.google.com/vertex-ai/docs/training/training-clusters/overview"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;Vertex AI トレーニング クラスタ&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;の 2 つの主要なインフラストラクチャの進歩により、次世代 AI の需要に対応しています。まず、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;A4X VM ドメイン&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt;のサポートにより、Vertex AI のマネージド インフラストラクチャとフレームワーク機能を活用して、&lt;/span&gt;&lt;strong style="vertical-align: baseline;"&gt;NVIDIA GB200 NVL72&lt;/strong&gt;&lt;span style="vertical-align: baseline;"&gt; ラック スケール システムで大規模なトレーニングを行うことができます。これらの集中的なワークロードが中断されないようにするため、新しいハードウェアの復元機能により、構成可能な事前対応型の障害検出スキャンを適用できます。これにより、潜在的なハードウェアの問題を特定して軽減し、重要な「ヒーロー」トレーニングの実行が中断されるのを防ぎます。これらの機能により、グッドプットが向上し、数週間にわたるトレーニング ジョブが費用のかかる再起動なしで順調に進むようになります。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;「私たちは Google および NVIDIA とともに、高性能で一貫性があり、正確で応答性の高い AI エージェントを提供するという、エージェント型エンタープライズの新たな基準を打ち立てています。NVIDIA GB200 NVL72 上の Vertex AI トレーニング クラスタを活用して Agentforce 360 プラットフォームを強化することで、インフラストラクチャのボトルネックを解消し、GPU を完全に飽和状態に保つことができました。この高パフォーマンスで復元力のあるアーキテクチャにより、研究者は大規模なイノベーションに集中でき、最も複雑な推論ワークロードで大きな成果を上げています。」- &lt;/span&gt;&lt;span style="vertical-align: baseline;"&gt;Salesforce、最高科学責任者、Silvio Savarese 氏&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;同時に、&lt;/span&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/nvidia/model-garden/nemotron-3-super"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;NVIDIA の Nemotron 3&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; ファミリーのオープンモデルのサポートにより、Vertex AI Model Garden の範囲を拡大し続けています。たとえば、Nemotron 3 Nano はワンクリックでデプロイできるため、プライベート VPC への統合が簡単です。また、カタログを拡大し、NVIDIA Nemotron 3 Super 120B モデルを追加しました。これにより、高性能な大規模推論にすぐにアクセスできます。これらのモデルの価値を最大限に高めるため、Google は NVIDIA の最新のパフォーマンス ライブラリを Vertex AI に直接統合し、NVIDIA TensorRT-LLM で一般的なオープンソース モデルを最適化しました。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;公共部門向けの AI スタートアップを支援&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;エコシステム内の継続的なイノベーションを促進するため、Google Public Sector と NVIDIA は AI スタートアップ アクセラレータ プログラムを開始します。この 1 年間のイニシアチブでは、公共部門向けのソリューションを構築する、AI に重点を置いた独立系ソフトウェア ベンダー（ISV）の選抜されたコホートをサポートします。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;参加者は、NVIDIA Inception と Google Cloud の ISV アクセラレータ リソースの両方にアクセスできます。GTC で開始され、Google Cloud Next まで続くこの共同プログラムでは、ミッション クリティカルな公共部門アプリケーションをスケールするために必要な、共同設計されたインフラストラクチャ、技術ガイダンス、市場開拓サポートを、新興テクノロジーのリーダーに提供します。プログラムについて詳しくは、&lt;/span&gt;&lt;a href="https://docs.google.com/forms/d/e/1FAIpQLSci71lEfkHJKb9wVN2UmXVGaOk3DeB84mW5dve8ulo9kl60pg/viewform" rel="noopener" target="_blank"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;お問い合わせフォーム&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt;にご記入ください。今後、他のコホートも選出され、発表される予定です。&lt;/span&gt;&lt;/p&gt;
&lt;h4&gt;&lt;strong style="vertical-align: baseline;"&gt;共同エンジニアリングのコラボレーションが AI スタックのあらゆるレイヤを強化&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;複雑なエージェント型 AI への移行には、単なるコンピューティング能力以上のものが求められます。完全に最適化された共同設計のスタックが必要です。Google は、分割式 G4 インスタンスや今後リリースされる Vera Rubin プラットフォームなどの柔軟なハードウェアを AI Hypercomputer アーキテクチャに統合し、ソフトウェアの緊密な共同エンジニアリングと組み合わせることで、最も野心的な AI ビジョンを現実に変えるために必要なスケール、レジリエンス、効率性を実現します。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;span style="vertical-align: baseline;"&gt;GTC に参加されますか？ブース番号 513 にぜひお立ち寄りください。詳細をご覧いただき、Google のチームと直接お話いただけます。Google と NVIDIA のコラボレーションの詳細については、&lt;/span&gt;&lt;a href="http://cloud.google.com/NVIDIA"&gt;&lt;span style="text-decoration: underline; vertical-align: baseline;"&gt;cloud.google.com/NVIDIA&lt;/span&gt;&lt;/a&gt;&lt;span style="vertical-align: baseline;"&gt; をご覧ください。&lt;/span&gt;&lt;/p&gt;
&lt;p&gt; &lt;/p&gt;
&lt;p&gt;&lt;span style="font-style: italic; vertical-align: baseline;"&gt;-AI およびコンピューティング インフラストラクチャ担当バイス プレジデント兼ゼネラル マネージャー、&lt;/span&gt;&lt;strong style="font-style: italic; vertical-align: baseline;"&gt;Mark Lohmeyer&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 24 Mar 2026 03:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/ja/products/compute/google-cloud-ai-infrastructure-at-nvidia-gtc-2026/</guid><category>AI &amp; Machine Learning</category><category>Partners</category><category>Compute</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_NVIDIA_Hero_Image_for_GTC26_Blo.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google Cloud と NVIDIA が GTC 2026 で業界全体に AI イノベーションを拡大</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_NVIDIA_Hero_Image_for_GTC26_Blo.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/ja/products/compute/google-cloud-ai-infrastructure-at-nvidia-gtc-2026/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Mark Lohmeyer</name><title>VP and GM, AI and Computing Infrastructure</title><department></department><company></company></author></item></channel></rss>