<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Outils de gestion</title><link>https://cloud.google.com/blog/fr/products/outils-de-gestion/</link><description>Outils de gestion</description><atom:link href="https://cloudblog.withgoogle.com/blog/fr/products/outils-de-gestion/rss/" rel="self"></atom:link><language>fr</language><lastBuildDate>Thu, 05 Feb 2026 13:31:40 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/fr/products/outils-de-gestion/static/blog/images/google.a51985becaa6.png</url><title>Outils de gestion</title><link>https://cloud.google.com/blog/fr/products/outils-de-gestion/</link></image><item><title>Concevoir un programme de Cyber Threat Intelligence (CTI) véritablement efficace</title><link>https://cloud.google.com/blog/fr/products/securite/concevoir-un-programme-de-cyber-threat-intelligence-cti-veritablement-efficace/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="75v88"&gt;Les cybermenaces évoluent en permanence et mettent les organisations sous pression constante. La Cyber Threat Intelligence (CTI) peut les aider à anticiper les attaques et à renforcer leur défense, mais beaucoup peinent encore à en faire un levier réellement opérationnel et à en tirer des mesures de sécurité directement actionnables.&lt;/p&gt;&lt;p data-block-key="8ib8v"&gt;La CTI convertit des données brutes en informations utiles à la décision. Elle permet de passer d’une posture de défense essentiellement réactive à une approche proactive : anticiper les modes d’attaque, comprendre les intentions des adversaires et ajuster les mécanismes de protection en fonction des menaces qui visent spécifiquement son entreprise.&lt;/p&gt;&lt;p data-block-key="7h9cq"&gt;Une large majorité des responsables sécurité et IT redoutent que des attaques passent entre les mailles du filet : &lt;a href="https://cloud.google.com/security/resources/security-forrester-harness-ai-transform-threat-intelligence?utm_source=cgc-blog&amp;amp;utm_medium=blog&amp;amp;utm_campaign=FY25-Q3-GLOBAL-ENT35910-website-dl-dgcsm-CTI-Study-80198&amp;amp;utm_content=-&amp;amp;utm_term=-"&gt;selon une étude Forrester pour le compte de Google Cloud, publiée en juillet&lt;/a&gt;, 82 % estiment que leur organisation pourrait rater des cyberattaques. De la même manière, 72 % déclarent rester sur une posture encore largement réactive face aux menaces cyber.&lt;/p&gt;&lt;p data-block-key="cjl6g"&gt;Un programme de CTI bien structuré permet de valoriser les informations collectées et de produire une lecture vraiment exploitable du contexte de cybersécurité. Les organisations peuvent ainsi repérer plus tôt les signaux faibles, comprendre la nature des risques et intervenir avant qu’ils ne causent des dommages significatifs.&lt;/p&gt;&lt;p data-block-key="agl81"&gt;La CTI contribue à renforcer les opérations de sécurité de manière proactive : détection avancée, amélioration des contrôles de sécurité, threat hunting. Elle permet aussi d’optimiser la réaction aux incidents en accélérant la prise de décision, en limitant l’impact financier des attaques et en renforçant la résilience opérationnelle.&lt;/p&gt;&lt;p data-block-key="19abq"&gt;Si l’IA et l’automatisation jouent désormais un rôle essentiel pour renforcer les capacités de détection et d’analyse, elles ne constituent qu’une partie de la réponse. Leur efficacité dépend étroitement des équipes qui les utilisent et des processus qui les encadrent.&lt;/p&gt;&lt;p data-block-key="ejdeu"&gt;Comme pour toute initiative stratégique, la réussite d’un programme de CTI repose sur l’articulation cohérente de trois piliers fondamentaux : les personnes, les processus et la technologie.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph_with_image"&gt;&lt;div class="article-module h-c-page"&gt;
  &lt;div class="h-c-grid uni-paragraph-wrap"&gt;
    &lt;div class="uni-paragraph
      h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
      h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3"&gt;

      






  

    &lt;figure class="article-image--wrap-small
      
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Mandiant-GCS_People_Process_Technoogy_Simp.max-1000x1000.png"
        
          alt="Mandiant-GCS_People, Process, Technoogy Simple-Final@3x"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  





      &lt;h3 data-block-key="lztzg"&gt;Les trois piliers d’un programme CTI efficace&lt;/h3&gt;&lt;ol&gt;&lt;li data-block-key="7hb31"&gt;&lt;b&gt;Le facteur humain&lt;/b&gt;&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="8uli7"&gt;Des équipes compétentes et dédiées sont essentielles à la réussite d’un programme de CTI. Les analystes, chercheurs et spécialistes de la communication maîtrisent les modes opératoires des attaquants, leurs motivations, ainsi que les risques propres à leur organisation. Ils disposent aussi des compétences métier nécessaires pour transformer la CTI en actions concrètes et l’adapter au contexte de l’organisation.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="3apuj"&gt;&lt;b&gt;Expertise &lt;/b&gt;: la CTI mobilise &lt;a href="https://services.google.com/fh/files/misc/cti-analyst-core-competencies-framework-v1.pdf"&gt;un ensemble de compétences variées&lt;/a&gt; à commencer par le sens de l’analyse et de l’investigation, la compréhension des enjeux métier, la maîtrise des fondamentaux techniques et la connaissance approfondie des menaces.&lt;/li&gt;&lt;li data-block-key="2su0i"&gt;&lt;b&gt;Collaboration :&lt;/b&gt; les équipes CTI efficaces s’appuient sur une collaboration étroite interne avec les autres fonctions de sécurité (réponse à incident, opérations de sécurité, gestion des risques) mais aussi extérieure avec leurs homologues du secteur et les communautés de partage d’informations.&lt;/li&gt;&lt;li data-block-key="3620c"&gt;&lt;b&gt;Communication :&lt;/b&gt; facteur clé de la CTI, la capacité à rendre l’information complexe intelligible permet de transformer des éléments techniques en analyses claires et utiles, adaptées aussi bien aux équipes sécurité qu’aux dirigeants.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cmv7d"&gt;Sans professionnels expérimentés pour analyser les besoins, interpréter les données et ajuster les automatisations, même les technologies les plus avancées ou les processus les plus élaborés restent largement inefficaces.&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="fd930"&gt;&lt;b&gt;Le cadre opérationnel&lt;/b&gt;&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="9sj33"&gt;Pour fonctionner de manière efficace et cohérente, le programme CTI a besoin de processus robustes qui définissent comment l’information est collectée, analysée, enrichie, diffusée et utilisée.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="fb0q"&gt;&lt;b&gt;Définition de la mission CTI &lt;/b&gt;: la direction générale doit sponsoriser et énoncer sans ambiguité la mission assignée au projet CTI en cadrant son rôle, ses pouvoirs d’action et les directions métiers qu’elle doit servir en priorité.&lt;/li&gt;&lt;li data-block-key="bc8rj"&gt;&lt;b&gt;Cycle de la CTI :&lt;/b&gt; définir un cycle de renseignement clair - planification, collecte, traitement, analyse, diffusion - est indispensable pour structurer la CTI et en faire une activité répétable, maîtrisée et utile aux décisions.&lt;/li&gt;&lt;li data-block-key="eme0g"&gt;&lt;b&gt;Automatisation des workflows &lt;/b&gt;: les processus doivent intégrer l’automatisation chaque fois que c’est possible, afin d’éviter les tâches manuelles répétitives et permettre aux analystes CTI de se consacrer à l’analyse approfondie et la production d’information à forte valeur ajoutée.&lt;/li&gt;&lt;li data-block-key="6ffs7"&gt;&lt;b&gt;Boucles de rétroaction &lt;/b&gt;: des retours d’expérience réguliers sont essentiels pour affiner les priorités CTI, optimiser la collecte d’information et renforcer la qualité des analyses produites.&lt;/li&gt;&lt;li data-block-key="dkhj5"&gt;&lt;b&gt;Intégration :&lt;/b&gt; les processus CTI doivent s’articuler sans couture avec les autres fonctions de sécurité, pour nourrir directement les playbooks de réponse aux incidents, orienter la gestion des vulnérabilités et renforcer les programmes de sensibilisation à la sécurité.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3edpt"&gt;De la même manière qu’une usine a besoin d’une chaîne de production bien définie, un programme CTI doit s’appuyer sur des processus structurés pour produire de la valeur de façon constante.&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="eek0r"&gt;&lt;b&gt;Les outils au service de la CTI&lt;/b&gt;&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="dphu8"&gt;La technologie joue un rôle déterminant : elle soutient les équipes et les processus qui font vivre un programme CTI. De nombreuses solutions existent pour collecter, stocker, analyser et diffuser les informations liées aux menaces.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="d5skf"&gt;&lt;b&gt;Threat Intelligence Platforms (TIP) &lt;/b&gt;: ces plateformes agrègent, normalisent et enrichissent les données de menace provenant de multiples sources, offrant ainsi un référentiel centralisé pour la CTI.&lt;/li&gt;&lt;li data-block-key="b60hp"&gt;&lt;b&gt;Intelligence artificielle (IA) &lt;/b&gt;: l’IA peut renforcer la détection des menaces, automatiser l’analyse de volumes importants de données, identifier des anomalies et anticiper de possibles vecteurs d’attaque. Elle complète ainsi les capacités humaines à chaque étape du cycle CTI, tout en réduisant la charge opérationnelle et en améliorant l’efficacité des analystes.&lt;/li&gt;&lt;li data-block-key="2s7gk"&gt;&lt;b&gt;SIEM (Security Information and Event Management) et SOAR (Security Orchestration, Automation, and Response)&lt;/b&gt; : les équipes CTI doivent pouvoir exploiter ces outils internes pour disposer d’un contexte précis et temps réel sur les menaces qui pèsent sur l’organisation.&lt;/li&gt;&lt;li data-block-key="fr2h4"&gt;&lt;b&gt;Outils OSINT (Open-source Intelligence)&lt;/b&gt; : ces outils permettent de collecter des données publiques (sites web, réseaux sociaux, bases de données publiques, etc.) pour les transformer en données exploitables afin de détecter des menaces émergentes et suivre l’évolution des techniques utilisées par les attaquants.&lt;/li&gt;&lt;li data-block-key="fufsj"&gt;&lt;b&gt;Outils d’analyse de malware :&lt;/b&gt; les experts CTI doivent disposer de solutions permettant l’analyse en sandbox de code malveillant.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="86uh6"&gt;La technologie n’est évidemment qu’un moyen, pas une fin en soi. Même les meilleurs outils ne servent à rien sans les bons profils et les bons processus pour en tirer parti. Sans ces derniers, les équipes CTI peineront à tirer un réel retour sur investissement de leurs outils et, par voie de conséquences, les dirigeants percevront un faible ROI de leurs équipes CTI.&lt;/p&gt;&lt;p data-block-key="fo8tq"&gt;L’équation gagnante d’une CTI efficace&lt;/p&gt;&lt;p data-block-key="2oi9o"&gt;Les programmes CTI efficaces s’appuient sur ces trois piliers fondamentaux. Les équipes utilisent la technologie au sein de processus clairement définis, ces derniers ayant été conçus et améliorés par les équipes, souvent avec l’appui d’outils technologiques adéquats et bien maîtrisés. La technologie permet d’exécuter ces processus plus rapidement et plus efficacement. Aucun de ces piliers ne prévaut sur les autres : la moindre faiblesse sur l’un des trois affecte la performance globale du programme.&lt;/p&gt;&lt;p data-block-key="c2v57"&gt;&lt;b&gt;« En investissant de manière cohérente dans leurs équipes, leurs processus et leurs technologies, les organisations peuvent bâtir un programme de CTI capable non seulement d’identifier les menaces, mais aussi de formuler des recommandations de sécurité réellement exploitables et d’ancrer une culture de sécurité proactive où les décisions sont prises sur la base d’informations fiables et contextualisées »&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="ehn2t"&gt;Ce principe va bien au-delà de la CTI : qu’il s’agisse de constituer une équipe commerciale, de développer un nouveau produit ou d’optimiser le service client, la combinaison de compétences adaptées, de processus structurés et d’outils pertinents demeure un facteur essentiel de réussite.&lt;/p&gt;&lt;p data-block-key="6jeq5"&gt;En investissant de manière cohérente dans leurs équipes, leurs processus et leurs technologies, les entreprises peuvent bâtir un programme CTI capable non seulement d’identifier les menaces, mais aussi de formuler des recommandations de sécurité exploitables tout en ancrant une culture de sécurité proactive, fondée sur des décisions éclairées. Un tel investissement, et le changement culturel qu’il implique, peut aider les organisations encore trop réactives à adopter une approche plus proactive.&lt;/p&gt;&lt;h3 data-block-key="ajck3"&gt;Par où commencer ?&lt;/h3&gt;&lt;p data-block-key="2hst5"&gt;La mise en place d’une fonction de sécurité est toujours un travail de longue haleine. Pour amorcer la mise en œuvre de votre CTI, vous pouvez suivre les quelques étapes suivantes :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="8t597"&gt;&lt;b&gt;Parlez à ceux que vous protégez&lt;/b&gt; : échangez régulièrement avec toutes les parties prenantes (à commencer par le SOC, les équipes de réponses aux incidents, les équipes de gestion des vulnérabilités, etc.) afin de comprendre leurs difficultés et leurs priorités.&lt;/li&gt;&lt;li data-block-key="1s6io"&gt;&lt;b&gt;Comprendre votre paysage de menaces :&lt;/b&gt; effectuez des recherches en ligne pour identifier les cyberattaques et les menaces auxquelles sont confrontées des organisations similaires à la vôtre.&lt;/li&gt;&lt;li data-block-key="4vbb2"&gt;&lt;b&gt;Se former à la CTI : i&lt;/b&gt;l existe de nombreuses ressources pour développer vos compétences en analyse CTI, notamment celles proposées par &lt;a href="https://attack.mitre.org/resources/learn-more-about-attack/training/cti/"&gt;MITRE&lt;/a&gt;. Aux États-Unis, vous pouvez aussi vous former gratuitement sur la plateforme &lt;a href="https://niccs.cisa.gov/training/cisa-learning"&gt;CISA Learning&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="4401n"&gt;&lt;b&gt;Constituer un groupe de travail &lt;/b&gt;: identifiez, au sein de votre organisation des personnes intéressées par la CTI. Partagez des ressources, échangez sur les menaces émergentes et créez une dynamique autour du sujet.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="4an68"&gt;Comment Mandiant peut vous aider&lt;/h3&gt;&lt;p data-block-key="dgeaf"&gt;Notre service de conseil Mandiant avec son &lt;a href="https://services.google.com/fh/files/misc/intelligence-capability-development-ds-en.pdf"&gt;Intelligence Program Development&lt;/a&gt;  (IPD) aide les organisations à développer des fonctionnalités CTI avancées. Nous analysons vos cas d’usage spécifiques et appliquons le cadre de référence éprouvé de Mandiant pour identifier les ressources humaines, les processus et les technologies nécessaires à une mise en œuvre opérationnelle et efficace de la CTI.&lt;/p&gt;&lt;p data-block-key="e4tcm"&gt;&lt;a href="https://cloud.google.com/learn/security/mandiant-academy-courses"&gt;Mandiant Academy&lt;/a&gt; propose des formations pour les professionnels de la sécurité, dont plusieurs centrées sur l’exploitation et l’application efficaces de la CTI sur les menaces afin de renforcer les défenses tactiques et la posture de sécurité globale. Ces formations vous aident à construire un programme CTI cohérent, dans lequel des équipes compétentes s’appuient sur les bonnes technologies et sur des processus clairement définis, afin d’aligner votre fonction CTI sur les risques et les objectifs propres à votre organisation.&lt;/p&gt;&lt;p data-block-key="djqo5"&gt;&lt;a href="https://cloud.google.com/security/products/threat-intelligence"&gt;Google Threat Intelligence&lt;/a&gt; s’appuie sur une IA avancée : notre solution peut ainsi offrir une visibilité exceptionnelle sur les menaces émergentes ou en cours, ce qui nous permet de fournir des renseignements détaillés et actualisés aux équipes de sécurité du monde entier. Elle combine l’expertise opérationnelle de Mandiant, la portée mondiale de la communauté VirusTotal et une visibilité en profondeur que seule l’infrastructure de Google peut offrir.&lt;/p&gt;&lt;p data-block-key="8qii4"&gt;Cette visibilité étendue sur les menaces les plus récentes permet aux équipes CTI d’adopter une approche plus proactive en comprenant les modes opératoires des attaquants, leurs tactiques, leurs techniques et leurs procédures mais aussi les indicateurs de compromission (IOC).&lt;/p&gt;&lt;p data-block-key="4d1co"&gt;Pour en savoir plus sur la manière dont nous pouvons vous aider à atteindre vos objectifs CTI, planifiez dès aujourd’hui &lt;a href="https://cloud.google.com/contact/security"&gt;une consultation gratuite avec Mandiant&lt;/a&gt;.&lt;/p&gt;
    &lt;/div&gt;
  &lt;/div&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Thu, 05 Feb 2026 16:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/securite/concevoir-un-programme-de-cyber-threat-intelligence-cti-veritablement-efficace/</guid><category>Security &amp; Identity</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-1280407804.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Concevoir un programme de Cyber Threat Intelligence (CTI) véritablement efficace</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-1280407804.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/securite/concevoir-un-programme-de-cyber-threat-intelligence-cti-veritablement-efficace/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>John Barth</name><title>Global Service Lead, Mandiant Intelligence Program Development</title><department></department><company></company></author></item><item><title>Comment obtenir du code SQL de qualité avec l’IA : décryptage des techniques de Text-to-SQL</title><link>https://cloud.google.com/blog/fr/products/bases-de-donnees/comment-obtenir-du-code-sql-de-qualite-avec-lia-decryptage-des-techniques-de-text-to-sql/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2breh"&gt;Pour prendre de bonnes décisions, les entreprises doivent pouvoir exploiter rapidement et avec précision leurs données. Et, dans ce domaine, le langage SQL reste la référence. Avec Gemini, Google peut générer du code SQL directement à partir de requêtes en langage naturel. C’est le principe du « &lt;i&gt;Text-to-SQL »&lt;/i&gt;. Cette approche accroît la productivité des développeurs et des analystes, tout en donnant la possibilité aux utilisateurs non techniques d’interagir directement avec les données dont ils ont besoin.&lt;/p&gt;&lt;p data-block-key="ekgeo"&gt;Ainsi, les fonctionnalités &lt;i&gt;Text-to-SQL&lt;/i&gt; sont-elles désormais directement présentes dans de nombreux produits Google Cloud :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="30s12"&gt;&lt;b&gt;BigQuery Studio&lt;/b&gt;, à la fois dans &lt;a href="https://cloud.google.com/bigquery/docs/write-sql-gemini?hl=fr#generate_sql_from_a_comment"&gt;l’éditeur SQL&lt;/a&gt; et &lt;a href="https://cloud.google.com/bigquery/docs/write-sql-gemini?hl=fr#use_the_sql_generation_tool"&gt;l’outil de génération SQL&lt;/a&gt;, ainsi que dans  &lt;a href="https://cloud.google.com/blog/products/data-analytics/using-bigquery-data-canvas-a-deep-dive?e=48754805#:~:text=powered%20by%20Gemini-,2.%20Generate%20SQL,-You%20can%20also"&gt;SQL node&lt;/a&gt; de &lt;b&gt;Data Canvas&lt;/b&gt;.&lt;/li&gt;&lt;li data-block-key="76vs1"&gt;La fonction « Help me code » dans &lt;a href="https://cloud.google.com/sql/docs/mysql/write-sql-gemini"&gt;&lt;b&gt;Cloud SQL Studio&lt;/b&gt;&lt;/a&gt; (Postgres, MySQL et SQL Server), &lt;b&gt;AlloyDB Studio&lt;/b&gt; et &lt;b&gt;Cloud Spanner Studio&lt;/b&gt;.&lt;/li&gt;&lt;li data-block-key="5c2mu"&gt;&lt;b&gt;AlloyDB AI&lt;/b&gt;, qui propose une interface en langage naturel directement connectée à la base de données.&lt;/li&gt;&lt;li data-block-key="aac59"&gt;Et via &lt;b&gt;Vertex AI&lt;/b&gt;, qui permet d’accéder directement aux modèles Gemini sur lesquels reposent ces différents produits.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="fsm24"&gt;Les LLM comme Gemini 2.5, grâce à leurs puissantes capacités de raisonnement et de synthèse, ont permis de réaliser des avancées remarquables dans le domaine du « &lt;i&gt;Text-to-SQL »&lt;/i&gt;. À travers cet article, premier d’une série à venir, nous vous proposons d’explorer les rouages techniques des agents &lt;i&gt;Text-to-SQL&lt;/i&gt; de Google Cloud. Nous y aborderons les approches les plus avancées pour la construction de contexte et la récupération de tables, la manière d’évaluer efficacement la qualité du &lt;i&gt;Text-to-SQL&lt;/i&gt; grâce aux techniques de type &lt;i&gt;LLM-as-a-Judge&lt;/i&gt; (des méthodes d’évaluation automatisée où un LLM est utilisé pour juger les performances d’un autre modèle ou de ses propres réponses), les meilleures pratiques en matière de &lt;i&gt;prompting&lt;/i&gt; et de post-traitement des LLM, ainsi que les méthodes qui permettent au système de fournir des réponses certifiées correctes avec une fiabilité proche de 100 %.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_Text-to-SQL_at_Google_Cloud.max-1800x1800.jpg"
        
          alt="Google SQL"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="2breh"&gt;Relever les défis de la technologie &lt;i&gt;text-to-SQL&lt;/i&gt;&lt;/h3&gt;&lt;p data-block-key="dksvs"&gt;Les LLM les plus avancés, comme Gemini 2.5, disposent de capacités de raisonnement qui les rendent particulièrement efficaces pour traduire des questions complexes (formulées en langage naturel) en code SQL fonctionnel, intégrant des jointures, filtres, agrégations et autres concepts complexes.&lt;/p&gt;&lt;p data-block-key="21frj"&gt;Prenons un exemple simple réalisé dans &lt;a href="https://cloud.google.com/generative-ai-studio?hl=fr"&gt;Vertex AI Studio&lt;/a&gt; pour illustrer la puissance de ces LLM. À partir du prompt &lt;i&gt;« J’ai un schéma de base de données qui contient des produits et des commandes. Écris une requête SQL qui affiche le nombre de commandes de chaussures »&lt;/i&gt;, Gemini génère du code SQL en s’appuyant sur schéma hypothétique :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;quot;SELECT COUNT(DISTINCT o.order_id) AS NumberOfShoeOrders FROM orders o JOIN order_items oi ON o.order_id = oi.order_id JOIN products p ON oi.product_id = p.product_id WHERE p.product_name LIKE &amp;#x27;%shoe%&amp;#x27;.&amp;quot;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6eb85430&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2breh"&gt;Voici une requête est bien construite… mais théorique. Dès qu’on sort de cet exemple trivial pour passer à une base de données réelle et à de vraies questions d’utilisateurs, le problème se complique. Pour y faire face, il faut enrichir la génération de code avec des méthodes qui :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="7v9pd"&gt;spécifient le contexte métier,&lt;/li&gt;&lt;li data-block-key="clea4"&gt;interprètent correctement l’intention de l’utilisateur,&lt;/li&gt;&lt;li data-block-key="c3b3e"&gt;gèrent les différences entre les différents dialectes SQL.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="f33d9"&gt;Voyons comment résoudre chacun de ces défis.&lt;/p&gt;&lt;p data-block-key="90pht"&gt;&lt;b&gt;Problème n°1 : spécifier le contexte métier&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="4r4qu"&gt;Tout comme les data analysts et les data engineers, les LLM ont besoin de beaucoup de connaissances — ou de &lt;i&gt;contexte&lt;/i&gt; — pour générer du code SQL précis. Ce contexte peut être &lt;b&gt;explicite&lt;/b&gt; (à quoi ressemble le schéma ? quelles sont les colonnes pertinentes ? à quoi ressemblent les données ?) ou plus &lt;b&gt;implicite&lt;/b&gt; (quelle est la signification exacte d’une donnée ? que représente-t-elle dans un cas d’usage métier précis ?).&lt;/p&gt;&lt;p data-block-key="danm2"&gt;L’entraînement spécialisé du modèle, ou &lt;i&gt;fine-tuning&lt;/i&gt;, n’est généralement pas une solution viable à grande échelle. Néanmoins, entraîner un modèle sur la structure de chaque base de données ou jeu de données, et suivre en permanence les évolutions de schéma ou du contenu de la base, se révèlerait à la fois trop complexe et trop coûteux. Sans compter que la connaissance métier et la sémantique sont rarement bien documentées et qu’elles sont généralement difficiles à transformer en données d’entraînement exploitables par un modèle.&lt;/p&gt;&lt;p data-block-key="1ji9r"&gt;&lt;i&gt;Par exemple, même le meilleur DBA serait incapable d’écrire une requête correcte pour suivre les ventes de chaussures s’il ne savait pas que, dans la table&lt;/i&gt; pcat_extension&lt;i&gt;, la valeur&lt;/i&gt; cat_id2 = 'Footwear'&lt;i&gt; correspond à une chaussure. Il en va de même pour les LLM !&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="77ngb"&gt;&lt;b&gt;Problème n°2 : comprendre l’intention de l’utilisateur&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="8jg51"&gt;Le langage naturel est moins précis que le langage SQL. Un data-engineer ou un data-analyst confronté à une question ambiguë saura détecter qu’il lui manque des informations et posera les bonnes questions pour clarifier le problème. Un LLM, en revanche, a tendance à vouloir fournir une réponse coûte que coûte, et face à une question ambiguë, il peut être sujet aux hallucinations.&lt;/p&gt;&lt;p data-block-key="et7sm"&gt;&lt;i&gt;Exemple&lt;/i&gt;&lt;b&gt;&lt;i&gt; :&lt;/i&gt;&lt;/b&gt;&lt;i&gt; prenons une question comme « Quelles sont les chaussures les plus vendues ? » L’ambiguïté de la question saute aux yeux : que signifie exactement « les plus vendues » dans le contexte de l’entreprise ou de l’application ? Est-ce qu’on parle des chaussures qui ont généré le plus de commandes ? De la marque qui a rapporté le plus de chiffre d’affaires ? Faut-il inclure les commandes retournées dans le calcul ? Et combien de modèles doit-on afficher dans le rapport ?&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="e2esd"&gt;De plus, selon l’utilisateur, les attentes peuvent varier. Pour un data-analyst ou un développeur qui pose une question vague, une requête SQL approximative mais globalement pertinente peut constituer un bon point de départ, car ils sauront la corriger ou l’affiner. En revanche, pour un utilisateur moins technique qui ne connaît pas SQL, il est essentiel de fournir une requête précise et correcte dès le départ car contrairement aux acteurs expérimentés précédents, il n’a pas les compétences pour la vérifier et la modifier. En matière de « text-to-SQL », la clé est de pouvoir poser des questions de suivi pour lever les ambiguïtés, expliquer le raisonnement qui a mené à une réponse et guider l’utilisateur vers ce qu’il cherche réellement.&lt;/p&gt;&lt;p data-block-key="2ovcm"&gt;&lt;b&gt;Problème n°3 : les limites de la génération par LLM&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="cpnjk"&gt;De base, les LLM excellent dans des tâches comme la rédaction créative, le résumé ou l’extraction d’informations à partir de documents. Mais certains modèles ont plus de mal à suivre des instructions précises et à restituer les détails avec exactitude, en particulier lorsqu’il s’agit de fonctionnalités SQL peu usitées. Pour produire du SQL correct, le LLM doit s’en tenir strictement à des spécifications qui peuvent rapidement devenir complexes.&lt;/p&gt;&lt;p data-block-key="cgdkm"&gt;&lt;i&gt;Exemple&lt;/i&gt;&lt;b&gt;&lt;i&gt; :&lt;/i&gt;&lt;/b&gt;&lt;i&gt; prenons les différences entre les dialectes SQL, souvent plus subtiles que celles qui existent entre des langages de programmation comme Python et Java. Typiquement, en BigQuery SQL, la fonction correcte pour extraire un mois à partir d’une colonne de type timestamp est&lt;/i&gt; : EXTRACT(MONTH FROM timestamp_column.&lt;i&gt; Mais en MySQL, on utilise :&lt;/i&gt; MONTH(timestamp_column)&lt;i&gt;.&lt;/i&gt;&lt;/p&gt;&lt;h3 data-block-key="2p89q"&gt;Les techniques &lt;i&gt;Text-to-SQL&lt;/i&gt;&lt;/h3&gt;&lt;p data-block-key="5eahn"&gt;Chez Google Cloud, nous faisons évoluer en permanence nos agents « &lt;i&gt;text-to-SQL »&lt;/i&gt; afin d’en améliorer la qualité. Pour répondre aux problèmes évoqués plus haut, nous mettons en œuvre un ensemble de techniques.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Screenshot_2025-12-22_at_18.03.41.max-1000x1000.png"
        
          alt="AIText-to-SQL"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_Text-to-SQL_at_Google_Cloud.max-2200x2200.jpg"
        
          alt="SQL2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2breh"&gt;Déchiffrons ensemble certaines de ces techniques :&lt;/p&gt;&lt;p data-block-key="4oqb"&gt;&lt;b&gt;Modèles « SQL-aware »&lt;/b&gt;&lt;br/&gt;Nos solutions&lt;i&gt; text-to-SQL&lt;/i&gt; reposent sur les puissants modèles de la famille de LLM Gemini 2.5. Celle-ci a déjà largement fait ses preuves en matière de génération de code et de SQL de haute qualité. Selon la tache de génération de code SQL, nous combinons différentes versions de modèles. Dans certains cas, nous appliquons même un &lt;i&gt;fine-tuning&lt;/i&gt; personnalisé au modèle, afin d’obtenir un SQL fiable pour un dialecte donné par exemple.&lt;/p&gt;&lt;p data-block-key="777tp"&gt;&lt;b&gt;Résolution des ambiguïtés grâce aux LLM&lt;/b&gt;&lt;br/&gt;La levée d’ambiguïtés consiste à amener le système à répondre par une question demandant une clarification lorsqu’il est confronté à une requête trop vague. Par exemple, à la question &lt;i&gt;« Quelle est la chaussure la plus vendue ? »&lt;/i&gt;, l’agent &lt;i&gt;text-to-SQL&lt;/i&gt; va réagir par une relance du type : &lt;i&gt;« Voulez-vous voir les chaussures classées par nombre de commandes ou par chiffre d’affaires ? »&lt;/i&gt;.&lt;br/&gt; Dans la pratique, nous orchestrons généralement les appels au LLM de façon à d’abord vérifier si une question peut réellement recevoir une réponse avec le schéma et les données disponibles. Si ce n’est pas le cas, le modèle génère alors les questions complémentaires nécessaires pour clarifier l’intention de l’utilisateur.&lt;/p&gt;&lt;p data-block-key="b6r17"&gt;&lt;b&gt;Recherche et in-context learning (apprentissage contextuel)&lt;/b&gt;&lt;br/&gt;Comme mentionné plus haut, fournir aux modèles le contexte nécessaire pour générer du SQL est essentiel. Nous utilisons pour cela différentes techniques d’indexation et de recherche : d’abord pour identifier les jeux de données, tables et colonnes pertinents (généralement via une recherche vectorielle avec appariement sémantique en plusieurs étapes), puis pour charger du contexte supplémentaire utile. Selon le produit, cela peut inclure des éléments comme des annotations de schéma fournies par l’utilisateur, des exemples de requêtes SQL similaires, l’application de règles métier spécifiques, ou encore des échantillons de requêtes récentes exécutées par l’utilisateur sur les mêmes jeux de données. Toutes ces informations sont ensuite organisées dans des &lt;i&gt;prompts&lt;/i&gt; soumis au modèle. Grâce à ses fenêtres de contexte étendues, Gemini peut prendre en charge des schémas volumineux ainsi qu’un grand nombre d’informations contextuelles, ce qui lui permet d’aller beaucoup plus loin dans le traitement du contexte.&lt;/p&gt;&lt;p data-block-key="d25i0"&gt;&lt;b&gt;Validation et reprompting&lt;/b&gt;&lt;br/&gt;Même avec un modèle de haute qualité, la génération de code SQL par un LLM conserve une part de non-déterminisme et donc d’imprévisibilité. Pour y remédier, nous avons constaté que des approches non basées sur l’IA — comme l’analyse syntaxique de la requête ou l’exécution à blanc (&lt;i&gt;dry run&lt;/i&gt;) du SQL généré — complètent efficacement les workflows de génération de code SQL pilotés par modèles. Ces techniques fournissent un signal clair et déterministe indiquant si le LLM a omis un élément crucial. Ce signal est ensuite renvoyé au modèle pour une seconde passe. Lorsqu’on lui fournit un exemple d’erreur accompagné de quelques indications, le modèle est généralement capable de corriger ce qu’il avait mal généré.&lt;/p&gt;&lt;p data-block-key="4r416"&gt;&lt;b&gt;Contrôle de cohérence automatique&lt;/b&gt;&lt;br/&gt;Le principe de contrôle automatique de cohérence repose sur l’idée de ne pas se contenter d’une seule réponse du modèle. Concrètement, le système génère plusieurs requêtes SQL pour une même question utilisateur, en variant les techniques de &lt;i&gt;prompting&lt;/i&gt; et/ou les versions de modèles utilisées. Il compare ensuite les différentes réponses afin d’identifier celle qui semble la plus fiable et la plus pertinente. Lorsque plusieurs modèles, ou versions d’un même modèle, convergent vers le même résultat, les chances que la réponse soit correcte et qu’elle corresponde à ce que recherche l’utilisateur augmentent nettement.&lt;/p&gt;&lt;h3 data-block-key="5ihp9"&gt;Evaluer et mesurer les améliorations&lt;/h3&gt;&lt;p data-block-key="c7j7r"&gt;L’amélioration de la génération de code SQL pilotée par l’IA repose sur une évaluation robuste. Les benchmarks &lt;i&gt;text-to-SQL&lt;/i&gt; développés par la communauté académique — comme le très répandu &lt;a href="https://bird-bench.github.io/" target="_blank"&gt;&lt;b&gt;BIRD-bench&lt;/b&gt;&lt;/a&gt; — fournissent une base de référence précieuse pour évaluer la performance des modèles et du processus complet de génération de code SQL.&lt;/p&gt;&lt;p data-block-key="4iblb"&gt;Cependant, ces benchmarks montrent leurs limites dès qu’il s’agit de représenter la diversité des schémas et des workloads rencontrés en conditions réelles. Pour dépasser ces limites, nous avons développé notre propre suite de benchmarks dits synthétiques : des scénarios de tests construits avec des jeux de données fictifs, conçus pour simuler la complexité et la variété du monde réel. Ils enrichissent et complètent la base de référence fournie par les benchmarks académiques.&lt;/p&gt;&lt;p data-block-key="bk88g"&gt;&lt;b&gt;Couverture :&lt;/b&gt; nous nous assurons que nos benchmarks couvrent un large éventail de moteurs et de produits SQL, aussi bien les dialectes que les fonctionnalités propres à chaque moteur. Ils incluent non seulement les requêtes classiques, mais aussi le DDL, le DML et d’autres tâches d’administration de la base. Les benchmarks intègrent également des questions représentatives des usages courants, jusqu’aux requêtes et schémas plus complexes que l’on rencontre dans des environnements réels.&lt;/p&gt;&lt;p data-block-key="cgmua"&gt;&lt;b&gt;Métriques :&lt;/b&gt; nous combinons des métriques observées en conditions réelles (usages) et des métriques mesurées en laboratoire (benchmarks). Nous faisons appel à la fois à l’évaluation humaine et à l’évaluation automatisée — en particulier via les techniques de type &lt;i&gt;LLM-as-a-judge&lt;/i&gt;, qui réduisent les coûts tout en permettant d’évaluer les performances sur des tâches ambiguës ou mal définies.&lt;/p&gt;&lt;p data-block-key="digsh"&gt;&lt;b&gt;Évaluations continues :&lt;/b&gt; nos équipes d’ingénierie et de recherche utilisent ces évaluations pour tester rapidement de nouveaux modèles, de nouvelles techniques de &lt;i&gt;prompting&lt;/i&gt; et d’autres améliorations. Elles nous fournissent des signaux rapides indiquant si une approche est prometteuse et mérite d’être poursuivie.&lt;/p&gt;&lt;p data-block-key="bdjjt"&gt;Ensemble, ces différentes techniques sont à l’origine de progrès remarquables réalisés dans le domaine du &lt;i&gt;Text-to-SQL&lt;/i&gt;. Progrès que nous constatons aussi bien dans nos laboratoires que dans les environnements de nos clients. Si vous vous préparez à intégrer du &lt;i&gt;Text-to-SQL&lt;/i&gt; dans vos propres systèmes, ne manquez pas nos prochains articles qui approfondiront à la fois le sujet et l’utilisation de nos propres solutions. En attendant, vous pouvez d’ores et déjà tester les capacités de Gemini Text-to-SQL dans &lt;a href="https://cloud.google.com/bigquery/docs/write-sql-gemini#use_the_sql_generation_tool"&gt;&lt;b&gt;BigQuery Studio&lt;/b&gt;&lt;/a&gt;&lt;b&gt;, &lt;/b&gt;&lt;a href="https://cloud.google.com/sql/docs/mysql/write-sql-gemini"&gt;&lt;b&gt;CloudSQL, AlloyDB et Spanner Studio&lt;/b&gt;&lt;/a&gt;, ainsi que dans &lt;a href="https://cloud.google.com/blog/products/databases/alloydb-ai-drives-innovation-from-the-database"&gt;&lt;b&gt;AlloyDB AI&lt;/b&gt;&lt;/a&gt;. Vous allez voir, c’est bluffant…&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 29 Dec 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/bases-de-donnees/comment-obtenir-du-code-sql-de-qualite-avec-lia-decryptage-des-techniques-de-text-to-sql/</guid><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Comment obtenir du code SQL de qualité avec l’IA : décryptage des techniques de Text-to-SQL</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/bases-de-donnees/comment-obtenir-du-code-sql-de-qualite-avec-lia-decryptage-des-techniques-de-text-to-sql/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Per Jacobsson</name><title>Principal Software Engineer</title><department></department><company></company></author></item><item><title>Envie de pouvoir dialoguer avec vos données où et quand vous le voulez ? Découvrez l’API Conversational Analytics de Google</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="0li23"&gt;Décideurs, collaborateurs, clients… tout le monde veut trouver ses réponses dans son environnement de travail. Autrement dit, directement dans les applications utilisées chaque jour. Ces dernières années, l’essor de la BI augmentée par l’IA a changé notre rapport aux données, en permettant de poser des questions en langage naturel et d’obtenir des réponses instantanément. Mais il y a une limite : les insights restent confinés à l’outil de BI. Pour y accéder, il faut passer par cette interface. Dit autrement, ces insights ne suivent pas l’utilisateur dans ses autres applications. Et chez Google Cloud, nous voulons changer ça.&lt;/p&gt;&lt;p data-block-key="2c7mb"&gt;Lors de Google Cloud Next 25, &lt;a href="https://cloud.google.com/blog/products/data-analytics/looker-bi-platform-gets-ai-powered-data-exploration?hl=en"&gt;nous avons présenté l’API Conversational Analytics&lt;/a&gt;. Elle permet aux développeurs d’intégrer des fonctionnalités de requêtage en langage naturel au cœur même de leurs applications, outils internes ou workflows, tout en s’appuyant sur des bases solides : un accès aux données sécurisé et fiable, ainsi qu’une modélisation évolutive et robuste.&lt;br/&gt; Cette technologie est déjà utilisée par Google Cloud pour ses propres fonctionnalités conversationnelles, notamment dans Looker et BigQuery Data Canvas.&lt;/p&gt;&lt;p data-block-key="3t64m"&gt;&lt;b&gt;Nous sommes ravis d’annoncer que l’API Conversational Analytics est désormais disponible en aperçu public (public preview)&lt;/b&gt; pour tous les développeurs : donnez libre cours à votre créativité en l’intégrant dans vos projets. &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr"&gt;Une documentation complète est également à votre disposition pour bien démarrer&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="e6hq9"&gt;Avec l’API &lt;b&gt;Conversational Analytics&lt;/b&gt;, vous pouvez imagine une infinité de cas d’usage nécessitant d’interagir avec vos données. Les réponses peuvent prendre la forme de chiffres, de graphiques ou encore de texte. Pour garantir la précision des résultats, vous pouvez vous appuyer sur le modèle sémantique éprouvé de Looker, ou fournir aux agents BigQuery le contexte métier et data dont ils ont besoin. Ces fonctionnalités peuvent être intégrées directement dans vos applications afin d’offrir aux utilisateurs des expériences intuitives, leur donner accès à des analyses complexes en langage naturel, et même orchestrer des agents conversationnels d’analyse, chacun jouant le rôle d’un « outil » spécialisé, au service d’un agent orchestrateur, grâce à &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/agent-development-kit/quickstart"&gt;Agent Development Kit&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_veKmF4a.gif"
        
          alt="1.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Découvrir l’API Conversational Analytics&lt;/h3&gt;&lt;p data-block-key="821ai"&gt;L’API Conversational Analytics vous permet d’interagir avec vos données dans BigQuery ou Looker via une fenêtre de chat, où que vous soyez. Vous pouvez, par exemple, ajouter une fenêtre de conversation à coté de vos tableaux de bord Looker, invoquer des agents dans des applications de messagerie comme Slack, personnaliser les applications web de votre entreprise ou encore construire des systèmes multi-agents.&lt;/p&gt;&lt;p data-block-key="47dr5"&gt;Avec cette API, vos équipes accèdent aux bonnes réponses, au bon moment, directement à partir de leurs outils de travail habituels. Pour ce faire, l’API combine la puissance des modèles IA avancés et les capacités d’orchestration d’agents de Google, avec la couche sémantique de Looker et les services de contextualisation de BigQuery. Résultat : des échanges en langage naturel, faciles à partager à l’échelle de l’entreprise et qui rendent l’accès aux informations clés aussi fluide que possible dans les applications couramment utilisées.&lt;/p&gt;&lt;p data-block-key="5ck01"&gt;La pile Analytics et IA de Google apporte de solides atouts pour garantir la précision des réponses :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="e5nmh"&gt;Une IA de pointe conçue pour l’analytique des données&lt;/li&gt;&lt;li data-block-key="c15mm"&gt;Une architecture à base d’agents, capable de comprendre son environnement et d’agir en conséquence&lt;/li&gt;&lt;li data-block-key="b8mtb"&gt;La puissance de la couche sémantique de Looker, gage de fiabilité des réponses&lt;/li&gt;&lt;li data-block-key="4573g"&gt;&lt;a href="https://cloud.google.com/blog/products/business-intelligence/use-conversational-analytics-api-for-natural-language-ai?e=48754805&amp;amp;hl=en"&gt;Des outils très performants pour créer et faire évoluer vos agents&lt;/a&gt; (fonctions logicielles, graphiques, API), développés et maintenus par des équipes dédiées.&lt;/li&gt;&lt;li data-block-key="fi4v8"&gt;Un interpréteur Python intégré, pour réaliser des analyses avancées&lt;/li&gt;&lt;li data-block-key="4q5h5"&gt;La possibilité d’affiner vos agents grâce à du contexte structuré et des prompts adaptés&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="5o6u3"&gt;Avec API Conversational Analytics, vous disposez d’une flexibilité totale pour concevoir des applications vraiment adaptées à vos besoins. Cette flexibilité permet de :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="cvsu9"&gt;Créer, mettre à jour et partager des agents permettant à vos utilisateurs d’échanger en langage naturel avec les données de BigQuery ou de Looker&lt;/li&gt;&lt;li data-block-key="v573"&gt;Réduire la charge de maintenance grâce à des API &lt;i&gt;stateful&lt;/i&gt; dédiées à la gestion des agents et des conversations&lt;/li&gt;&lt;li data-block-key="c057s"&gt;Garder la maîtrise de l’expérience utilisateur via notre API de chat &lt;i&gt;stateless&lt;/i&gt;&lt;/li&gt;&lt;li data-block-key="7pk03"&gt;Développer des architectures multi-agents en encapsulant les API avec l’&lt;a href="https://github.com/google/adk-python" target="_blank"&gt;ADK&lt;/a&gt; et &lt;a href="https://github.com/googleapis/genai-toolbox" target="_blank"&gt;MCP&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="etjpa"&gt;Aider les agents IA à mieux comprendre votre métier et vos données grâce à l’ingénierie de contexte assistée par l’IA&lt;/li&gt;&lt;li data-block-key="9qlu8"&gt;Assurer un contrôle de version sur vos agents, en mettant à jour les prompts sans perturber l’usage en production&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cdpel"&gt;Et bien entendu, vous bénéficiez aussi des contrôles et de la sécurité (adaptés aux usages professionnels) de Google Cloud Platform, permettant :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="b71mb"&gt;D’encadrer l’utilisation des agents grâce à des contrôles d’accès basés sur les rôles (RBAC)&lt;/li&gt;&lt;li data-block-key="9oro1"&gt;De protéger vos données avec, par défaut, des contrôles d’accès au niveau des lignes et des colonnes&lt;/li&gt;&lt;li data-block-key="bcdan"&gt;De se prémunir contre les requêtes coûteuses grâce à des limitations intégrées des requêtes&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7elu"&gt;Associée à Looker, l’API Conversational Analytics bénéficie de sa couche sémantique qui réduit jusqu’à deux tiers les erreurs dans les requêtes en langage naturel générées par l’IA. Les résultats reposent ainsi sur la donnée de référence définie par l’entreprise, garantissant des réponses fiables et cohérentes plutôt que des interprétations approximatives.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_F9tAD9S.max-1800x1800.png"
        
          alt="2.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Un workflow agentique, boosté par la puissance des modèles IA de Google&lt;/h3&gt;&lt;p data-block-key="bhg7d"&gt;L’API Conversational Analytics s’appuie sur des modèles spécialement conçus pour interroger et analyser les données afin de fournir des réponses précises. Elle expose un workflow agentique flexible, permettant de décider quelles briques - analyse SQL, génération de graphiques, exécution de code, etc. - l’agent conversationnel utilisera pour répondre aux questions des utilisateurs.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_7qaisEh.max-1600x1600.png"
        
          alt="3.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="0li23"&gt;En tant que développeur, vous pouvez concevoir des agents dopés à l’IA à l’aide des outils suivants :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="75auo"&gt;Text-to-SQL, solution éprouvée adoptée par les clients qui utilisent Gemini dans BigQuery&lt;/li&gt;&lt;li data-block-key="da9cm"&gt;Récupération de contexte, personnalisée selon l’utilisateur et alignée sur l’usage de l’entreprise&lt;/li&gt;&lt;li data-block-key="2pl3t"&gt;NL-to-Looker Query Engine de Looker, pour tirer parti de la couche sémantique préparée par les analystes&lt;/li&gt;&lt;li data-block-key="ahs2k"&gt;Code Interpreter, pour des analyses avancées comme les prévisions ou l’analyse de causes profondes&lt;/li&gt;&lt;li data-block-key="38v51"&gt;Charting, pour créer des visualisations percutantes et donner vie à vos données&lt;/li&gt;&lt;li data-block-key="blb84"&gt;Insights, pour expliquer les réponses en langage clair&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3t31d"&gt;Ces outils de génération par l’IA s’appuient sur les derniers modèles Gemini de Google et sont ajustés pour des tâches spécifiques d’analyse de données, afin d’offrir un haut niveau de précision. On peut encore compléter cette panoplie d’outils avec Code Interpreter for Conversational Analytics, solution qui permet d’effectuer des calculs allant de l’analyse de cohortes aux comparaisons entre périodes. Actuellement en mode preview, Code Interpreter vous permet d’agir comme un véritable data scientist, sans avoir besoin de maîtriser le code avancé ni les méthodes statistiques. Vous pouvez dès à présent vous inscrire - &lt;a href="https://cloud.google.com/looker/docs/studio/conversational-analytics-code-interpreter?hl=fr"&gt;ici&lt;/a&gt; - pour obtenir un accès anticipé.&lt;/p&gt;&lt;h3 data-block-key="d3gui"&gt;Récupération et génération de contexte&lt;/h3&gt;&lt;p data-block-key="bjj2i"&gt;Un bon analyste de données n’est pas seulement compétent : il connaît aussi en profondeur l’activité de son entreprise et ses données. Pour délivrer des résultats comparables, une expérience de type « chat avec vos données » doit disposer du même niveau de connaissance sur l’entreprise et ses données. C’est pourquoi l’API Conversational Analytics accorde la priorité à la collecte de contexte autour de vos données et de vos requêtes.&lt;/p&gt;&lt;p data-block-key="toem"&gt;Grâce au RAG (retrieval augmented generation), nos agents Conversational Analytics connaissent suffisamment bien vos données pour comprendre que lorsque vous demandez les ventes à « New York » ou « NYC », il s’agit de « New York City ». L’API interprète le sens de votre question afin de la faire correspondre aux champs les plus pertinents à interroger, et apprend aussi des usages de votre organisation : par exemple, elle reconnaît que « revenue_final_calc » est plus souvent sollicité que « revenue_intermediate » dans votre projet BigQuery, et adapte ses choix en conséquence. Enfin, l’API apprend également de vos interactions passées : elle se souvient que vous avez interrogé la valeur « customer lifetime value » dans BigQuery Studio mardi, lorsque vous reposez la même question le vendredi.&lt;/p&gt;&lt;p data-block-key="9m570"&gt;Toutes les bases de données ne disposent pas du contexte nécessaire permettant à l’agent de réaliser ce travail. Les descriptions de colonnes, les glossaires métiers et les associations question-requête peuvent améliorer sa précision, mais leur création manuelle est fastidieuse, surtout quand votre entreprise gère 1 000 tables comportant chacune 500 champs. Pour accélérer l’apprentissage de votre agent, nous avons ajouté la fonctionnalité AI-assisted context : Gemini suggère automatiquement des métadonnées utiles à l’agent, tout en vous laissant la possibilité d’approuver ou de rejeter ses propositions.&lt;/p&gt;&lt;h3 data-block-key="2j25f"&gt;Une maintenance réduite au minimum&lt;/h3&gt;&lt;p data-block-key="aa4tm"&gt;L’API Conversational Analytics vous donne accès aux derniers outils d’agents pour données de Google Cloud, afin que vous puissiez vous concentrer sur le développement de votre activité plutôt que sur la création de nouveaux agents. Vous bénéficiez en outre des avancées continues de Google en matière d’IA générative pour le code et l’analyse de données.&lt;/p&gt;&lt;p data-block-key="amtum"&gt;Lorsque vous créez un agent, vos données sont protégées par la sécurité de Google, ses meilleures pratiques et ses contrôles d’accès basés sur les rôles. Une fois votre agent Looker ou BigQuery partagé, il peut être utilisé par l’ensemble des solutions Google Cloud — comme &lt;a href="https://developers.googleblog.com/en/agent-development-kit-easy-to-build-multi-agent-applications/" target="_blank"&gt;Agent Development Kit&lt;/a&gt; — ainsi que dans vos propres applications.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/4_NcRs0F5.gif"
        
          alt="4.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Des échanges en langage naturel, partout où vous en avez besoin grâce à l’API&lt;/h3&gt;&lt;p data-block-key="7kbkb"&gt;Grâce à des agents accessibles via API, vous pouvez mettre les informations clés à disposition partout où les décideurs en ont besoin, que ce soit lors d’un échange avec un client lors d’un appel au support, sur une tablette utilisée par vos équipes sur le terrain, ou directement au sein de vos applications de messagerie.&lt;/p&gt;&lt;p data-block-key="bod16"&gt;L’API Conversational Analytics a été conçue pour apporter de la valeur à tous les utilisateurs : qu’il s’agisse de profils métiers, d’analystes de données qui construisent des agents, ou de développeurs logiciels. Avec les agents conversationnels, lorsqu’un utilisateur pose une question, la réponse est fournie rapidement, accompagnée du raisonnement de l’agent. L’utilisateur peut ainsi vérifier que les résultats reposent sur la démarche d’analyse appropriée. Des contrôles granulaires permettent aux développeurs de définir ce qui est visible par l’utilisateur — comme les réponses et les graphiques — et ce qui est journalisé pour un audit ultérieur par les analystes — comme le code SQL ou Python.&lt;/p&gt;&lt;p data-block-key="4k1s9"&gt;Pour bien débuter avec notre API Conversational Analytics, n’hésitez pas à consulter notre &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr"&gt;documentation&lt;/a&gt; et les &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/reference/rest?hl=fr"&gt;références techniques de l’API&lt;/a&gt;, que ce soit en REST ou via SDK. Vous pouvez également vous appuyer sur des exemples de code disponibles dans des &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr#interactive-colab-notebooks"&gt;notebooks Colab&lt;/a&gt;, &lt;a href="https://github.com/looker-open-source/ca-api-quickstarts" target="_blank"&gt;une application Streamlit sur GitHub&lt;/a&gt; ou encore &lt;a href="https://github.com/looker-open-source/ca-demos-and-tools" target="_blank"&gt;une application de référence en TypeScript&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 23 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</guid><category>Business Intelligence</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Envie de pouvoir dialoguer avec vos données où et quand vous le voulez ? Découvrez l’API Conversational Analytics de Google</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Kuzma</name><title>Group Product Manager, Data Agents</title><department></department><company></company></author></item><item><title>Choisir le bon outil de développement Google IA selon votre projet</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="qpf9o"&gt;Vous souvenez-vous de ce que signifiait préparer un long voyage il y a vingt ans ? Il fallait prévoir l’appareil photo, l’agenda, la pile de livres, la console portable, le guide touristique rempli de cartes, un téléphone, un lecteur CD… et parfois même des chèques de voyage. Aujourd’hui ? Un smartphone suffit !&lt;/p&gt;&lt;p data-block-key="8rhp3"&gt;Appelez-ça « l’effet consolidation »… mais l’évolution passe aussi parfois par la diversification. Prenons l’ordinateur, par exemple : il n’y a pas si longtemps, il se résumait au PC de bureau, unique appareil pour tous les usages. Désormais, nous avons des ordinateurs portables pour travailler en situation de mobilité, des tablettes pour consulter des contenus, des smartphones pour rester connecté en permanence à Internet, des téléviseurs intelligents pour regarder tout type de média… sans oublier une multitude de consoles de jeux.&lt;/p&gt;&lt;p data-block-key="7p2ed"&gt;Tantôt regroupement, tantôt éclatement, ces évolutions me rappellent l’état actuel des outils pour développeurs. Jusqu’à récemment, le paysage était relativement stable : des outils de conception UX pour réaliser des maquettes, des IDE pour écrire du code, des systèmes de build pour assembler les artefacts, et des scripts système ou shell pour déployer infrastructures et applications.&lt;br/&gt; Avec l’essor de l’IA générative, tout a basculé : l’univers des outils est devenu foisonnant et en constante évolution. Nos pratiques, comme nos outils, ne seront plus jamais les mêmes.&lt;/p&gt;&lt;p data-block-key="6c6er"&gt;Dans ce contexte, comment choisir le bon outil en fonction du projet ? Rien que chez Google, l’éventail est déjà large : des interfaces LLM comme l’application Gemini et Google AI Studio, des extensions d’IDE comme Gemini Code Assist, des environnements de développement dans le navigateur tels que Firebase Studio, ou encore des services « agentiques » comme Jules et Gemini CLI. Face à une telle profusion d’outils, on est vite submergé ! Pas de panique : on va vous aider ici à faire le tri !&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_Mnujh1J.max-1300x1300.png"
        
          alt="Google IA"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="qpf9o"&gt;La diversification des outils s’explique notamment par la façon dont l’IA intervient aujourd’hui dans le développement logiciel.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bt555"&gt;La première approche, dite &lt;b&gt;&lt;i&gt;déléguée&lt;/i&gt;&lt;/b&gt;, &lt;b&gt;repose sur des options agentiques&lt;/b&gt; : vous confiez la tâche à l’IA comme si vous l’externalisiez à un prestataire, en lui donnant des instructions détaillées, puis vous n’avez que très peu d’interactions jusqu’à la fin de l’exécution du processus. L’objectif est avant tout d’obtenir un résultat rapidement, sans chercher à développer vos propres compétences.&lt;/li&gt;&lt;li data-block-key="52hv3"&gt;La deuxième approche, dite &lt;b&gt;&lt;i&gt;supervisée&lt;/i&gt;&lt;/b&gt;, consiste à considérer l’IA comme un collaborateur placé sous votre supervision. Vous interagissez davantage avec elle que dans l’approche déléguée : vous la guidez, l’orientez, et tirez parti de votre expérience pour cadrer son action.&lt;/li&gt;&lt;li data-block-key="3g5n7"&gt;Enfin, l’approche &lt;b&gt;&lt;i&gt;collaborative&lt;/i&gt;&lt;/b&gt; repose sur un dialogue continu avec l’assistant IA, dans un va-et-vient permanent où l’on « progresse » ensemble, comme dans un processus d’apprentissage partagé.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_0eLq7ZQ.max-2000x2000.png"
        
          alt="Google IA2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="qpf9o"&gt;Forces et usages de chaque outil IA de développement&lt;/h3&gt;&lt;p data-block-key="14i2h"&gt;&lt;a href="https://jules.google/" target="_blank"&gt;&lt;b&gt;Jules&lt;/b&gt;&lt;/a&gt; excelle dès qu’il s’agit d’appliquer des instructions explicites, des consignes précises, pour automatiser des tâches en série (des batchs) sans supervision : ajouter de la documentation, améliorer la couverture des tests, moderniser chirurgicalement du code. Tout ceci directement sur du code source hébergé sur GitHub.com. Ses atouts ?&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="fh649"&gt;Pas d’infrastructure ou de processus à gérer et maintenir : Jules fonctionne directement, sans avoir à déployer ou entretenir des serveurs ou pipelines.&lt;/li&gt;&lt;li data-block-key="3udtl"&gt;Possibilité de définir le déroulé avant exécution : vous pouvez discuter avec Jules pour établir un plan des actions (quelles tâches lancer, dans quel ordre) avant de lui confier l’exécution automatique.&lt;/li&gt;&lt;li data-block-key="fa4q2"&gt;Résultats restitués sous forme de modifications prêtes à l’emploi : Jules propose un lot de changements concrets dans le code, accompagné d’une &lt;i&gt;pull request&lt;/i&gt; que vous pouvez examiner puis valider dans GitHub.&lt;/li&gt;&lt;li data-block-key="576u7"&gt;Un modèle de tarification souple : Jules est disponible avec un palier gratuit, complété par des formules payantes (&lt;a href="https://jules.google/#plans" target="_blank"&gt;Pro et Ultra&lt;/a&gt;) pour les usages plus avancés.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7bk37"&gt;&lt;a href="https://github.com/google-gemini/gemini-cli" target="_blank"&gt;&lt;b&gt;Gemini CLI&lt;/b&gt;&lt;/a&gt; propose une interface en ligne de commande ouverte et flexible, conçue pour travailler efficacement avec du code et du contenu, en mode interactif ou « &lt;i&gt;délégué&lt;/i&gt; »&lt;b&gt; :&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1vbng"&gt;Mise en place simple : une simple installation locale de Node suffit.&lt;/li&gt;&lt;li data-block-key="9pjhl"&gt;Extensible : outils intégrés et compatibilité avec MCP.&lt;/li&gt;&lt;li data-block-key="8q6uk"&gt;Intégration avec d’autres services, dont Gemini Code Assist et Firebase Studio.&lt;/li&gt;&lt;li data-block-key="44smq"&gt;Gemini CLI GitHub Actions en open source : permet de déléguer des tâches en arrière-plan sur vos dépôts de code — comme le tri des tickets ou la revue de &lt;i&gt;pull requests&lt;/i&gt; — via des déclencheurs automatiques ou manuels.&lt;/li&gt;&lt;li data-block-key="drqcm"&gt;Souplesse d’utilisation et de tarification : des quotas (volumes d’utilisation) gratuits conséquents sont proposés pour les modèles Gemini, le support des accès sécurisés ‘entreprise’ via Vertex AI et la compatibilité avec une licence Gemini Code Assist&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bp33"&gt;&lt;a href="https://codeassist.google/" target="_blank"&gt;&lt;b&gt;Gemini Code Assist&lt;/b&gt;&lt;/a&gt; propose une extension pour IDE complète qui permet des interactions conversationnelles ou de type agentiques avec une base de code :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="14nqf"&gt;Disponible en mode plug-in pour Visual Studio Code (VSCode) et JetBrains.&lt;/li&gt;&lt;li data-block-key="ki0f"&gt;Gère la complétion de code, la génération de tests, l’explication de code, la création de nouvelles portions de code.&lt;/li&gt;&lt;li data-block-key="5qmln"&gt;Extensible : support des commandes personnalisées, outils complémentaires et personnalisation sur vos bases de code privées. Le mode agent, basé sur Gemini CLI, permet en plus des interactions plus complexes&lt;/li&gt;&lt;li data-block-key="6428e"&gt;Tarification souple : quotas (volumes d’utilisation) gratuits et formule par utilisateur et par mois pour les équipes&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cmo5n"&gt;&lt;a href="https://firebase.studio/" target="_blank"&gt;&lt;b&gt;Firebase Studio&lt;/b&gt;&lt;/a&gt; est le choix idéal si vous voulez concevoir des applications de qualité professionnelle, sans avoir besoin d’être développeur de métier, dans un environnement de développement managé par Google et accessible depuis le navigateur :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="c7tfm"&gt;Templates inclus pour les frameworks et langages populaires afin de démarrer rapidement vos projets&lt;/li&gt;&lt;li data-block-key="4rr70"&gt;Vous pouvez laisser Gemini Vibe générer votre application, ou bien prendre la main et exploiter toute la puissance d’une machine virtuelle personnalisable pour coder vous-même l’application&lt;/li&gt;&lt;li data-block-key="2nv13"&gt;Configuration de l’environnement de travail avec Nix&lt;/li&gt;&lt;li data-block-key="afesj"&gt;Gratuit pendant la phase de preview. Davantage d’environnements sont proposés aux personnes inscrites au Google Developer Program.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="237t5"&gt;&lt;a href="https://aistudio.google.com/welcome" target="_blank"&gt;&lt;b&gt;Google AI Studio&lt;/b&gt;&lt;/a&gt; propose la façon la plus simple d’explorer les derniers modèles de Google, d’expérimenter avec des prompts et de prototyper des applications web légères.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="ihq1"&gt;Générez des contenus multimédia, utilisez l’API Live pour des sessions interactives et rédigez des prompts pour les modèles Gemini et Gemma&lt;/li&gt;&lt;li data-block-key="ebm3l"&gt;Rédigez des prompts avancés, combinez-les à des outils, appuyez-vous sur Google Search pour l’ancrage et comparez les résultats&lt;/li&gt;&lt;li data-block-key="3h9g1"&gt;Obtenez des clés API pour appeler les modèles Gemini de manière programmatique&lt;/li&gt;&lt;li data-block-key="9i9bs"&gt;Tarification souple : un quota gratuit conséquent (volumes d’utilisation) et une &lt;a href="https://ai.google.dev/gemini-api/docs/pricing?hl=fr" target="_blank"&gt;formule payante&lt;/a&gt; avec des limites de requêtes plus élevées, davantage de fonctionnalités et une gestion des données différenciée&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="c2emm"&gt;&lt;b&gt;En résumé :&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="41vks"&gt;Choisissez&lt;b&gt; Gemini&lt;/b&gt; &lt;b&gt;app&lt;/b&gt; pour prototyper rapidement une application.&lt;/li&gt;&lt;li data-block-key="b403o"&gt;Choisissez&lt;b&gt; Google AI Studio&lt;/b&gt; pour expérimenter des prompts ciblant des modèles et fonctionnalités spécifiques.&lt;/li&gt;&lt;li data-block-key="5f29r"&gt;Choisissez&lt;b&gt; Gemini Code Assist&lt;/b&gt; pour un développement assisté par l’IA dans votre environnement, avec votre suite d’outils habituelle.&lt;/li&gt;&lt;li data-block-key="3jfht"&gt;Choisissez&lt;b&gt; Firebase Studio&lt;/b&gt; si vous souhaitez travailler dans un environnement entièrement managé par Google, accessible via le navigateur, pour prototyper ou laisser Gemini Vibe coder des applications complètes, sans avoir besoin d’être développeur.&lt;/li&gt;&lt;li data-block-key="aqgv5"&gt;Choisissez&lt;b&gt; Gemini CLI&lt;/b&gt; si vous travaillez sur de nombreux de projets en IA générative et que vous recherchez la rapidité et la portabilité d’une interface en ligne de commande agentique.&lt;br/&gt;Et utilisez les &lt;b&gt;GitHub Actions Gemini CLI&lt;/b&gt; si vous voulez bénéficier de la sécurité Google Cloud et des modèles Gemini, tout en déclenchant des tâches interactives ou en arrière-plan pour vos projets basés sur GitHub.&lt;/li&gt;&lt;li data-block-key="8g9fc"&gt;Choisissez&lt;b&gt; Jules&lt;/b&gt; si vous avez des projets hébergés sur GitHub nécessitant des modifications pouvant être exprimées clairement sous forme d’instructions.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="a7v27"&gt;De toute ma carrière, je n’ai jamais vu les outils de développement logiciel évoluer aussi vite — ni une telle volonté chez les développeurs d’expérimenter toutes les nouveautés. C’est à la fois enthousiasmant… et déroutant. Ces différents outils sont complémentaires : vous aurez sans doute besoin d’en combiner plusieurs pour mener vos projets à bien.&lt;/p&gt;&lt;p data-block-key="ufl8"&gt;Chez Google, nous allons continuer à nous concentrer sur un objectif simple : vous donner les meilleurs outils IA pour créer les meilleures applications IA. Et nous comptons aussi beaucoup sur vos retours d’expérience pour y parvenir.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 19 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</guid><category>Developers &amp; Practitioners</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Choisir le bon outil de développement Google IA selon votre projet</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Seroter</name><title>Chief Evangelist, Google Cloud</title><department></department><company></company></author></item><item><title>Obtenez votre certification Google Cloud en 2025 : découvrez, étude à l’appui, tout ce qu’elle peut vous apporter</title><link>https://cloud.google.com/blog/fr/topics/formations-et-certifications/obtenez-votre-certification-google-cloud-en-2025-decouvrez-etude-a-lappui-tout-ce-quelle-peut-vous-apporter/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="5xhso"&gt;Le cloud évolue à toute vitesse : vos compétences doivent donc suivre au même rythme ! D’autant qu’avec la montée en puissance de l’IA, il ne suffit plus de se former : vous devez apporter la preuve que vous possédez bien ces compétences.&lt;/p&gt;&lt;p data-block-key="5312a"&gt;Alors que les entreprises accélèrent leur transformation numérique et multiplient les projets liés à l’intelligence artificielle, pouvoir valider rapidement des compétences est devenu un atout décisif. Bien plus qu’une simple opinion exprimée par les recruteurs ou les dirigeants, c’est désormais un fait confirmé par une étude récente Ipsos : les certifications Google Cloud ont un impact concret sur votre carrière. Et parce que la certification n’a jamais été aussi stratégique, nous en lançons trois nouvelles afin de renforcer vos perspectives de carrière et vous aider à accélérer votre évolution professionnelle.&lt;/p&gt;&lt;p data-block-key="32c77"&gt;L’étude Ipsos, menée pour Google Cloud auprès de plus de 3 000 professionnels du cloud, étudiants et décideurs, montre également que les certifications ne se contentent pas de multiplier les opportunités de carrière : elles améliorent aussi l’efficacité des entreprises dépendantes du numérique (autrement dit, quasiment toutes les entreprises aujourd’hui). Qu’il s’agisse de professionnels expérimentés, de débutants ou des organisations qui les emploient, il est dans l’intérêt de chacun de faire reconnaître ses compétences cloud avec des certifications recherchées et valorisées sur le marché.&lt;/p&gt;&lt;h3 data-block-key="9qu9t"&gt;Certifications : la clé pour renforcer sa confiance et accélérer son évolution de carrière&lt;/h3&gt;&lt;p data-block-key="d763s"&gt;Pour les ingénieurs, les data scientists et, plus largement, tous les professionnels du cloud, la certification représente un véritable accélérateur de carrière. Pour les personnes qui se forment aux solutions de Google Cloud, elle est même perçue comme l’étape la plus déterminante de leur parcours de formation.&lt;br/&gt; Les résultats de l’étude Ipsos confirment cette tendance : lorsqu’ils mettent en avant leurs certifications en ligne, 8 personnes sur 10 en formation sur Google Cloud estiment qu’elles leur apportent les compétences nécessaires pour accéder aux postes les plus recherchés, favorisent leur évolution vers de nouvelles responsabilités et contribuent à leur réussite professionnelle.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1-professionals-stat.gif"
        
          alt="certification Google Cloud en 2025_1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="5xhso"&gt;L’étude Ipsos met également en lumière l’impact significatif des certifications Google Cloud pour les étudiants. Armés de leurs certifications, ils déclarent bénéficier de salaires plus élevés et d’une insertion professionnelle plus rapide. Fait marquant : 9 étudiants sur 10 certifiés Google Cloud estiment que leur formation les a rendus plus compétitifs sur le marché de l’emploi, ce qui leur a ouvert de meilleures perspectives de carrière.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/2-students-stat.gif"
        
          alt="certification Google Cloud en 2025_2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="5xhso"&gt;&lt;b&gt;Vous êtes partenaire Google Cloud ?&lt;/b&gt;&lt;br/&gt;En tant que partenaire, vous pouvez bénéficier de bons pour passer gratuitement les certifications ainsi que de ressources pour préparer une re-certification ou obtenir de nouvelles certifications.&lt;br/&gt;&lt;a href="https://rsvp.withgoogle.com/events/partner-learning/certifications" target="_blank"&gt;Inscrivez-vous&lt;/a&gt;&lt;/p&gt;&lt;h3 data-block-key="d56ek"&gt;Aider les responsables cloud à constituer des équipes plus efficaces&lt;/h3&gt;&lt;p data-block-key="ab70b"&gt;Les certifications renforcent également la confiance et l’efficacité des responsables et décideurs cloud. Les dirigeants d’organisations utilisant Google Cloud constatent qu’elles améliorent sensiblement l’efficacité de leurs opérations dans le cloud. Avec des équipes certifiées, ils se disent plus confiants dans leur capacité à respecter les délais de leurs projets. Par ailleurs, les certifications facilitent l’intégration des collaborateurs sur de nouveaux projets et les aide à assumer de nouvelles responsabilités. Enfin, elles contribuent à renforcer la confiance accordée aux candidats lors des recrutements.&lt;/p&gt;&lt;p data-block-key="7hcsu"&gt;De fait, plus de 6 dirigeants sur 10 considèrent que la certification constitue l’un des meilleurs moyens d’accompagner l’évolution des professionnels du cloud. Et près de 70 % estiment que les collaborateurs certifiés se révèlent plus productifs.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/3-leaders-stat.gif"
        
          alt="certification Google Cloud en 2025_3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="5xhso"&gt;Découvrez et saisissez l’opportunité de décrocher les toutes dernières certifications Google Cloud, intégrant les technologies IA&lt;/h3&gt;&lt;p data-block-key="ea41"&gt;Pour commencer votre parcours de formation et franchir une étape décisive dans votre carrière, consultez &lt;a href="https://cloud.google.com/learn/certification?e=48754805&amp;amp;hl=en&amp;amp;utm_source=cgc-blog&amp;amp;utm_medium=blog&amp;amp;utm_campaign=FY25-Q1-global-certification-campaign&amp;amp;utm_content=certification-page-cgc&amp;amp;utm_term=-"&gt;notre catalogue des certifications Google Cloud&lt;/a&gt;. Il contient l’ensemble des certifications disponibles, y compris les trois dernières récemment ajoutées :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="3hih"&gt;&lt;b&gt;Certification Associate Data Practitioner&lt;/b&gt;&lt;br/&gt;Destinée aux data scientists, cette certification permet de valider leurs compétences et connaissances en matière de gestion des données sur Google Cloud, notamment leur capacité à garantir la qualité et la sécurité des données. Elle atteste également de la maîtrise des bonnes pratiques permettant de rendre les données exploitables par des modèles IA et de machine learning. Suivez ce &lt;a href="https://cloud.google.com/blog/topics/training-certifications/certification-research-ROI-value-of-training-ipsos-report-new-certs?e=48754805?utm_source%3Dcloud_sfdc&amp;amp;hl=en"&gt;parcours de formation&lt;/a&gt; pour vous préparer à l’examen.&lt;/li&gt;&lt;li data-block-key="ajftr"&gt;&lt;b&gt;Certification Associate Google Workspace Administrator&lt;/b&gt;&lt;br/&gt;Cette certification valide la maîtrise des compétences clés nécessaires pour administrer efficacement un environnement Google Workspace, y compris la gestion de l’assistant enrichi par l’IA. Suivez ce &lt;a href="https://www.cloudskillsboost.google/paths/24?utm_source=cgc-blog&amp;amp;utm_medium=blog&amp;amp;utm_campaign=FY25-Q1-global-certification-campaign&amp;amp;utm_content=gcsb-associate-google-workspace&amp;amp;utm_term=-" target="_blank"&gt;parcours de formation&lt;/a&gt; pour vous préparer à l’examen.&lt;/li&gt;&lt;li data-block-key="dprim"&gt;&lt;b&gt;Certification Professional Cloud Architect [Renouvellement]&lt;/b&gt;&lt;br/&gt;Prouvez vos compétences en tant qu’architecte cloud grâce à ce nouvel examen de re-certification simplifié, axé sur l’application de solutions d’IA générative pour relever des défis métiers concrets. Consultez &lt;a href="https://cloud.google.com/learn/certification/cloud-architect?hl=fr"&gt;ce guide&lt;/a&gt; pour vous préparer à l’examen.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="fn7on"&gt;L’effet certification : ils témoignent de leur expérience&lt;/h3&gt;&lt;p data-block-key="58ps4"&gt;De nombreux professionnels réinventent déjà leur trajectoire et donnent un nouvel élan à leurs équipes grâce aux certifications. Découvrez le témoignage d’un Chief Technology Officer, d’un architecte cloud senior, d’un risk manager ou encore d’un étudiant en systèmes d’information qui expliquent comment la certification a transformé leur quotidien :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=AJgjNd4e0R4"
      data-glue-modal-trigger="uni-modal-AJgjNd4e0R4-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/AJgjNd4e0R4/maxresdefault.jpg"
             alt="Google Cloud | Be ready for tomorrow. Get certified today."/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-AJgjNd4e0R4-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="AJgjNd4e0R4"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=AJgjNd4e0R4"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="5xhso"&gt;Avec l’accélération de l’innovation boostée par l’IA, la validation des compétences est devenue un incontournable — pour les experts du cloud comme pour les organisations. &lt;a href="https://cloud.google.com/learn/training/credentials?e=48754805&amp;amp;hl=fr"&gt;Découvrez toutes les possibilités que nous vous proposons pour faire reconnaître vos compétences&lt;/a&gt; ainsi que notre suite complète d’outils de formation sur skills.google.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 16 Dec 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/formations-et-certifications/obtenez-votre-certification-google-cloud-en-2025-decouvrez-etude-a-lappui-tout-ce-quelle-peut-vous-apporter/</guid><category>Training and Certifications</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/google_certification_2025.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Obtenez votre certification Google Cloud en 2025 : découvrez, étude à l’appui, tout ce qu’elle peut vous apporter</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/google_certification_2025.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/formations-et-certifications/obtenez-votre-certification-google-cloud-en-2025-decouvrez-etude-a-lappui-tout-ce-quelle-peut-vous-apporter/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Erin Rifkin</name><title>Google Cloud Learning, Managing Director</title><department></department><company></company></author></item><item><title>Découvrez Gemini Enterprise</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="pf7hk"&gt;&lt;i&gt;(Note de l'éditeur : Il s'agit d'une version abrégée du discours prononcé par Thomas Kurian pour annoncer Gemini Enterprise au cours d'un événement qui s'est tenu début octobre.)&lt;/i&gt;&lt;br/&gt;&lt;br/&gt;L'IA offre une opportunité unique de transformer votre façon de travailler, de gérer votre entreprise et de créer de la valeur pour vos clients. Cependant, la première vague d'IA, bien que prometteuse, est restée cloisonnée, incapable d'orchestrer des tâches complexes à l'échelle d'une organisation entière.&lt;br/&gt;&lt;br/&gt;Une véritable transformation nécessite une plateforme complète qui se connecte à votre contexte, à vos workflows et à vos équipes. C'est pourquoi nous sommes fiers de vous présenter aujourd'hui Gemini Enterprise, la nouvelle porte d'entrée de l'IA dans le monde du travail.&lt;br/&gt;&lt;br/&gt;Pour atteindre ce niveau de transformation, il faut une approche complète et globale de l'innovation, et c'est là que Google fait la différence. Notre force réside dans une infrastructure d'IA fiable, conçue pour répondre à des besoins spécifiques, et s'appuie sur les recherches pionnières de Google DeepMind ainsi que sur notre gamme polyvalente de modèles Gemini. Sundar Pichai évoque tout ceci plus en détail dans son &lt;a href="https://blog.google/products/google-cloud/gemini-enterprise-sundar-pichai" target="_blank"&gt;article&lt;/a&gt;.&lt;br/&gt;&lt;br/&gt;Cette pile complète boostée par l'IA est la raison pour laquelle neuf des dix plus grands laboratoires d'IA et la quasi-totalité des licornes du secteur font déjà confiance à Google Cloud. C'est pourquoi 65 % de nos clients utilisent nos produits d'IA, y compris Banco BV, Behr, Box, DBS Bank, Deloitte, Deutsche Telekom, Fairprice Group, le département de l'Énergie des États-Unis et &lt;a href="https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders?e=48754805"&gt;bien d'autres organisations dans le monde&lt;/a&gt;. Aujourd'hui, nous sommes fiers d'annoncer de nouvelles réussites en matière d'IA avec &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Figma-and-Google-Team-Up-to-Empower-Next-Generation-of-Creative-Builders" target="_blank"&gt;Figma&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Gap-Inc-Sets-Out-to-Reimagine-Retail-Powered-by-Google-Clouds-AI" target="_blank"&gt;GAP&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Gordon-Food-Service-Fuels-Digital-Transformation-and-AI-Powered-Growth-with-Gemini-Enterprise-and-Google-Workspace" target="_blank"&gt;Gordon Foods&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Klarna-and-Google-Cloud-Enter-Strategic-AI-Partnership-to-Bring-More-Creative-and-Engaging-Shopping-Experiences-to-Millions-of-Klarna-Users-Worldwide" target="_blank"&gt;Klarna&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Macquarie-Bank-Democratises-Agentic-AI,-Scaling-Customer-Innovation-with-Gemini-Enterprise" target="_blank"&gt;Macquarie Bank&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Melexis-and-Google-Cloud-Announce-Expanded-Strategic-Partnership-to-Accelerate-Enterprise-Wide-AI-Transformation" target="_blank"&gt;Melexis&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-SIGNAL-IDUNA-Rolls-Out-Gemini-Enterprise-for-over-10,000-Employees" target="_blank"&gt;Signal Iduna&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Valiuz-Partners-with-Google-Cloud-to-Accelerate-Employee-AI-Adoption-and-Transform-Business-Practices" target="_blank"&gt;Valiuz&lt;/a&gt; et &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Virgin-Voyages-Partners-with-Google-Cloud-to-Launch-a-Fleet-of-50-AI-Agents-on-Gemini-Enterprise,-Powering-a-Company-Wide-Transformation" target="_blank"&gt;Virgin Voyages&lt;/a&gt;. Nous sommes également fiers d'être le fournisseur de services cloud officiel des Jeux olympiques d'été de 2028 de Los Angeles, où Google Cloud apportera ses innovations en matière d'IA aux Jeux olympiques et paralympiques.&lt;br/&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=tGq5yUEo_AQ"
      data-glue-modal-trigger="uni-modal-tGq5yUEo_AQ-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/tGq5yUEo_AQ/maxresdefault.jpg"
             alt="Hear how Google Cloud is teaming up with LA28 to reimagine the Olympic &amp;amp; Paralympic Games experience"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-tGq5yUEo_AQ-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="tGq5yUEo_AQ"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=tGq5yUEo_AQ"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="pf7hk"&gt;&lt;b&gt;L'IA qui transforme votre façon de travailler&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8rnjd"&gt;Gemini Enterprise offre le meilleur de l'IA de Google à chaque collaborateur grâce à une interface de chat intuitive qui sert de point d'accès unique à l'IA sur le lieu de travail. Derrière cette interface simple, Gemini Enterprise unifie six composants essentiels :&lt;/p&gt;&lt;p data-block-key="1r5gc"&gt;La plate-forme repose sur les &lt;b&gt;modèles Gemini&lt;/b&gt; les plus avancés de Google, qui constituent le cerveau du système et offrent une intelligence de pointe pour chaque tâche.&lt;br/&gt;&lt;br/&gt;Grâce à un &lt;b&gt;workbench sans code&lt;/b&gt;, tout collaborateur, du service marketing aux équipes financières ou dans toute autre équipe, peut analyser des informations et orchestrer des agents pour automatiser les processus dans toute l'organisation.&lt;/p&gt;&lt;p data-block-key="5po66"&gt;Pour générer de la valeur dès le premier jour, Gemini Enterprise inclut une &lt;b&gt;suite d'agents Google prédéfinis&lt;/b&gt; pour des tâches spécialisées comme la recherche approfondie et l'analyse des données. Vous pouvez facilement l'enrichir avec des agents personnalisés créés par vos équipes ou avec des solutions issues de notre vaste écosystème de partenaires.&lt;/p&gt;&lt;p data-block-key="7u9br"&gt;Un agent n'est efficace que s'il dispose du contexte nécessaire pour agir. Gemini Enterprise &lt;b&gt;se connecte de façon sécurisée aux données de votre entreprise&lt;/b&gt;, où qu'elles se trouvent : Google Workspace, Microsoft 365, applications professionnelles comme Salesforce et SAP, etc.&lt;/p&gt;&lt;p data-block-key="9vcjt"&gt;Tout ceci est géré par un &lt;b&gt;framework de gouvernance centralisé&lt;/b&gt;, ce qui vous permet de visualiser, de sécuriser et d'auditer tous vos agents depuis un seul et même endroit.&lt;/p&gt;&lt;p data-block-key="el562"&gt;Et tout cela repose sur un principe d'ouverture, avec un &lt;b&gt;écosystème&lt;/b&gt; de plus de 100 000 partenaires. Cela garantit que les clients ont le choix et favorise l'innovation.&lt;/p&gt;&lt;p data-block-key="9pno9"&gt;En réunissant l'ensemble de ces composants dans une interface unique, Gemini Enterprise transforme la façon dont les équipes travaillent. Cette solution ne se limite pas aux tâches simples : elle permet d'automatiser des workflows entiers et d'obtenir des résultats plus efficaces, le tout sur l'architecture de Google sécurisée et taillée pour les entreprises.&lt;/p&gt;&lt;p data-block-key="na8o"&gt;Certaines entreprises proposent des modèles et des boîtes à outils d'IA, mais elles vous fournissent juste les composants, pas la plate-forme. Elles laissent à &lt;i&gt;vos&lt;/i&gt; équipes le soin de tout assembler. Mais ce n'est pas en combinant des composants que vous obtiendrez la transformation dont vous avez besoin.&lt;/p&gt;&lt;p data-block-key="7k2pp"&gt;Seul Gemini Enterprise fournit une plate-forme complète optimisée par l'IA, depuis nos TPU (Tensor Processing Units) sur mesure jusqu'à nos modèles Gemini de pointe, en passant par la plate-forme et les agents qui transforment les workflows. Il n'en faut pas moins pour créer une structure d'IA véritablement unifiée pour votre entreprise, et c'est pour cela que les clients utilisent déjà Gemini Enterprise :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7f2ie"&gt;Les responsables de la relation client de Banco BV passaient des heures à effectuer leurs propres analyses. Désormais, grâce à Gemini Enterprise, cette tâche est automatisée. Ils peuvent ainsi consacrer plus de temps à la conversion de nouveaux clients.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="44hme"&gt;Harvey est la principale IA spécifique aux services juridiques et professionnels, utilisée par les équipes juridiques des entreprises du classement Fortune 500. Grâce à Gemini, les avocats sont plus efficaces dans l'analyse des contrats, la diligence raisonnable, la conformité et les litiges, ce qui leur permet de gagner un temps précieux.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="7b45i"&gt;Macquarie Bank utilise Google Cloud IA pour lutter contre la fraude de façon efficace et proactive et proposer des fonctionnalités de libre-service en ligne, par exemple une fonctionnalité de recherche qui a permis de rediriger 38 % d'utilisateurs en plus vers le centre d'aide. Les faux positifs dans les alertes de protection des clients ont également baissé de 40 %.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=YEkyJaFmQ6o"
      data-glue-modal-trigger="uni-modal-YEkyJaFmQ6o-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/YEkyJaFmQ6o/maxresdefault.jpg"
             alt="Gordon Food Service empowers every employee with Gemini Enterprise"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-YEkyJaFmQ6o-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="YEkyJaFmQ6o"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=YEkyJaFmQ6o"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="pf7hk"&gt;Il ne s'agit pas seulement de simplifier une tâche. Il s'agit de rendre les workflows entiers plus intelligents en recherchant et en trouvant des informations dans tous les documents, applications, systèmes de messagerie et de chat de votre entreprise, et en automatisant les processus à l'aide d'agents avec n'importe laquelle de vos applications d'entreprise.&lt;/p&gt;&lt;p data-block-key="9851v"&gt;Gemini Enterprise souligne notre engagement envers une plate-forme ouverte. En effet, il fonctionne parfaitement dans les environnements Microsoft 365 et SharePoint. Et lorsque vous utilisez Gemini Enterprise avec Google Workspace, vous bénéficiez d'avantages supplémentaires. Aujourd'hui, nous annonçons le lancement du premier d'une longue série d'agents multimodaux qui exploitent la puissance de Gemini pour comprendre et créer du texte, des images, des vidéos et des contenus vocaux, directement intégrés aux applications Workspace que vous utilisez déjà.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1527p"&gt;&lt;b&gt;Vidéos&lt;/b&gt; : avec Google Vids, vous pouvez désormais transformer un type d'informations, comme une présentation, en une vidéo attrayante, avec un script et une voix off générés par l'IA. Avec 2,5 millions d'utilisateurs chaque mois, Vids rencontre déjà un engouement incroyable.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="69g2d"&gt;&lt;b&gt;Voix&lt;/b&gt; : dans Google Meet, nous proposons la traduction vocale en temps réel à tous les clients professionnels. Cette fonctionnalité ne se limite pas aux mots. Elle capture votre ton et votre expression naturels pour rendre les conversations fluides, quelle que soit votre langue. Elle s'appuie sur les données issues de notre fonctionnalité Prendre des notes pour moi, dont l'utilisation a été multipliée par plus de 13 depuis le début de l'année.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="8g1hd"&gt;Un agent n'est efficace que si son contexte l'est également. Gemini Enterprise s'intègre aux données de votre organisation, où qu'elles se trouvent, pour créer ce contexte et fournir des résultats utiles, précis et fiables. Aujourd'hui, nous annonçons les nouveautés suivantes dans Gemini Enterprise :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="46kf7"&gt;Un nouveau &lt;b&gt;Data Science Agent&lt;/b&gt;, disponible en preview, pour automatiser l'ingestion des données et le formatage des données brutes (data wrangling). Il accélère l'exploration détaillée des données en identifiant instantanément des schémas et simplifie le développement de modèles complexes en générant des plans en plusieurs étapes pour l'entraînement et l'inférence, ce qui élimine le réglage manuel et itératif.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bon46"&gt;Des clients comme Morrisons, Vodafone et Walmart utilisent déjà cet agent pour accélérer leurs workflows de données et effacer les points de friction dans l'expérience client.&lt;/p&gt;&lt;h3 data-block-key="es5h6"&gt;&lt;b&gt;L'IA qui transforme votre façon de gérer votre entreprise&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="e3n2g"&gt;&lt;br/&gt;L'engagement client est l'un des cas d'utilisation les plus importants de l'IA. Customer Engagement Suite, notre solution d'IA conversationnelle pour le Web, les applications mobiles, les centres d'appel et les points de vente, travaille aux côtés de vos conseillers clientèle pour répondre aux questions par chat et par téléphone, et pour effectuer des actions. L'impact commercial est réel, et les entreprises leaders en constatent déjà les résultats :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="dbbmv"&gt;Commerzbank a été l'une des premières entreprises à adopter Customer Engagement Suite, qu'elle a utilisée pour créer Bene, son propre chatbot spécialisé. Pour améliorer encore davantage l'expérience, la banque utilise désormais Gemini, qui gère plus de deux millions de discussions par chat et résout 70 % des demandes.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="e25jf"&gt;Mercari, la plus grande place de marché en ligne du Japon, repense son centre de contact avec l'IA de Google pour offrir une expérience de service client basée sur l'IA. L'entreprise prévoit d'obtenir un ROI de 500 % en réduisant la charge de travail des agents du service client d'au moins 20 %.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="aj1cd"&gt;Aujourd'hui, nous annonçons le lancement en preview d'agents conversationnels de nouvelle génération qui se connectent directement à Gemini Enterprise. Ces agents apportent des améliorations sur quatre niveaux :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="36r0m"&gt;&lt;b&gt;La façon dont vous créez&lt;/b&gt; : nous lançons un nouveau générateur visuel nécessitant peu de code et facile à utiliser. Vous pouvez créer un agent d'engagement client une seule fois et le configurer pour tous vos canaux : téléphonie, Web, mobile, e-mail et chat. Ces nouveaux agents prennent en charge plus de 40 langues.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="ejoie"&gt;&lt;b&gt;L'intelligence sous-jacente&lt;/b&gt; : ces agents nouvelle génération sont basés sur nos derniers modèles Gemini. Ils offrent des voix incroyablement naturelles et peuvent gérer les transitions d'accent et les bruits ambiants dus à une mauvaise connexion téléphonique avec une justesse et une latence inégalées dans le secteur.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="3ginf"&gt;&lt;b&gt;Votre délai de rentabilisation&lt;/b&gt; : les nouveaux services d'augmentation par l'IA et les agents spécialisés prédéfinis permettent aux créateurs d'agents de créer, tester, déployer et surveiller des agents plus rapidement que jamais. De plus, nous utilisons le coaching assisté par l'IA pour accroître considérablement la productivité de vos équipes. Cela rend l'ensemble de votre centre de contact plus efficace, qu'il soit humain ou numérique.&lt;/li&gt;&lt;li data-block-key="92j58"&gt;&lt;b&gt;Intégration poussée dans l'entreprise&lt;/b&gt; : ces agents sont conçus pour se connecter directement à Gemini Enterprise. Cela vous offre deux avantages clés : une personnalisation approfondie, grâce au contexte en temps réel de tous vos systèmes d'entreprise, et une gouvernance unifiée, qui vous permet de gérer tous vos agents depuis la même plate-forme centrale.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="5msq5"&gt;&lt;b&gt;L'IA qui transforme vos créations&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="9llec"&gt;La transformation ultime consiste à utiliser l'IA pour créer des expériences entièrement inédites pour vos clients. Pour cela, vous devez tout d'abord donner aux développeurs les moyens d'élaborer vos agents et vos applications. Lancée il y a seulement trois mois, la &lt;a href="http://geminicli.com/" target="_blank"&gt;CLI Gemini&lt;/a&gt; a déjà séduit un million de développeurs. Cet agent IA leur permet d'interagir avec les modèles Gemini de Google directement depuis un terminal pour automatiser des tâches, générer du code et effectuer des recherches en langage naturel. C'est devenu un outil essentiel pour les développeurs du monde entier, dont les workflows sont chaque jour plus complexes. La meilleure IA ne doit pas vous obliger à changer de contexte, mais s'adapter à votre chaîne d'outils.&lt;/p&gt;&lt;p data-block-key="aiehe"&gt;C'est pourquoi nous avons lancé des &lt;a href="https://blog.google/technology/developers/gemini-cli-extensions/" target="_blank"&gt;extensions pour la CLI Gemini&lt;/a&gt;. Ce nouveau framework vous permet de personnaliser votre IA en ligne de commande et de la connecter aux services que vous utilisez le plus. Vous pouvez ainsi créer un workflow plus intelligent et personnalisé grâce à un écosystème toujours plus vaste d'extensions, proposées par Google et des leaders du secteur comme Atlassian, GitLab, MongoDB, Postman, Shopify, Stripe et plus encore. De cette façon, votre CLI n'est plus un simple outil, mais un centre de commande personnalisé.&lt;/p&gt;&lt;p data-block-key="7b30m"&gt;L'innovation basée sur les agents donne naissance à une toute nouvelle économie des agents, où les développeurs, les éditeurs de logiciels indépendants et les partenaires peuvent créer des agents spécialisés qui communiquent et effectuent des transactions entre eux, et générer des revenus grâce à ces agents. Pour ce faire, nous avons collaboré avec le secteur sur une norme ouverte appelée &lt;a href="https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/" target="_blank"&gt;protocole Agent2Agent (A2A)&lt;/a&gt; qui, avec le protocole MCP (Model Context Protocol), définit les normes de communication entre les agents.&lt;/p&gt;&lt;p data-block-key="euhbo"&gt;Mais pour que les agents soient vraiment autonomes, ils doivent pouvoir réaliser des transactions. Pour permettre aux agents d'effectuer des paiements de façon sécurisée et auditable, nous avons annoncé le mois dernier un nouveau protocole ouvert : le &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/announcing-agents-to-payments-ap2-protocol?e=48754805"&gt;protocole AP2 (Agent Payments Protocol)&lt;/a&gt;. Il s'agit d'une initiative unique en son genre, développée avec plus de 100 partenaires technologiques et de paiement, comme American Express, Coinbase, Intuit, Mastercard, PayPal, ServiceNow et Salesforce, pour standardiser la façon dont les agents gèrent les transactions financières.&lt;/p&gt;&lt;p data-block-key="e8gr2"&gt;En collaborant avec nos partenaires et la communauté au sens large en vue d'élaborer des protocoles standardisés pour le contexte, la communication, le commerce et d'autres aspects clés, nous posons les bases de l'économie des agents.&lt;/p&gt;&lt;p data-block-key="370ck"&gt;Nos clients intègrent également nos modèles Gemini directement à leurs produits :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1lqrt"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Klarna-and-Google-Cloud-Enter-Strategic-AI-Partnership-to-Bring-More-Creative-and-Engaging-Shopping-Experiences-to-Millions-of-Klarna-Users-Worldwide" target="_blank"&gt;Klarna&lt;/a&gt; utilise des outils comme Gemini et Veo pour créer des lookbooks sur mesure, dynamiques, personnalisés et percutants pour les acheteurs, ce qui a permis d'augmenter les commandes de 50 %.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="9l59f"&gt;Mercedes-Benz conçoit des véhicules dotés de l'IA de Google qui peuvent parler à leurs conducteurs. Le constructeur utilise Automotive AI Agent de Google Cloud, qui s'appuie sur Gemini sur Vertex AI pour alimenter son assistant virtuel MBUX. Celui-ci permet d'avoir des conversations naturelles et fournit des réponses personnalisées aux automobilistes pour la navigation ou encore la recherche de points d'intérêt.&lt;br/&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=ijqTReRzG8M"
      data-glue-modal-trigger="uni-modal-ijqTReRzG8M-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/ijqTReRzG8M/maxresdefault.jpg"
             alt="Mercedes &amp;amp; Google Cloud: The AI Technology Behind the CLA’s Navigation Assistant"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-ijqTReRzG8M-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="ijqTReRzG8M"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=ijqTReRzG8M"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ul&gt;&lt;li data-block-key="pf7hk"&gt;Swarovski crée une expérience client personnalisée avec Vertex AI, qui se traduit par une augmentation de 17 % du taux d'ouverture des e-mails et une localisation des campagnes dix fois plus rapide.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3ohmo"&gt;Cette transformation ne se limite pas au code. Notre famille de modèles Gemini a été utilisée pour créer plus de 13 milliards d'images et 230 millions de vidéos. Par exemple :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="2fj1h"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Figma-and-Google-Team-Up-to-Empower-Next-Generation-of-Creative-Builders" target="_blank"&gt;Figma&lt;/a&gt; aide sa communauté à créer plus facilement que jamais. Grâce aux outils de sa plate-forme basés sur le modèle Gemini 2.5 Flash Image (plus communément appelé Nano Banana), ses utilisateurs peuvent désormais créer des images de haute qualité et adaptées à leur marque à partir d'un simple prompt, modifier les détails avec l'IA et obtenir toute la variété dont leur projet a besoin.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="1p470"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Virgin-Voyages-Partners-with-Google-Cloud-to-Launch-a-Fleet-of-50-AI-Agents-on-Gemini-Enterprise,-Powering-a-Company-Wide-Transformation" target="_blank"&gt;Virgin Voyages&lt;/a&gt; utilise la fonctionnalité de conversion texte-vers-vidéo de Veo et Imagen pour créer des milliers d'annonces et d'e-mails hyperpersonnalisés, chacun correspondant parfaitement à la voix unique de la marque, à une échelle qui aurait été impossible il y a un an à peine.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="84djl"&gt;Le nombre de clients qui utilisent nos modèles d'IA dans Vertex continue de croître, y compris des grandes marques comme Adobe, Cathay Pacific, Kraft-Heinz, LATAM Airlines, Toyota, Unilever et bien d'autres.&lt;/p&gt;&lt;h3 data-block-key="8639a"&gt;&lt;b&gt;L'avenir de l'IA doit être ouvert&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="4ssce"&gt;La stratégie d'IA de Google Cloud repose sur une conviction fondamentale : l'avenir de l'IA nécessite un écosystème de partenaires ouvert et collaboratif pour garantir que les clients ont le choix. Pour concrétiser cette vision, nous avons créé un écosystème complet d'IA agentive avec plus de 100 000 partenaires qui sous-tendent tous les niveaux de notre pile d'IA : infrastructure d'IA, outils IA, éditeurs indépendants et partenaires de services. Aujourd'hui, nous faisons &lt;a href="https://cloud.google.com/blog/topics/partners/partners-powering-the-gemini-enterprise-agent-ecosystem"&gt;progresser&lt;/a&gt; cet écosystème de quatre manières essentielles :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="8gu2g"&gt;&lt;b&gt;Workflows multiplates-formes étendus&lt;/b&gt; : nous élargissons notre collaboration avec des partenaires comme Box, OpenText, ServiceNow et Workday, des outils que vous utilisez au quotidien, pour proposer des workflows multiplates-formes sophistiqués prêts à l'emploi.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="eg85o"&gt;&lt;b&gt;Scaling avec nos partenaires&lt;/b&gt; : des partenaires de premier plan, comme BCG, Capgemini, HCLTech, Infosys, McKinsey, TCS, Wipro et bien d'autres peuvent vous aider à planifier, déployer et développer des agents personnalisés pour accélérer votre adoption de Gemini Enterprise. Par ailleurs, Accenture, Cognizant, Deloitte, KPMG et PwC annoncent aujourd'hui leur adoption interne et l'élargissement de leurs services pour Gemini Enterprise.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="78sj8"&gt;&lt;b&gt;Recherche d'agents validés&lt;/b&gt; : les clients peuvent désormais utiliser un nouvel&lt;a href="http://cloud.withgoogle.com/agentfinder" target="_blank"&gt; AI Agent Finder&lt;/a&gt; pour trouver l'agent adapté à leurs besoins. Ils ont ainsi l'assurance que les milliers d'agents qu'ils peuvent désormais trouver, filtrer et déployer ont été vérifiés en termes de sécurité et d'interopérabilité.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="feldm"&gt;&lt;b&gt;Commercialisation et monétisation des agents&lt;/b&gt; : les partenaires créateurs d'agents IA bénéficient d'un moyen simple et efficace de commercialiser leurs solutions et d'en tirer des revenus, en les mettant instantanément en relation avec des millions de clients Google Cloud.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="72gb5"&gt;&lt;b&gt;Faciliter votre transformation&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="408p7"&gt;Un tel niveau de transformation implique le perfectionnement des compétences de vos équipes. C'est pourquoi &lt;a href="https://cloud.google.com/blog/topics/training-certifications/google-skills-new-home-AI-learning"&gt;nous lançons aujourd'hui&lt;/a&gt; un ensemble complet de programmes pour vous aider à réussir.&lt;br/&gt;&lt;br/&gt;Pour développer les compétences de l'ensemble de vos collaborateurs, nous lançons &lt;b&gt;Google Skills&lt;/b&gt;, notre nouvelle plate-forme qui propose gratuitement des formations Google, de Gemini Enterprise à Google DeepMind. Sur cette plate-forme, nous annonçons le &lt;b&gt;programme Gemini Enterprise Agent Ready (GEAR)&lt;/b&gt;, un nouveau parcours pédagogique conçu pour permettre à un million de développeurs de créer et de déployer des agents. &lt;a href="http://goo.gle/google-skills" target="_blank"&gt;Cliquez ici&lt;/a&gt; pour être parmi les premiers à utiliser Google Skills et pour manifester votre intérêt pour GEAR.&lt;/p&gt;&lt;p data-block-key="977c1"&gt;Pour les organisations qui souhaitent s'adjoindre les services de nos experts, nous sommes fiers d'annoncer la création d'une nouvelle équipe, Delta : un groupe d'ingénieurs en IA de Google qui vous aideront à relever vos défis les plus complexes.&lt;/p&gt;&lt;p data-block-key="t2ov"&gt;Ces programmes ont tous un objectif commun : vous aider, vous et vos équipes, à construire votre avenir avec l'IA.&lt;/p&gt;&lt;h3 data-block-key="39gv5"&gt;&lt;b&gt;Les bases de votre avenir&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="4ibme"&gt;À l'heure où l'IA transforme les entreprises du monde entier, Google est le seul partenaire à proposer une gamme complète d'offres que vous pouvez adapter aux besoins de votre organisation. Et surtout, nous vous offrons une réelle valeur ajoutée pour vous aider à rentabiliser vos investissements dans l'IA.&lt;br/&gt;&lt;br/&gt;C'est tout le potentiel de Gemini Enterprise, la nouvelle porte d'entrée de l'IA dans le monde du travail. Nous mettons le meilleur de l'IA de Google à la disposition de chaque collaborateur, pour chaque workflow, et nous sommes là pour vous aider à chaque étape.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 12 Dec 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</guid><category>Inside Google Cloud</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/2436_x_1200_logo_lockup.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Découvrez Gemini Enterprise</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/2436_x_1200_logo_lockup.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Thomas Kurian</name><title>CEO, Google Cloud</title><department></department><company></company></author></item><item><title>Redéfinir les données d’entreprise grâce aux agents et aux fondations IA-natives</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;Le monde ne se contente pas de changer : il se reconstruit, se réinvente, sous nos yeux, propulsé par la donnée et l’intelligence artificielle. Notre rapport aux données se métamorphose. Nous entrons dans une nouvelle ère, &lt;i&gt;l’ère agentique&lt;/i&gt;, où l’analyse n’est plus le seul fruit de l’expertise humaine mais repose sur une synergie collaborative avec des agents IA capables d’agir, d’apprendre et de coopérer entre eux et avec l’humain pour libérer des insights à une vitesse et une ampleur inédite.&lt;br/&gt; Depuis le début, chez Google Cloud, nous ne voulons pas rester spectateurs de cette transformation : à l’inverse nous bâtissons les fondations de l’IA, les modèles, les écosystèmes interconnectés et les plateformes de données « IA natives » qui l’alimentent.&lt;/p&gt;&lt;p data-block-key="dg2oj"&gt;Pour rendre cette réalité agentique possible, il faut un autre type de plateforme de données : non pas une collection d’outils en silos, mais un cloud unique, unifié et natif de l’IA. C’est justement ce qu’est Google Data Cloud.&lt;br/&gt;Au cœur de cette plateforme, nos moteurs analytiques et opérationnels unifiés effacent la fracture historique entre données transactionnelles métiers et analyses stratégiques. Google Data Cloud offre ainsi aux agents une compréhension complète et en temps réel de l’entreprise, transformant celle-ci d’un ensemble de processus en une organisation auto-analytique, auto-optimisée et fiable.&lt;/p&gt;&lt;p data-block-key="blcpl"&gt;Pour donner corps à cette vision, nous lançons trois innovations majeures :&lt;/p&gt;&lt;p data-block-key="fbtbf"&gt;* &lt;b&gt;Une collection d’agents de données nouvelle génération&lt;/b&gt; : des agents d’IA spécialisés, conçus pour agir comme partenaires experts auprès de tous les utilisateurs de données, qu’il s’agisse de data-scientists, d’ingénieurs ou d’analystes métier.&lt;/p&gt;&lt;p data-block-key="4vu2c"&gt;* &lt;b&gt;Un réseau interconnecté pour la collaboration entre agents &lt;/b&gt;: un ensemble d’API, d’outils et de protocoles permettant aux développeurs d’intégrer les agents Google à leurs propres agents et projets IA, créant ainsi un écosystème intelligent unifié.&lt;/p&gt;&lt;p data-block-key="fmavg"&gt;* &lt;b&gt;Une fondation unifiée et IA native &lt;/b&gt;: une plateforme qui rend possible l’action d’agents intelligents en unifiant les données, en offrant une mémoire persistante et en intégrant un raisonnement piloté par l’IA.&lt;/p&gt;&lt;h3 data-block-key="dgq0i"&gt;Des agents de données experts à vos côtés&lt;/h3&gt;&lt;p data-block-key="2ik1o"&gt;Bienvenue dans l’ère agentique : une nouvelle force de travail vous assiste, composée d’agents IA spécialisés, conçus pour comprendre vos intentions et les transformer instantanément en actions concrètes grâce à une interface pensée IA dès le départ.&lt;/p&gt;&lt;p data-block-key="d51vs"&gt;* &lt;b&gt;Pour les data engineers &lt;/b&gt;: nous lançons un Data Engineering Agent dans BigQuery afin de simplifier et automatiser les pipelines de données complexes. Il est désormais possible d’utiliser des requêtes en langage naturel pour fluidifier l’ensemble du workflow, depuis l’ingestion des données issues de sources comme Google Cloud Storage jusqu’aux transformations et au contrôle de la qualité des données. Il suffit de décrire ce dont vous avez besoin. Par exemple, il suffit de demander &lt;i&gt;« Crée un pipeline pour charger un fichier CSV, nettoyer ces colonnes et le joindre à une autre table »&lt;/i&gt; et l’agent génère et orchestre automatiquement l’ensemble du processus.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_YdkRyqo.gif"
        
          alt="Fig. 1 – Data Engineering Agent en action pour l’automatisation de pipelines de données complexes"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;Fig. 1 – Data Engineering Agent en action pour l’automatisation de pipelines de données complexes&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;&lt;b&gt;* Pour les data scientists&lt;/b&gt; : nous repensons l’expérience &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/ai-first-colab-notebooks-in-bigquery-and-vertex-ai"&gt;Colab Enterprise Notebook&lt;/a&gt; avec une logique IA-native, intégrée à BigQuery et Vertex AI. Au cœur de cette évolution : le &lt;i&gt;Data Science Agent&lt;/i&gt;, propulsé par Gemini, prend en charge des workflows entiers, de l’analyse exploratoire au nettoyage, de la création de features aux prédictions ML. Il planifie, code, interprète les résultats et restitue ses insights, tout en restant interactif : vous pouvez corriger, commenter et collaborer en temps réel avec lui.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/2_ErovIfP.gif"
        
          alt="Fig. 2 – Data science agent métamorphose chaque étape des tâches de science des données"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;Fig. 2 – Data science agent métamorphose chaque étape des tâches de science des données&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;&lt;b&gt;* Pour les utilisateurs métiers et les analystes&lt;/b&gt; : l’an dernier, nous avions lancé le &lt;i&gt;Conversational Analytics Agent&lt;/i&gt;, permettant d’interroger ses données en langage naturel. Place désormais à &lt;i&gt;Code Interpreter&lt;/i&gt;, pensé pour répondre aux questions stratégiques qu’une requête SQL simple ne suffit pas à résoudre. Par exemple : &lt;i&gt;« Réaliser une analyse de segmentation client pour regrouper les clients en cohortes distinctes »&lt;/i&gt;. Grâce au raisonnement avancé de Gemini 2.5 et au savoir-faire de DeepMind, l’agent &lt;i&gt;Code Interpreter&lt;/i&gt; traduit des questions en langage naturel en code Python exécutable, explique clairement chaque étape et génère des visualisations interactives. out ça, directement dans l’environnement gouverné et sécurisé de Google Data Cloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/3_YlX9gTN.gif"
        
          alt="Fig. 3 – Exemple de BI conversationnelle avec Code Interpreter pour des analyses avancées"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="p3s5o"&gt;Fig. 3 – Exemple de BI conversationnelle avec Code Interpreter pour des analyses avancées&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;Construire un écosystème d'agents IA interconnectés&lt;/h3&gt;&lt;p data-block-key="6qa6q"&gt;Imaginez un monde où les agents intelligents ne travaillent pas en vase clos, mais se connectent, s’enrichissent mutuellement et s’intègrent à vos propres outils. Google Cloud propose une plateforme ouverte où les développeurs ne se contentent pas d’utiliser ce qui existe, mais créent des liens, ajoutent leurs briques et bâtissent un réseau plus vaste et puissant d’agents collaborants.&lt;/p&gt;&lt;p data-block-key="5pkvb"&gt;Nos agents propriétaires offrent des fonctionnalités puissantes, prêtes à l’emploi, ainsi que des éléments fondamentaux — API, outils et protocoles — permettant de créer des agents personnalisés, d’intégrer l’intelligence conversationnelle dans des applications existantes et d’orchestrer des flux de travail complexes, multi-agents, capables de résoudre des problématiques métier uniques.&lt;/p&gt;&lt;p data-block-key="cadqb"&gt;Et pour concrétiser cette vision, nous lançons les &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/reference/rest"&gt;&lt;i&gt;Gemini Data Agents APIs&lt;/i&gt;&lt;/a&gt;, dont la première est la nouvelle &lt;i&gt;Conversational Analytics API&lt;/i&gt;. Cette API fournit les briques nécessaires pour intégrer directement dans vos applications, produits et workflows, les puissantes capacités de traitement du langage naturel de Looker ainsi que celles de l’agent &lt;i&gt;Code Interpreter&lt;/i&gt;. Elle permet ainsi de créer des expériences data uniques, taillées pour vos besoins métiers spécifiques.&lt;/p&gt;&lt;p data-block-key="cpg8o"&gt;Il est temps d’aller plus loin que les simples expériences conversationnelles : place à la création d’agents sur mesure, bâtis de toutes pièces. Avec la &lt;b&gt;Data Agents API&lt;/b&gt; et l’&lt;b&gt;ADK (&lt;/b&gt;&lt;a href="https://developers.googleblog.com/en/agent-development-kit-easy-to-build-multi-agent-applications/" target="_blank"&gt;&lt;b&gt;Agent Development Kit&lt;/b&gt;&lt;/a&gt;&lt;b&gt;)&lt;/b&gt;, les entreprises peuvent façonner des agents spécialisés qui épousent leurs propres processus métier. Le tout repose sur un socle de confiance solide et sécurisé : le &lt;b&gt;Model Context Protocol (MCP)&lt;/b&gt;, renforcé par notre boîte à outils &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/mcp-toolbox-for-databases-now-supports-model-context-protocol"&gt;&lt;b&gt;MCP Toolbox for Databases&lt;/b&gt;&lt;/a&gt; et par notre nouveau &lt;a href="https://googleapis.github.io/genai-toolbox/resources/tools/looker/" target="_blank"&gt;&lt;b&gt;Looker MCP Server&lt;/b&gt;&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/4_v0frcSc.gif"
        
          alt="Fig. 4 – Interrogation de la couche sémantique depuis le serveur Looker MCP via le Gemini CLI."&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;Une base de données unifiée et native à l’IA&lt;/h3&gt;&lt;p data-block-key="6uoai"&gt;Les agents intelligents, ainsi que les réseaux qu’ils forment, ne peuvent se contenter d’une infrastructure de données traditionnelle. Ils ont besoin d’un socle “cognitif” qui rassemble toutes les données de l’entreprise, offre de nouvelles capacités pour comprendre le sens et procure une mémoire persistante sur laquelle raisonner.&lt;/p&gt;&lt;p data-block-key="ad416"&gt;Pour que cette base « native IA » tienne toutes ses promesses, elle doit réconcilier données transactionnelles temps réel et données analytiques historiques et donc combiner systèmes OLTP et OLAP. Nous avons ouvert la voie avec un &lt;a href="https://cloud.google.com/blog/products/databases/alloydb-for-postgresql-columnar-engine?e=48754805"&gt;moteur en colonnes pour AlloyDB&lt;/a&gt;, qui a boosté l’analytique des workloads PostgreSQL.&lt;br/&gt;Aujourd’hui nous franchissons un nouveau cap de performances : avec notre nouveau moteur colonnaire pour Spanner (le &lt;a href="https://cloud.google.com/blog/products/databases/spanners-columnar-engine-unites-oltp-and-analytics"&gt;Spanner Columnar Engine&lt;/a&gt;), notre base de données à très grande échelle, certaines requêtes analytiques s’exécutent jusqu’à 200 fois plus vite (que sur le stockage en ligne classique) directement sur vos données transactionnelles.&lt;br/&gt;Dans le cadre de notre &lt;b&gt;Data Cloud unifié&lt;/b&gt;, cette innovation profite aussi directement à notre moteur analytique &lt;a href="https://cloud.google.com/spanner/docs/databoost/databoost-overview"&gt;&lt;b&gt;Data Boost&lt;/b&gt;&lt;/a&gt; dans&lt;b&gt; BigQuery&lt;/b&gt;, qui exploite le moteur colonnaire de Spanner pour réduire l’écart entre charges transactionnelles et analytiques et accélérer l’analyse des données opérationnelles en temps réel.&lt;/p&gt;&lt;p data-block-key="1rb17"&gt;Un tel plan de données unifié en place, un autre enjeu clé demeure : doter les agents IA d’une mémoire solide, enracinée dans les faits de l’entreprise. Pour être fiables et éviter les hallucinations, ces derniers doivent s’appuyer sur le &lt;b&gt;RAG (Retrieval-Augmented Generation)&lt;/b&gt;. Son efficacité dépend d’une recherche vectorielle capable de naviguer aussi bien dans les données opérationnelles en temps réel que dans les archives analytiques profondes. C’est pourquoi nous avons intégré ces capacités de recherche et de génération directement au cœur de nos fondations data : vos agents peuvent ainsi puiser, en un instant, dans toute la mémoire transactionnelle et analytique de l’entreprise.&lt;/p&gt;&lt;p data-block-key="9fbk4"&gt;Optimiser la recherche vectorielle est un vrai casse-tête : son usage implique souvent de douloureux compromis entre vitesse, précision et complexité opérationnelle. Dans &lt;b&gt;AlloyDB AI&lt;/b&gt;, de nouvelles fonctionnalités, comme le &lt;b&gt;filtrage adaptatif (Preview)&lt;/b&gt; résolvent ce défi pour la mémoire transactionnelle, en maintenant automatiquement les index vectoriels et en optimisant les requêtes rapides sur les données opérationnelles en temps réel.&lt;br/&gt; Parallèlement, pour offrir une mémoire analytique plus profonde, nous introduisons des &lt;b&gt;vector embeddings autonomes&lt;/b&gt; et la génération dans &lt;b&gt;BigQuery&lt;/b&gt;. Désormais, BigQuery peut automatiquement préparer et indexer des données multimodales pour la recherche vectorielle, une étape essentielle pour construire une mémoire sémantique riche et durable pour vos agents IA.&lt;/p&gt;&lt;p data-block-key="85m9c"&gt;Enfin, par‑dessus ces données unifiées et accessibles, nous intégrons directement des capacités de raisonnement de l’IA dans nos moteurs de requêtes. Avec le nouveau &lt;b&gt;AI Query Engine dans BigQuery (Preview)&lt;/b&gt;, tous les professionnels de la donnée peuvent exécuter des calculs enrichis par l’IA, aussi bien sur des données structurées que non structurées, directement au sein de BigQuery. Ils obtiennent ainsi rapidement et simplement des réponses à des questions subjectives et complexes, comme : &lt;i&gt;« Parmi ces avis clients, lesquels semblent exprimer le plus de frustration ? »&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_vEIO71S.max-1000x1000.png"
        
          alt="AI Query Engine apporte la puissance des LLM (Large Language Models) directement dans SQL."&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;AI Query Engine apporte la puissance des LLM (Large Language Models) directement dans SQL.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;L’avenir est agentique&lt;/h3&gt;&lt;p data-block-key="918fa"&gt;Toutes ces annonces — des agents spécialisés pour chaque utilisateur jusqu’à la fondation native IA qui les alimente — représentent bien plus qu’une simple feuille de route. Elles constituent les briques essentielles d’une nouvelle entreprise « agentique ». Désormais, toute une main-d’œuvre d’agents intelligents peut collaborer dans un réseau ouvert, interconnecté et s’appuyer sur un cloud unifié qui gomme la frontière entre données opérationnelles et analytiques. Vous disposez ainsi d’une plateforme qui vous met en position d’innovateur, pas seulement d’intégrateur.&lt;br/&gt; C’est une rupture majeure : l’analyse des données ne repose plus sur les seuls efforts humains, mais sur un puissant partenariat entre vos équipes et des agents IA.&lt;/p&gt;&lt;p data-block-key="bvuch"&gt;L’ère agentique est là. Nous avons hâte de voir ce que vous en ferez — et vous invitons à embarquer dans ce passionnant voyage dès aujourd’hui pour redéfinir les possibles de la donnée.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 09 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Redéfinir les données d’entreprise grâce aux agents et aux fondations IA-natives</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Yasmeen Ahmad</name><title>Managing Director, Data Cloud, Google Cloud</title><department></department><company></company></author></item><item><title>Boostez vos projets IA avec l’architecture de référence GKE pour passer plus facilement de l’expérimentation à la production</title><link>https://cloud.google.com/blog/fr/topics/developers-practitioners/boostez-vos-projets-ia-avec-larchitecture-de-reference-gke-pour-passer-plus-facilement-de-lexperimentation-a-la-production/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="e6da7"&gt;Nous sommes définitivement entrés dans l’ère de l’IA. Partout dans le monde, les organisations s’empressent de déployer des modèles toujours plus puissants pour stimuler l’innovation, enrichir leur offre et inventer de nouvelles expériences utilisateurs.&lt;br/&gt; Néanmoins, transformer un modèle entraîné en laboratoire en un service d’inférence scalable, rentable et prêt pour la mise en production reste un défi d’ingénierie majeur. Cela demande une expertise pointue en infrastructure, réseau, sécurité, ainsi qu’une maîtrise de tous les domaines « Ops » : MLOps, LLMOps, DevOps, etc.&lt;/p&gt;&lt;p data-block-key="afp56"&gt;Aujourd’hui, nous simplifions radicalement cette étape ! Nous lançons « l’architecture de référence GKE pour l’inférence » (&lt;i&gt;GKE inference reference architecture)&lt;/i&gt; : une solution complète, prête pour le passage en production et conçue pour le déploiement de vos workloads d’inférence sur Google Kubernetes Engine (GKE).&lt;/p&gt;&lt;p data-block-key="bbuu"&gt;Bien plus qu’un simple guide, cette architecture de référence propose un framework prêt à l’emploi, opérationnel, automatisé et prescriptif, conçu pour offrir le meilleur de GKE pour l’inférence.&lt;/p&gt;&lt;h3 data-block-key="4hi1n"&gt;Démarrez avec des fondations solides : GKE base platform&lt;/h3&gt;&lt;p data-block-key="bf2sr"&gt;Toute architecture solide commence par des fondations fiables : notre architecture de référence pour l’inférence de modèles IA s’appuie sur GKE base platform, une couche fondamentale fournissant une configuration sécurisée et optimisée pour exécuter tout type de workload nécessitant un accélérateur matériel (GPU, TPU).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/architecture_xZPaLzq.max-2200x2200.png"
        
          alt="GKE1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="e6da7"&gt;Reposant sur les principes de l’infrastructure-as-code (IaC) et sur Terraform, cette plateforme de base pose les fondations solides d’un environnement optimal pour l’inférence, avec à la clé les atouts suivants:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="57jdk"&gt;&lt;b&gt;Des déploiements automatisés et reproductibles&lt;/b&gt; : garantissez la cohérence de vos environnements et facilitez le versioning grâce au provisioning automatisé de vos ressources avec des scripts IaC.&lt;/li&gt;&lt;li data-block-key="248c2"&gt;&lt;b&gt;Scalabilité et haute disponibilité intégrées&lt;/b&gt; : profitez d’une configuration qui prend nativement en charge l’autoscaling et la tolérance aux pannes.&lt;/li&gt;&lt;li data-block-key="2calk"&gt;&lt;b&gt;Bonnes pratiques de sécurité&lt;/b&gt; : protégez vos environnements critiques en appliquant dès le début du projet les meilleures pratiques : clusters privés, nœuds GKE protégés (&lt;i&gt;Shielded GKE Nodes&lt;/i&gt;) et gestion sécurisée des artefacts.&lt;/li&gt;&lt;li data-block-key="1el3o"&gt;&lt;b&gt;Observabilité intégrée&lt;/b&gt; : bénéficiez d’une visibilité complète sur vos applications et votre infrastructure, grâce à l’intégration native avec Google Cloud Observability.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/observability.max-1000x1000.png"
        
          alt="GKE2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="e6da7"&gt;En vous appuyant sur cette base GKE standardisée, vous bénéficiez dès le départ d’un socle sécurisé, évolutif et simple à administrer, ce qui permet d’accélérer la mise en production de vos projets.&lt;/p&gt;&lt;h3 data-block-key="159ua"&gt;Pourquoi une plateforme optimisée pour l’inférence ?&lt;/h3&gt;&lt;p data-block-key="3g0ug"&gt;La GKE Base Platform fournit le socle. Notre nouvelle « architecture de référence GKE » l’enrichit d’une couche spécialisée, conçue pour la haute performance. Elle a été pensée pour relever les défis spécifiques de la mise en production des modèles de machine learning.&lt;/p&gt;&lt;p data-block-key="8bmlh"&gt;Voici trois bonnes raisons d’adopter notre plateforme pour accélérer le déploiement de vos workloads d’inférence IA :&lt;/p&gt;&lt;h3 data-block-key="allts"&gt;1 - Trouver l’équilibre optimal entre performance et coûts&lt;/h3&gt;&lt;p data-block-key="ej937"&gt;Déployer une inférence, c’est jongler entre latence, débit et coûts. Notre solution est conçue pour trouver l’équilibre idéal et maximiser l’utilisation de vos ressources.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1d4o0"&gt;&lt;b&gt;Utilisation intelligente des accélérateurs&lt;/b&gt; : l’usage des GPU et TPU est optimisé grâce à des classes de calcul personnalisées, pour que vos pods s’exécutent sur le matériel dont ils ont réellement besoin. Avec le &lt;i&gt;Node Auto-Provisioning (NAP)&lt;/i&gt;, le cluster provisionne automatiquement les ressources adéquates, au moment opportun.&lt;/li&gt;&lt;li data-block-key="57r4h"&gt;&lt;b&gt;Un scaling plus intelligent&lt;/b&gt; : au-delà du simple dimensionnement basé sur le CPU et la mémoire, un adaptateur de métriques personnalisé permet au &lt;i&gt;Horizontal Pod Autoscaler (HPA)&lt;/i&gt; d’ajuster vos modèles en fonction de vraies métriques d’inférence — comme les requêtes par seconde (QPS) ou la latence — afin que vous ne payiez que ce que vous utilisez réellement.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/autoscaling_28X3OCc.max-1000x1000.png"
        
          alt="GKE3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ul&gt;&lt;li data-block-key="e6da7"&gt;&lt;b&gt;Chargement plus rapide des modèles&lt;/b&gt; : les modèles volumineux impliquent des images de conteneur lourdes. Nous exploitons l’API &lt;i&gt;Container File System&lt;/i&gt; et le &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/image-streaming"&gt;&lt;i&gt;streaming d’images&lt;/i&gt;&lt;/a&gt; dans GKE, associés à &lt;i&gt;Cloud Storage FUSE&lt;/i&gt;, pour réduire de façon significative le délai de démarrage des pods. Vos conteneurs peuvent ainsi se lancer immédiatement, tandis que les données du modèle sont chargées en arrière-plan, ce qui minimise la latence liée aux démarrages à froid (&lt;i&gt;cold start&lt;/i&gt;).&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="3i3v3"&gt;2 - S’adapter à tous les scénarios d’inférence&lt;/h3&gt;&lt;p data-block-key="9irnu"&gt;Que vous fassiez de la détection de fraude en temps réel, de l’analytique en mode batch ou que vous travailliez avec un modèle « frontière », notre architecture est conçue pour s’adapter à tous vos besoins. Son framework prend en charge les cas suivants :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="52dgr"&gt;&lt;b&gt;Inférence en temps réel (online)&lt;/b&gt; : privilégie des réponses à faible latence pour les applications interactives.&lt;/li&gt;&lt;li data-block-key="c33r0"&gt;&lt;b&gt;Inférence par lots (batch/offline)&lt;/b&gt; : traite efficacement de grands volumes de données pour les tâches non sensibles au temps.&lt;/li&gt;&lt;li data-block-key="jdsf"&gt;&lt;b&gt;Inférence en flux (streaming)&lt;/b&gt; : gère en continu les données entrantes, par exemple depuis &lt;i&gt;Pub/Sub&lt;/i&gt;.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="99lb8"&gt;L’architecture s’appuie sur des fonctionnalités GKE comme le cluster autoscaler et &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/gateway-api?hl=fr"&gt;l’API Gateway&lt;/a&gt;, pour un routage du trafic avancé, flexible et robuste, capable d’absorber des volumes massifs de requêtes sans perte de performance.&lt;/p&gt;&lt;h3 data-block-key="fi4is"&gt;3 - Simplifier l’exploitation des modèles complexes&lt;/h3&gt;&lt;p data-block-key="40i5k"&gt;Nous avons intégré des fonctionnalités qui masquent la complexité de la mise en production des modèles IA modernes, et tout particulièrement des LLM. Notre architecture inclut également des bonnes pratiques ainsi que des exemples et des configurations prêtes à l’emploi pour mettre en œuvre des techniques avancées d’optimisation de modèles, telles que la quantification (INT8/INT4), le parallélisme de tenseurs et de pipelines, ou encore les optimisations de cache KV comme Paged et Flash Attention.&lt;/p&gt;&lt;p data-block-key="aqd5a"&gt;De plus, avec GKE en mode Autopilot, vous déléguez entièrement la gestion des nœuds à Google : vous pouvez ainsi vous concentrer sur vos modèles plutôt que sur la gestion de l’infrastructure.&lt;/p&gt;&lt;h3 data-block-key="96a5c"&gt;Prêts à passer à l’action ?&lt;/h3&gt;&lt;p data-block-key="ddnt9"&gt;Construisez dès maintenant votre plateforme d’inférence sur GKE. &lt;a href="https://github.com/GoogleCloudPlatform/accelerated-platforms/tree/main/docs/platforms/gke/base/use-cases/inference-ref-arch" target="_blank"&gt;L’architecture de référence GKE pour l’inférence&lt;/a&gt; est disponible dans le &lt;a href="https://github.com/GoogleCloudPlatform/accelerated-platforms" target="_blank"&gt;dépôt GitHub Google Cloud Accelerated Platforms&lt;/a&gt;. Vous y trouverez tout le nécessaire pour vous lancer : code Terraform, documentation et exemples de cas d’usage.&lt;/p&gt;&lt;p data-block-key="559su"&gt;Nous avons inclus des exemples pour déployer rapidement des workloads courants comme ComfyUI, ainsi qu’un scénario d’inférence en temps réel générique exploitant GPU et TPU.&lt;/p&gt;&lt;p data-block-key="8l97q"&gt;En combinant les fondations robustes de GKE base platform avec les performances et les optimisations opérationnelles de l’architecture de référence pour l’inférence, vous pouvez déployer vos workloads IA avec confiance, rapidité et efficacité. Inutile de réinventer la roue : commencez à bâtir l’avenir sur GKE.&lt;/p&gt;&lt;h3 data-block-key="79el5"&gt;Construire l’avenir de l’IA avec GKE&lt;/h3&gt;&lt;p data-block-key="1vjk3"&gt;L’architecture de référence GKE pour l’inférence est bien plus qu’un simple ensemble d’outils : elle reflète l’engagement de Google à faire de GKE la meilleure plateforme pour exécuter vos workloads d’inférence. En proposant une architecture claire, prescriptive et extensible, nous vous donnons les moyens d’accélérer votre adoption de l’IA et de concrétiser vos idées les plus innovantes.&lt;/p&gt;&lt;p data-block-key="4vlg4"&gt;Nous avons hâte de découvrir ce que vous allez construire avec l’architecture de référence GKE pour l’inférence. Vos retours sont les bienvenus : n’hésitez pas à partager vos remarques directement dans le &lt;a href="https://github.com/GoogleCloudPlatform/accelerated-platforms" target="_blank"&gt;dépôt GitHub&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=OE5ZOvrWxxs"
      data-glue-modal-trigger="uni-modal-OE5ZOvrWxxs-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/OE5ZOvrWxxs/maxresdefault.jpg"
             alt="Architecture de référence d&amp;#x27;inférence GKE : votre modèle pour une inférence prête pour la production"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-OE5ZOvrWxxs-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="OE5ZOvrWxxs"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=OE5ZOvrWxxs"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Fri, 31 Oct 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/developers-practitioners/boostez-vos-projets-ia-avec-larchitecture-de-reference-gke-pour-passer-plus-facilement-de-lexperimentation-a-la-production/</guid><category>Developers &amp; Practitioners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Boostez vos projets IA avec l’architecture de référence GKE pour passer plus facilement de l’expérimentation à la production</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/developers-practitioners/boostez-vos-projets-ia-avec-larchitecture-de-reference-gke-pour-passer-plus-facilement-de-lexperimentation-a-la-production/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Mofi Rahman</name><title>Google Cloud Advocate, Google Kubernetes Engine</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Aaron Rueth</name><title>Cloud Solutions Architect</title><department></department><company></company></author></item><item><title>Converteo industrialise l’IA agentique avec Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="znm3y"&gt;&lt;b&gt;À propos de Converteo&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="b9t39"&gt;Cabinet de conseil de nouvelle génération, Converteo fait converger expertise data, marketing digital et IA pour transformer les performances business. Fondé en 2007, il compte plus de 450 consultants à Paris, Madrid, New York, Shanghai, et accompagne plus de 200 clients, en France et à l’international.&lt;/p&gt;&lt;p data-block-key="46ug5"&gt;&lt;b&gt;—----------—----------&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="c5dee"&gt;Fondé en 2007, Converteo s’est imposé comme un acteur majeur du conseil en data et intelligence artificielle. Avec plus de 450 consultants répartis entre Paris, Madrid, New York, Montréal, Shanghai, le cabinet accompagne plus de 200 clients, principalement des grands comptes ainsi que des ETI, sur l’ensemble de la chaîne de valeur de la donnée et de l’IA, de la stratégie à l’implémentation opérationnelle. Sa mission : agir comme un accélérateur de performance, en reliant efficacement les enjeux métiers à la technologie.&lt;/p&gt;&lt;p data-block-key="7gn6f"&gt;Aujourd'hui, Converteo franchit une nouvelle étape pour devenir le premier cabinet de conseil où chaque collaborateur est nativement augmenté par l'IA agentique. &lt;i&gt;« Avec un plan de déploiement de plus de 420 licences Gemini Enterprise en interne d'ici au premier trimestre 2026, nous ne nous contentons pas de conseiller la transformation : nous l'opérons d'abord sur nous-mêmes pour décupler notre efficacité et la valeur apportée à nos clients »,&lt;/i&gt; explique Hamza Senoussi, Senior Manager Data &amp;amp; AI chez Converteo.&lt;/p&gt;&lt;h3 data-block-key="a6vv4"&gt;&lt;b&gt;Anticiper la rupture, incarner le conseil de demain&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cq4qo"&gt;Pour Converteo, l’IA agentique marque un tournant stratégique. &lt;i&gt;« La première vague de l’IA générative a déjà modifié le quotidien des consultants, en automatisant certaines tâches de création de contenu, mais ces usages restaient limités »,&lt;/i&gt; explique Hamza Senoussi. &lt;i&gt;« Nos consultants n’ont pas seulement besoin d’un chatbot qui répond à des questions, ils ont besoin de systèmes capables de comprendre, de planifier et d’exécuter des processus de bout en bout. Et c’est précisément ce que l’IA agentique apporte ».&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="fhgnd"&gt;Converteo estime en effet que les tâches routinières (recherche d’informations, synthèse de documents, analyses standard, etc.) vont être automatisées par des processus intelligents reliant plusieurs agents spécialisés pour exécuter un flux de travail complet. &lt;i&gt;« L’agentique provoque une véritable rupture dans les métiers du conseil. Notre valeur réside plus que jamais dans la capacité à mobiliser nos talents sur la réflexion stratégique, sur le “pourquoi”. Intégrer cette réalité au cœur de notre organisation nous met en situation d’être plus compétitif que nos concurrents. »,&lt;/i&gt; souligne Hamza Senoussi.&lt;/p&gt;&lt;p data-block-key="10r3g"&gt;Au delà de la conviction, la stratégie de Converteo s’appuie sur une analyse approfondie, des objectifs définis et mesurables : &lt;i&gt;« À terme, nous avons l’intention de libérer 30 % du temps de nos équipes grâce à l’IA agentique, pour le réinvestir dans les rôles stratégiques qui font la différence pour nos clients. »&lt;/i&gt; indique Hamza Senoussi.&lt;/p&gt;&lt;h3 data-block-key="4ouij"&gt;&lt;b&gt;Google Cloud, accélérateur de transformation&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="p64k"&gt;Pour concrétiser ses ambitions, Converteo s’appuie sur les solutions de Google Cloud. Le partenariat, initié il y a quelques années autour de projets data et marketing, s'est progressivement élargi à l'intelligence artificielle générative puis à l'IA agentique. Gemini Enterprise Plus s'est imposé pour trois raisons principales : sa capacité à indexer et unifier les connaissances internes, la richesse de son écosystème de connecteurs et la flexibilité du no-code au développement sur mesure.&lt;/p&gt;&lt;p data-block-key="7i99g"&gt;&lt;i&gt;« Gemini Enterprise permet de briser les silos de connaissances en offrant une recherche unifiée sur l’ensemble du capital intellectuel du cabinet. Cette capacité s’appuie sur l’expertise éprouvée de Google dans la recherche d’information »,&lt;/i&gt; souligne Hamza Senoussi. La plateforme facilite aussi l’orchestration de l’intelligence grâce à la puissance de raisonnement des modèles Gemini, capables de traiter des requêtes complexes. Enfin, grâce à Vertex AI Agent Builder et à des frameworks comme l’Agent Development Kit et A2A, Converteo peut dépasser la simple recommandation et concevoir des agents sur mesure, capables d’exécuter directement des processus métiers.&lt;/p&gt;&lt;p data-block-key="4bkpi"&gt;&lt;i&gt;« Avec Gemini&lt;/i&gt; &lt;i&gt;Enterprise Plus, nous avons trouvé la combinaison parfaite : un moteur de recherche d’entreprise puissant, un écosystème riche de connecteurs, et la possibilité d’aller du no-code au développement avancé. C’est cette flexibilité qui nous permet d’industrialiser l’usage des agents à l’échelle du cabinet et de l’étendre ensuite à nos clients »,&lt;/i&gt; résume Hamza Senoussi.&lt;/p&gt;&lt;p data-block-key="ctf6v"&gt;Le déploiement a démarré dès l’été 2025, avec une phase axée sur des cas d’usage rapides à mettre en œuvre. Converteo a impliqué ses experts métiers, formés pour devenir acteurs du développement des agents et collaborer efficacement avec les équipes techniques. La société a structuré sa démarche autour de deux profils complémentaires : les « Champions » agentiques identifient les cas d'usage à fort potentiel tandis que les « Builders » transforment ces idées en agents opérationnels. Ce modèle alimente une véritable « usine à agents » propriétaires, où chaque projet passe par un processus clair, de l’identification à la mise en production.&lt;/p&gt;&lt;p data-block-key="89u0s"&gt;Pour garantir une adoption fluide, Converteo a aussi prévu des kits de formation, un backlog partagé (liste centralisée et priorisée des développements en cours et à venir) d’agents et une boucle de feedback continue. &lt;i&gt;« Cette gouvernance rigoureuse renforce la sécurité et la traçabilité de chaque décision. Elle sécurise les usages et place les consultants au cœur du dispositif, en leur donnant un rôle actif de superviseurs d’agents »,&lt;/i&gt; précise Hamza Senoussi.&lt;/p&gt;&lt;h3 data-block-key="2grvc"&gt;&lt;b&gt;Des résultats tangibles, une ambition sectorielle&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="6kre3"&gt;Deux mois à peine après l’adoption de Gemini Enterprise, Converteo compte déjà plusieurs agents opérationnels en interne. Ils assistent les consultants de la société dans la recherche et la synthèse de documents complexes et automatisent des processus comme le rapprochement financier ou encore l’&lt;i&gt;onboarding&lt;/i&gt; des collaborateurs. Là où l’intégration d’un nouveau consultant mobilisait auparavant plusieurs services et impliquait une succession de démarches administratives chronophages, un agent orchestre désormais l’ensemble du parcours : accès aux outils, formation initiale, vérifications contractuelles, etc. Le gain est double : moins de temps perdu pour les équipes RH et une expérience plus fluide pour les nouveaux arrivants.&lt;/p&gt;&lt;p data-block-key="83o4d"&gt;Converteo a également appliqué l’agentique à ses processus de staffing. L’affectation des consultants aux missions reposait jusqu’alors sur des échanges manuels et des tableurs. Un agent agrège désormais automatiquement les données de compétences, de disponibilités et de planning, puis propose instantanément les meilleures combinaisons. Résultat : une allocation des ressources humaines plus rapide, plus pertinente et mieux équilibrée, garantissant une meilleure adéquation avec les besoins des clients.&lt;/p&gt;&lt;p data-block-key="3shpn"&gt;Outre les gains de productivité, les premiers retours d’expérience montrent une amélioration de la qualité des analyses et une réduction des temps de réponse aux besoins des clients. Cette transformation opérée en interne constitue aujourd’hui le socle d'une offre différenciante : Converteo propose désormais un parcours complet de transformation « agentique » à ses clients, de l'identification des cas d'usage à l'industrialisation.&lt;/p&gt;&lt;p data-block-key="f47pg"&gt;Les ambitions de la société ne s’arrêtent pas là. Le partenariat entre Converteo et Google Cloud s'articule en effet autour d'une vision stratégique commune : démocratiser l'IA agentique pour en faire un véritable levier de création de valeur pour les entreprises. &lt;i&gt;« Il s'agit d'une collaboration qui dépasse largement la dimension technique. Ensemble, nous redéfinissons les codes du métier du conseil en créant un modèle hybride où l'expertise humaine est amplifiée par des solutions technologiques évolutives et réutilisables. Un modèle où l'agilité, l'efficacité et la durabilité ne sont plus des objectifs à atteindre, mais une réalité opérationnelle au service des clients »,&lt;/i&gt; conclut Hamza Senoussi.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 29 Oct 2025 07:44:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Converteo industrialise l’IA agentique avec Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Hamza Senoussi</name><title>Senior Manager</title><department>Data and AI</department><company>Converteo</company></author></item><item><title>Ingénierie de plateforme : tirez parti de l’expérience Google</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="eb7ta"&gt;Comment abordez-vous le développement logiciel ? Chez Google, nous nous efforçons constamment de créer de meilleurs services, plus rapidement. Pour y parvenir, notre équipe Developer Platform et Google Cloud ont noué un partenariat stratégique et se mobilisent autour d’une vision commune : capitaliser sur nos solutions internes et nos outils d’ingénierie pour les mettre à disposition des clients Google Cloud.&lt;/p&gt;&lt;p data-block-key="mll3"&gt;Le premier défi du développement logiciel consiste à bien comprendre comment les équipes, petites ou grandes, peuvent trouver le juste équilibre entre efficacité, qualité et coûts, tout en créant de la valeur. À l’occasion de notre récente &lt;a href="https://www.youtube.com/watch?v=T6a9gPSoqxo" target="_blank"&gt;intervention lors de PlatformCon 2025&lt;/a&gt;, nous avons présenté les éléments clés de notre approche de l’ingénierie de plateforme, une approche que nous avons baptisée « &lt;i&gt;shift down »&lt;/i&gt;.&lt;/p&gt;&lt;p data-block-key="5j2ln"&gt;Le &lt;i&gt;shift down&lt;/i&gt; consiste à intégrer les décisions et les responsabilités directement au sein des plateformes internes de développement (IDP), afin de réduire la charge opérationnelle qui pèse sur les développeurs. Elle se distingue de la tendance &lt;a href="https://cloud.google.com/devops?hl=fr"&gt;DevOps&lt;/a&gt; du &lt;i&gt;shift left&lt;/i&gt;, qui vise à déplacer davantage d’efforts en amont du cycle de développement, une méthode qui montre ses limites à grande échelle face à l’ampleur et au rythme des évolutions des besoins.&lt;br/&gt; Là où le &lt;i&gt;shift left&lt;/i&gt; tend à alourdir la charge des équipes lorsqu’il est appliqué à grande échelle, le &lt;i&gt;shift down&lt;/i&gt; cherche au contraire à tirer le maximum de valeur des ressources existantes. Cette approche permet aux entreprises d’innover rapidement tout en maintenant un niveau de qualité, de risque et de coûts soutenables, quels que soient leurs modèles économiques.&lt;/p&gt;&lt;p data-block-key="2jmi2"&gt;Lors de notre intervention, nous avons partagé plusieurs enseignements qui se sont révélés particulièrement utiles dans notre démarche en matière de développement logiciel et &lt;a href="https://cloud.google.com/solutions/platform-engineering?hl=fr"&gt;d’ingénierie de plateforme&lt;/a&gt; :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="29aqs"&gt;&lt;b&gt;Partir du modèle économique.&lt;/b&gt; En prenant le modèle économique comme point de départ, les organisations peuvent orienter l’évolution de leur plateforme et de leurs investissements en fonction de leurs objectifs de marge, de leur tolérance au risque et de leurs exigences de qualité. Chez Google, notre plateforme centrale doit répondre à une grande diversité de modèles économiques, ce qui impose un travail constant de raffinement stratégique et d’adaptation..&lt;/li&gt;&lt;li data-block-key="tfl6"&gt;&lt;b&gt;Se concentrer sur les critères de qualité pour un pilotage centralisé.&lt;/b&gt; Les critères de qualité — fiabilité, sécurité, efficacité et performance — sont des caractéristiques transverses émergentes (ou &lt;a href="https://en.wikipedia.org/wiki/Emergence" target="_blank"&gt;&lt;i&gt;emergent&lt;/i&gt;&lt;/a&gt;&lt;i&gt; properties&lt;/i&gt;) des systèmes logiciels. Elles jouent un rôle essentiel pour créer de la valeur métier et maîtriser les risques. On les qualifie souvent « d’exigences non fonctionnelles » car ils décrivent la manière dont le logiciel se comporte, et non ce qu’il fait fonctionnellement. Avec une stratégie &lt;i&gt;shift down&lt;/i&gt;, la responsabilité de ces critères de qualité peut être intégrée directement au sein des systèmes et de l’infrastructure de la plateforme, réduisant ainsi considérablement la charge opérationnelle qui pèse sur chaque développeur.&lt;/li&gt;&lt;li data-block-key="eq8bt"&gt;&lt;b&gt;Abstractions et couplage, deux leviers essentiels pour maîtriser les critères de qualité.&lt;/b&gt; Notre approche de la conception de plateformes repose sur deux leviers techniques essentiels pour maîtriser les critères de qualité : les abstractions et le couplage. Dans une stratégie &lt;i&gt;shift down&lt;/i&gt;, les abstractions permettent de rendre les systèmes plus compréhensibles, de mieux gérer les risques, de clarifier les responsabilités et de contrôler les coûts en encapsulant la complexité. Le couplage, quant à lui, indique le degré d’interconnexion et d’interdépendance entre les composants d’un système ou d’un écosystème de développement. Pour réussir une stratégie &lt;i&gt;shift down&lt;/i&gt;, le bon niveau de couplage est déterminant, car il permet à la plateforme et à l’écosystème de développement d’intégrer et d’influencer directement les critères de qualité. Concrètement, c’est grâce au couplage que nous pouvons proposer des solutions complètes d’infrastructure et de plateforme sous forme de services cohérents, comme &lt;a href="https://cloud.google.com/kubernetes-engine"&gt;Google Kubernetes Engine&lt;/a&gt; (GKE).&lt;/li&gt;&lt;li data-block-key="chphm"&gt;&lt;b&gt;Responsabilités partagées, formation et règles communes sont des leviers « sociaux » essentiels.&lt;/b&gt; À grande échelle, la responsabilité partagée constitue un levier organisationnel déterminant. Elle repose d’abord sur la formation, par exemple en sensibilisant les ingénieurs à l’usage des plateformes et de l’IA. Elle s’appuie aussi sur la promotion d’une culture &lt;i&gt;one team&lt;/i&gt; (« une seule équipe ») afin d’encourager les profils centrés sur un livrable ou un composant donné à s’ouvrir à la mission globale et à l’engagement envers les clients. Par ailleurs, des règles explicites, comme des guides de style appliqués de manière centralisée ou des API conçues dès l’origine pour être sécurisées (&lt;i&gt;secure by design&lt;/i&gt;), permettent d’intégrer des garanties de qualité directement dans la plateforme et l’infrastructure, réduisant ainsi considérablement la charge opérationnelle des développeurs tout en assurant la cohérence et l’automatisation des contrôles à grande échelle.&lt;/li&gt;&lt;li data-block-key="e9bej"&gt;&lt;b&gt;Utiliser une cartographie.&lt;/b&gt; Gérer les besoins de nombreuses entités métiers avec une seule plateforme est un problème vaste et complexe : il vous faut donc une cartographie. Chez Google, nous utilisons ce que nous appelons le modèle d’écosystème, un framework conceptuel qui fait office de cartographie et qui permet de classer les différents environnements de développement logiciel, allant de systèmes très flexibles, sous contrôle direct des développeurs, à des environnements fortement intégrés et normés, où c’est l’écosystème lui-même qui garantit les critères de qualité. Le rôle essentiel de ce framework est de fournir un outil visuel et conceptuel permettant d’évaluer dans quelle mesure les mécanismes de contrôle de l’écosystème sont alignés avec les risques métier. Autrement dit, il sert à vérifier que le niveau de supervision et de garantie des critères de qualité est proportionné au coût potentiel des erreurs. L’objectif est de rester dans la « zone d’efficacité de l’écosystème » : un équilibre où les contrôles suffisent à limiter les risques majeurs liés aux erreurs humaines, sans pour autant imposer de contraintes excessives qui ralentiraient l’innovation et démotiveraient les développeurs.&lt;/li&gt;&lt;/ol&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_98vVMdt.max-1000x1000.jpg"
        
          alt="PlatformEngineering1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="eb7ta"&gt;&lt;b&gt;6. Segmenter le problème en identifiant les différents types de plateformes et d’écosystèmes.&lt;/b&gt; L’expérience développeur et l’infrastructure de la plateforme évoluent en fonction de l’échelle et du degré de &lt;i&gt;shift down&lt;/i&gt;. Il ne suffit donc pas de savoir où se situe la « &lt;i&gt;zone d’efficacité de l’écosystème&lt;/i&gt; » : il faut aussi identifier le type d’écosystème auquel on a affaire. Nous distinguons les écosystèmes en fonction du niveau de supervision et de garantie appliqué aux critères de qualité. Plus un écosystème devient intégré verticalement — comme l’écosystème fortement optimisé « Assured » de Google (Type 4) — plus la plateforme prend nativement en charge des critères de qualité essentiels. Cela permet aux spécialistes, tels que les &lt;i&gt;site reliability engineers&lt;/i&gt; (SRE) ou les équipes de sécurité, d’assumer pleinement leur rôle grâce à une observabilité à grande échelle et à des capacités intégrées. À l’inverse, dans des écosystèmes moins homogènes comme « YOLO », « AdHoc » ou « Guided » (Types 0 à 2), les développeurs gèrent une part plus importante de la responsabilité en matière de qualité, tandis que les équipes spécialisées disposent de moins de leviers de contrôle direct et de mécanismes d’application moins étendus. Précisons toutefois : les modèles précités (Assured, YOLO, AdHoc et Guided) ne sont pas des indicateurs de maturité. Le meilleur type d’écosystème et de plateforme est simplement celui qui correspond le mieux aux besoins de votre entreprise (cf. point n°1 ci-dessus !).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_xiA9TUH.max-1400x1400.png"
        
          alt="PlatformEngineering2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="eb7ta"&gt;Faire les bons choix en matière d’ingénierie de plateforme&lt;/h3&gt;&lt;p data-block-key="2aumr"&gt;En résumé, la leçon la plus importante à retenir, c’est qu’il faut bien peser ses choix et prendre des décisions éclairées. L’ingénierie de plateforme doit être adaptée à chaque entité métier et à chaque application afin d’obtenir les meilleurs résultats. Elle doit avant tout s’attacher à repérer les problèmes récurrents, qui reviennent systématiquement dans différents domaines métier, pour les résoudre une bonne fois pour toutes avec des solutions robustes et réutilisables. Cette approche est au cœur de notre stratégie de &lt;i&gt;shift down&lt;/i&gt;. Elle vise à aller vers des plateformes composables, capables d’intégrer directement dans l’infrastructure les décisions et les responsabilités liées à la qualité logicielle. Concrètement, cela signifie que la plateforme prend en charge directement les choix et les responsabilités liés à la qualité logicielle (sécurité, fiabilité, performance, etc.), au lieu de les laisser reposer uniquement sur les développeurs. Dit autrement, avec l’approche &lt;i&gt;shift down&lt;/i&gt;, vous renforcez votre capacité à maximiser la valeur métier en mobilisant les bonnes ressources, au niveau de qualité requis, et avec des coûts maîtrisés dans la durée.&lt;/p&gt;&lt;p data-block-key="13rlt"&gt;Pour aller plus loin, n’hésitez pas à consulter &lt;a href="https://www.youtube.com/watch?v=T6a9gPSoqxo" target="_blank"&gt;l’intégralité de notre intervention à PlatformCon 2025&lt;/a&gt; sur le sujet.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 24 Oct 2025 05:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</guid><category>Containers &amp; Kubernetes</category><category>DevOps &amp; SRE</category><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ingénierie de plateforme : tirez parti de l’expérience Google</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>James Brookbank</name><title>Cloud Solutions Architect Manager, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Leah Rivers</name><title>Director, Product Management, Google Core</title><department></department><company></company></author></item><item><title>Bâtir un agent de recherche intelligent avec l’ADK de Google pour booster la génération de prospects</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;La prospection commerciale traditionnelle repose souvent sur des scrapers fragiles et des scripts statiques, incapables de comprendre les contextes, de s’y adapter ou de raisonner.&lt;br/&gt; Mais imaginez que vous puissiez concevoir un agent qui ne se contente pas de récupérer des données, mais qui imite le processus d’analyse d’une équipe d’étude de marché : Un agent capable de repérer les tendances, de vérifier ses sources, de valider des informations et de vous fournir des prospects hautement qualifiés grâce à une compréhension dynamique des critères de succès.&lt;/p&gt;&lt;p data-block-key="7ihd6"&gt;Ce guide détaille l’architecture d’un tel agent, développé à l’aide de notre &lt;a href="https://google.github.io/adk-docs/" target="_blank"&gt;Agent Development Kit (ADK)&lt;/a&gt;. Nous verrons comment structurer une tâche complexe en une hiérarchie d’agents coopératifs, gérer l’état au fil des interactions, et exploiter le parallélisme pour créer une solution à la fois performante et efficiente.&lt;/p&gt;&lt;h3 data-block-key="c5jjc"&gt;Étape 1 : identifier l’agent racine&lt;/h3&gt;&lt;p data-block-key="6jn4h"&gt;Tout système agentique avancé s’organise autour d’un chef d’orchestre, un orchestrateur principal, ou dit autrement un cerveau qui coordonne l’ensemble. Ici, c’est l’&lt;i&gt;InteractiveLeadGenerator&lt;/i&gt; qui tient la baguette : Son but n’est pas d’exécuter lui-même les tâches de bas niveau, mais de gérer le flux de travail, déléguer à des sous-agents spécialisés et interagir avec l’utilisateur. En clair, il transforme une multitude d’agents spécialisés en une seule force cohérente et performante.&lt;/p&gt;&lt;p data-block-key="5orl"&gt;En voici le script Python :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# From: LeadGenerationResearch/LeadGenerationResearch/agent.py\r\n\r\nroot_agent = Agent(\r\n    name=&amp;quot;InteractiveLeadGenerator&amp;quot;,\r\n    model=os.getenv(&amp;quot;GEN_ADVANCED_MODEL&amp;quot;, &amp;quot;gemini-2.5-pro&amp;quot;),\r\n    instruction=ROOT_AGENT_INSTRUCTION, # The agent\&amp;#x27;s core directive\r\n    tools=[\r\n        get_user_choice,\r\n        *agent_tools,\r\n    ],\r\n    before_agent_callback=[before_agent_run],\r\n    after_tool_callback=[after_tool_run],\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b703ebcd0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;L’agent racine agit comme chef d’orchestre de la prospection : il révèle les schémas qui font la réussite, les valide avec l’utilisateur, puis les met en action pour produire des leads qualifiés. Les actions de cet agent racine sont déterminées par son instruction principale « ROOT_AGENT_INSTRUCTION » , qui fixe son objectif global et sa façon de fonctionner.&lt;br/&gt;&lt;br/&gt;Voici cette instruction :&lt;/p&gt;&lt;p data-block-key="22r0p"&gt;« &lt;i&gt;Tu es un assistant de génération de leads. Ton objectif est d’aider l’utilisateur à trouver de nouveaux leads en découvrant des schémas dans les entreprises performantes. Ton processus est le suivant : 1. Comprendre l’intention de l’utilisateur. 2. Exécuter un flux de travail de découverte de schémas. 3. Confirmer les résultats avec l’utilisateur. 4. Exécuter un flux de travail de génération de leads à partir des schémas confirmés. Maintiens une approche interactive, proactive et approfondie.&lt;/i&gt; »&lt;/p&gt;&lt;h3 data-block-key="9r20o"&gt;Étape 2 : Décomposer le problème et extraire l'intention&lt;/h3&gt;&lt;p data-block-key="58mrd"&gt;Les problèmes complexes se résolvent plus facilement lorsqu’on les divise en phases distinctes. Notre tâche de génération de prospects (leads) se divise naturellement en deux flux de travail principaux, comme illustré dans le diagramme ci-dessous :&lt;/p&gt;&lt;p data-block-key="2p90h"&gt;1 - &lt;b&gt;Apprendre du passé (découverte de modèles)&lt;/b&gt; : Nous avons besoin d'une Équipe de Recherche (Research Squad) pour analyser l'historique, décortiquer les succès passés et mettre en lumière les signaux gagnants.&lt;/p&gt;&lt;p data-block-key="do67b"&gt;2 - &lt;b&gt;Prédire l'avenir (génération de prospects)&lt;/b&gt; : Nous avons besoin d'une Équipe de Chasseurs (Hunter Squad) pour exploiter ces signaux afin de trouver les prochaines opportunités (autrement dit, débusquer les prospects à fort potentiel).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1-flow.max-1500x1500.png"
        
          alt="Google ADK"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Avant de lancer l’un ou l’autre des flux de travail, l’agent racine doit d’abord comprendre les besoins spécifiques de l’utilisateur. Cette mission est confiée à un agent spécialisé, l’&lt;i&gt;intent_extractor_agent&lt;/i&gt;, chargé d’analyser la requête initiale de l’utilisateur et de la convertir en données structurées.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# From: LeadGenerationResearch/LeadGenerationResearch/sub_agents/intent_extractor/agent.py\r\n\r\nintent_extractor_agent = LlmAgent(\r\n    name=&amp;quot;intent_extractor_agent&amp;quot;,\r\n    model=os.getenv(&amp;quot;GEN_FAST_MODEL&amp;quot;, &amp;quot;gemini-2.5-flash&amp;quot;),\r\n    instruction=INTENT_EXTRACTOR_PROMPT,\r\n    output_schema=IntentExtractionResult,\r\n    description=&amp;quot;Extracts key parameters like user intent, country, and industry.&amp;quot;,\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b703eb670&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="gxhjp"&gt;Étape 3 : Le workflow de découverte de patterns&lt;/h3&gt;&lt;p data-block-key="7n6d6"&gt;Pour concrétiser notre objectif, il nous faut identifier des entreprises « prospects », les valider, et explorer leur historique. Mais un tel processus séquentiel, réalisé manuellement, est bien trop chronophage, lent et inefficace.&lt;/p&gt;&lt;p data-block-key="bj4gs"&gt;La solution réside dans une approche automatisée, collaborative et orchestrée. Notre &lt;b&gt;ResearchOrchestratorAgent&lt;/b&gt; crée dynamiquement un mini-pipeline pour chaque entreprise et les exécute tous en parallèle. Cette exécution parallèle transforme notre processus en une véritable force de frappe analytique, où plusieurs flux de recherche s'exécutent simultanément sous la supervision experte d'un &lt;i&gt;SequentialAgent&lt;/i&gt; unique qui garantit la cohérence et la qualité des résultats.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;#From:LeadGenerationResearch/LeadGenerationResearch/sub_agents/pattern_discovery/agent.py\r\n\r\npattern_discovery_agent = SequentialAgent(\r\n    name=&amp;quot;PatternDiscoveryAgent&amp;quot;,\r\n    sub_agents=[\r\n        company_finder_agent,\r\n        company_formatter_agent,\r\n        research_orchestrator_agent,  # Manages parallel execution\r\n        synthesizer_orchestrator_agent,\r\n        pattern_synthesizer_agent,\r\n    ],\r\n    description=&amp;quot;Orchestrates the multi-step process of discovering investment patterns.&amp;quot;\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b703ebe80&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Les agents clés de cette séquence sont :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="n325"&gt;&lt;b&gt;CompanyFinderAgent&lt;/b&gt; (le radar) : exécute des recherches pour établir une première liste d’entreprises en fonction du secteur et du pays spécifiés par l’utilisateur.&lt;/li&gt;&lt;li data-block-key="edeg3"&gt;&lt;b&gt;CompanyFormatterAgent&lt;/b&gt; (le nettoyeur) : prend la sortie brute du &lt;i&gt;FinderAgent&lt;/i&gt; et la convertit en un format standardisé, garantissant que les données soient propres et prêtes pour les étapes suivantes.&lt;/li&gt;&lt;li data-block-key="3gq05"&gt;&lt;b&gt;ResearchOrchestratorAgent&lt;/b&gt; (le chef d’orchestre) : gère l’exécution parallèle de la phase de recherche. Pour chaque entreprise identifiée, il exécute dynamiquement un pipeline de validation (s’appuyant sur le &lt;i&gt;ValidatorAgent&lt;/i&gt;) afin d’évaluer la société selon des critères rigoureux.&lt;/li&gt;&lt;li data-block-key="eivcs"&gt;&lt;b&gt;SynthesizerOrchestratorAgent&lt;/b&gt; (le consolideur) : collecte et consolide toutes les données validées issues des pipelines parallèles, pour préparer un jeu de données unifié en vue de l’analyse finale.&lt;/li&gt;&lt;li data-block-key="4p5av"&gt;&lt;b&gt;PatternSynthesizerAgent&lt;/b&gt; (l’analyste) : exploite les données agrégées par &lt;i&gt;SynthesizerOrchestratorAgent&lt;/i&gt;. Sa mission principale est d’identifier les tendances communes et de les synthétiser dans un rapport clair, fondé sur des preuves, en citant les sources pour chaque pattern détecté.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="7128d"&gt;Étape 4 : Mécanismes de contrôle et gestion des états&lt;/h3&gt;&lt;p data-block-key="f8h9v"&gt;Pour permettre à l’agent racine de gérer ces workflows complexes tout en maintenant une conversation cohérente, l’ADK met à votre disposition deux super-pouvoirs.&lt;/p&gt;&lt;p data-block-key="e6fb0"&gt;&lt;b&gt;1 - AgentTool pour la délégation&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="ds1fd"&gt;Les orchestrateurs &lt;b&gt;SequentialAgent&lt;/b&gt; sont encapsulés dans un &lt;b&gt;AgentTool&lt;/b&gt; unique. Cela permet à l’agent racine d’invoquer un workflow multi-étapes complet comme s’il s’agissait d’un simple appel de fonction.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# In tools/agent_tools.py, create the toolset.\r\nfrom google.adk.tools import AgentTool\r\nfrom ..sub_agents.pattern_discovery.agent import pattern_discovery_agent\r\nfrom ..sub_agents.lead_generation.agent import lead_generation_agent\r\n\r\nagent_tools = [\r\n    AgentTool(agent=pattern_discovery_agent),\r\n    AgentTool(agent=lead_generation_agent),\r\n]&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b703eb580&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ol&gt;&lt;li data-block-key="gxhjp"&gt;&lt;b&gt;Callbacks pour la gestion des états&lt;/b&gt;&lt;br/&gt;Pour que l’agent racine garde le cap dans une discussion à plusieurs étapes, les callbacks jouent le rôle de chef d’orchestre invisible. Ils assurent la continuité et la mise à jour de l’état conversationnel.&lt;/li&gt;&lt;/ol&gt;&lt;ul&gt;&lt;li data-block-key="3ft8u"&gt;&lt;b&gt;before_agent_run&lt;/b&gt; : S’exécute avant chaque tour d’agent pour initialiser ou mettre à jour l’état de la session.&lt;/li&gt;&lt;li data-block-key="8tb9q"&gt;&lt;b&gt;after_tool_run&lt;/b&gt; : S’exécute après l’exécution d’un outil. Il traite la sortie de ce dernier et met à jour une variable d’étape dans l’état de la session, ce qui est crucial pour orienter la prochaine décision de l’agent racine.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="djtac"&gt;Étape 5 : Le workflow de génération de leads&lt;/h3&gt;&lt;p data-block-key="5j2t8"&gt;Une fois les patterns de réussite identifiés et validés, l’&lt;i&gt;InteractiveLeadGenerator&lt;/i&gt; déploie le second workflow majeur (celui de la génération de leads). Ce second processus reprend la structure de la phase de découverte, en transformant les enseignements en actions concrètes et en mettant l’accent sur la cohérence et la réutilisabilité.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# In sub_agents/lead_generation/agent.py\r\nlead_generation_agent = SequentialAgent(\r\n    name=&amp;quot;LeadGenerationAgent&amp;quot;,\r\n    sub_agents=[\r\n        lead_finder_agent,\r\n        lead_formatter_agent,\r\n        lead_research_orchestrator_agent, # Handles parallel validation and analysis\r\n        report_orchestrator_agent,\r\n        report_compiler_agent,\r\n    ],\r\n    description=&amp;quot;Uses pre-discovered success patterns to find potential leads...&amp;quot;,\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b703eb370&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Les agents clés de cette séquence sont :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bl6ii"&gt;&lt;b&gt;LeadFinderAgent&lt;/b&gt; (le chasseur) : utilise les patterns précédemment synthétisés comme nouvelle requête de recherche afin d’identifier des entreprises présentant des caractéristiques similaires.&lt;/li&gt;&lt;li data-block-key="3r8c8"&gt;&lt;b&gt;LeadFormatterAgent&lt;/b&gt; (le cartographe) : standardise et structure les données brutes issues du LeadFinderAgent pour permettre un traitement parallèle ultérieur.&lt;/li&gt;&lt;li data-block-key="omen"&gt;&lt;b&gt;LeadResearchOrchestratorAgent&lt;/b&gt; (le stratège) : gère l’exécution parallèle des tâches d’analyse principales. Pour chaque prospect potentiel, cet agent exécute simultanément deux sous-agents: le &lt;b&gt;ValidatorAgent&lt;/b&gt; (vérifie la pertinence et la fiabilité du lead) et le &lt;b&gt;LeadSignalAnalyzerAgent&lt;/b&gt; (détecte les signaux exploitables).&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="ekpr3"&gt;Pour bien démarrer&lt;/h3&gt;&lt;p data-block-key="e3v10"&gt;Prêt à vous lancer ? Voici les ressources officielles et l’intégralité ducode source pour vous accompagner dans votre parcours.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="38h4i"&gt;&lt;b&gt;Google Agent Development Kit&lt;/b&gt; (ADK) : Consultez &lt;a href="https://github.com/google/adk-python" target="_blank"&gt;GitHub&lt;/a&gt; pour découvrir toutes les fonctionnalités, outils et configurations proposés par l’ADK.&lt;/li&gt;&lt;li data-block-key="5db2h"&gt;&lt;b&gt;Code source du projet sur GitHub&lt;/b&gt; : Accédez &lt;a href="https://github.com/MagnIeeT/leadGenerationAgentADK" target="_blank"&gt;au code complet et fonctionnel&lt;/a&gt; de cet agent. Clonez le dépôt et utilisez-le comme base pour vos propres créations.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Fri, 03 Oct 2025 05:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Bâtir un agent de recherche intelligent avec l’ADK de Google pour booster la génération de prospects</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ashwini Kumar</name><title>Solution Acceleration Architect</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Neeraj Agrawal</name><title>Solution Acceleration Architect</title><department></department><company></company></author></item><item><title>Créer plus vite et coder mieux : comment l’IA refaçonne l’expérience développeur sur Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/developers-practitioners/creer-plus-vite-et-coder-mieux-comment-lia-refaconne-lexperience-developpeur-sur-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="6k8zg"&gt;La mission de l'équipe Expérience Développeur de Google Cloud est simple : aider les développeurs à passer de l'apprentissage au déploiement aussi rapidement et efficacement que possible. Pour y parvenir, notre stratégie repose sur deux outils principaux : une documentation pratique et robuste associée à des exemples de code prêts à l'emploi intégrés directement dans celle-ci, sur lesquels les développeurs s'appuient quotidiennement. Alors que les services de Google Cloud s'étendent et évoluent à un rythme rapide, maintenir la qualité, la précision et la couverture de ces ressources étroitement intégrées représente un défi d’envergure. Or les développeurs d’aujourd’hui attendent des réponses immédiates et des conseils précis et idiomatiques. Toute lacune risque de freiner l'adoption et de compromettre leur productivité.&lt;/p&gt;&lt;p data-block-key="f4br8"&gt;Pour relever ce défi, nous exploitons de manière stratégique l’IA générative, propulsée par Gemini, au cœur de nos workflows de création de contenus. Il ne s’agit pas de remplacer l’expertise humaine, mais d’utiliser la technologie pour renforcer notre capacité à apporter de la valeur aux développeurs, plus rapidement et à plus grande échelle. Voici comment nous mettons l’IA au service d’une documentation de qualité et d’exemples de code plus riches et mieux intégrés.&lt;/p&gt;&lt;h3 data-block-key="3f4il"&gt;Une documentation dopée à l’IA : accélérer la cadence et garantir l’exactitude&lt;/h3&gt;&lt;p data-block-key="cka0g"&gt;Pour nos équipes de rédaction technique, la cadence du développement de Google Cloud soulève deux questions majeures : comment suivre le rythme pour documenter les nouvelles fonctionnalités sans cesse ajoutées et comment garantir que la documentation existante reste exacte ?&lt;/p&gt;&lt;p data-block-key="e5t9g"&gt;Pour accélérer le processus de création, nous avons intégré Gemini au cœur des environnements d'écriture de nos rédacteurs. L’assistant IA agit comme un multiplicateur de productivité, en fluidifiant des tâches courantes telles que la génération de tableaux formatés à partir de contenus non structurés, la traduction entre langages de balisage ou l’application en un clic de guides stylistiques complexes. Surtout, l’IA libère du temps pour l’essentiel : concevoir une documentation plus stratégique et livrer un contenu de haute qualité.&lt;/p&gt;&lt;p data-block-key="9r44b"&gt;La validation du contenu représente un enjeu aussi crucial que sa création. Depuis des années, les tests de non-régression automatisés traquent les bugs dans le code. Nous appliquons désormais la même discipline à la documentation, un objectif longtemps considéré comme utopique, en raison de l’ambiguïté du langage naturel.&lt;br/&gt; Pour nos « quickstarts » (guides de démarrage rapide), nous utilisons Gemini pour lire les étapes pas-à-pas et automatiquement générer des scripts d’orchestration web (en utilisant des frameworks comme Playwright). Ces scripts exécutent ensuite les différentes étapes dans un environnement Google Cloud réel, vérifiant automatiquement que notre documentation reflète fidèlement le comportement du produit. Nous faisons tourner plus d’une centaine de tels tests chaque jour, ce qui garantit une validation continue de nos guides « quickstart » et vous assure de la fiabilité des étapes présentées.&lt;/p&gt;&lt;h3 data-block-key="a2mih"&gt;Démultiplier les exemples de code au sein des documentations via des Agents IA&lt;/h3&gt;&lt;p data-block-key="213k2"&gt;Les extraits de code intégrés à nos documentations soulèvent des défis similaires, voire plus complexes : assurer une large couverture des langages, gérer leur mise à jour au fur et à mesure des évolutions des API et des bonnes pratiques, et optimiser l’utilisation de nos ressources d’ingénierie.&lt;br/&gt; Créer et maintenir manuellement des dizaines de milliers d’exemples idiomatiques pour l’ensemble de notre documentation — y compris pour la « longue traîne » d’API spécialisées — n’est simplement pas imaginable.&lt;/p&gt;&lt;p data-block-key="2rtg9"&gt;Notre solution repose sur un système agentique qui automatise l’intégralité du cycle de vie d’un exemple de code destiné à notre documentation. Ce workflow automatisé est ancré sur l’ultime source de vérité des API Google à savoir les essentielles définitions Protobuf (proto) hébergées dans les dépôts publics « &lt;i&gt;googleapis »&lt;/i&gt;. Ainsi, nos exemples restent toujours fidèles à l’implémentation réelle et actualisée de l’API, sans risque d’erreurs ou d’écarts.&lt;/p&gt;&lt;p data-block-key="c67f5"&gt;Le système fonctionne en trois étapes principales :&lt;/p&gt;&lt;p data-block-key="7rf1l"&gt;&lt;b&gt;1 - Assemblage du prompt :&lt;/b&gt; Un agent prépare un prompt très détaillé en analysant la méthode API ciblée et en combinant un modèle de code « one-shot » avec les noms de méthodes, paramètres et documentations issus de sa définition officielle Protobuf. Cette approche structurée et fondée sur les données est essentielle : elle contraint le modèle, évite les hallucinations et garantit que le prompt repose dès le départ sur les détails factuels de l’API.&lt;/p&gt;&lt;p data-block-key="dj2di"&gt;&lt;b&gt;2 - Génération et affinage :&lt;/b&gt; Le prompt est ensuite transmis à Gemini pour générer un premier brouillon. Un autre agent « évaluateur » note ensuite l’exemple généré selon un barème rigoureux. Si le résultat est insuffisant, un retour précis est renvoyé au générateur afin d’obtenir une version améliorée. Ce « dialogue » automatisé entre agents imite un processus de relecture par les pairs, qui s’exécute à une vitesse et une échelle impossibles à atteindre manuellement.&lt;/p&gt;&lt;p data-block-key="2khc1"&gt;&lt;b&gt;3 - Tests automatisés :&lt;/b&gt; Une fois approuvé, l’exemple est déployé dans un environnement conteneurisé où il subit une batterie finale de tests : build/compilation, linting et exécution pour confirmer son bon fonctionnement. De quoi offrir un niveau de confiance permettant sa publication en toute sérénité et à grande échelle dans notre documentation.&lt;/p&gt;&lt;p data-block-key="144kl"&gt;Au cœur de notre approche se trouve un agent d’audit dopé à l’IA. Véritable contrôleur qualité, il passe chaque appel d’API au crible en le comparant à la documentation officielle, grâce à l’association de Gemini et Google Search. Résultat : chaque détail est vérifié en appui sur nos documentations publiques, assurant un standard de qualité uniforme pour tous les exemples, qu’ils soient écrits par des humains ou générés par l’IA.&lt;/p&gt;&lt;h3 data-block-key="ff0o6"&gt;L’avenir est augmenté : qualité et expertise à l’échelle&lt;/h3&gt;&lt;p data-block-key="ao7jk"&gt;À mesure que nous montons en charge, ce niveau d’automatisation permet à nos experts humains de faire évoluer leur rôle. Ils se concentrent désormais sur l’amélioration des systèmes d’IA eux-mêmes, enquêtant sur les anomalies statistiques, effectuant des échantillonnages d'audit pour valider les évaluateurs IA, et affinant les modèles génératifs. Cette nouvelle approche valorise leur travail et garantit une qualité uniforme à une échelle que des humains seuls ne pourraient atteindre.&lt;/p&gt;&lt;p data-block-key="76m2o"&gt;En automatisant la création de la documentation de base et du code qu’elle contient, nous libérons nos équipes pour qu’elles se consacrent à ce dont les développeurs ont le plus besoin : un contenu détaillé, orienté solutions, qui résout des problèmes complexes et concrets. Ce partenariat stratégique entre experts humains et agents IA est au cœur de notre approche. Il nous permet d’offrir une expérience développeur plus complète, précise et réactive, garantissant que, quel que soit votre projet sur Google Cloud, vous disposiez de la documentation et du code intégré nécessaires à votre réussite.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 30 Sep 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/developers-practitioners/creer-plus-vite-et-coder-mieux-comment-lia-refaconne-lexperience-developpeur-sur-google-cloud/</guid><category>Developers &amp; Practitioners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Créer plus vite et coder mieux : comment l’IA refaçonne l’expérience développeur sur Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/developers-practitioners/creer-plus-vite-et-coder-mieux-comment-lia-refaconne-lexperience-developpeur-sur-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Matt Thompson</name><title>Director, Developer Adoption</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Helen Slattery</name><title>Director, Cloud Information Experience</title><department></department><company></company></author></item><item><title>Vertex AI s'enrichit d’une nouvelle génération de modèles IA génératif multimédia</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;Vertex AI franchit une nouvelle étape en &lt;a href="https://blog.google/technology/ai/generative-media-models-io-2025/" target="_blank"&gt;accueillant&lt;/a&gt; une nouvelle génération de modèles d’IA générative multimédia : Imagen 4, Veo 3 et Lyria 2.&lt;/p&gt;&lt;p data-block-key="26qhp"&gt;Avec &lt;a href="https://deepmind.google/technologies/imagen-3/" target="_blank"&gt;Imagen 3&lt;/a&gt;, notre modèle de génération d’images, nos clients créent déjà des visuels photoréalistes impressionnants, avant de les transformer en vidéos et contenus de haute qualité avec &lt;a href="https://deepmind.google/models/veo/" target="_blank"&gt;Veo 2&lt;/a&gt;. Certains vont même plus loin, enrichissant leurs réalisations avec des bandes-son professionnelles composées par &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/expanding-generative-media-for-enterprise-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;Lyria&lt;/a&gt;, notre modèle avancé de génération de musiques par l’IA. Il est déjà l’heure pourtant de découvrir la nouvelle génération de ces modèles et de réaliser des créations plus spectaculaires encore !&lt;/p&gt;&lt;p data-block-key="7t4em"&gt;L'IA générative multimédia connaît un essor fulgurant dans le marketing, les médias et bien d'autres secteurs, rendant la création de contenus narratifs plus accessible que jamais. Plus réactives, les équipes créent des campagnes en un temps record et repoussent les limites de la créativité. À travers cet article, nous vous proposons de découvrir les nouvelles moutures de chacun de ces modèles et comment vous pouvez commencer à les utiliser dès aujourd'hui pour booster votre efficacité opérationnelle.&lt;/p&gt;&lt;h3 data-block-key="5lhq8"&gt;Imagen 4 : générer des images de qualité inégalée&lt;/h3&gt;&lt;p data-block-key="91f3v"&gt;Imagen 4, c’est la nouvelle version de notre modèle de génération d’images à partir de prompt textuel, désormais disponible en version préliminaire publique sur Vertex AI. Modèle de référence de Google en matière de génération d’images, Imagen 4 se distingue par :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="d3edo"&gt;Un rendu de texte exceptionnel et une fidélité remarquable aux instructions (prompts) ;&lt;/li&gt;&lt;li data-block-key="8p6lj"&gt;Une qualité d'image supérieure, quel que soit le style visuel ;&lt;/li&gt;&lt;li data-block-key="3ekka"&gt;La &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/image/generate-images#prompt-language"&gt;prise en charge&lt;/a&gt; des instructions (prompts) multilingues pour permettre aux créateurs du monde entier de libérer leur créativité.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_FnBCxdG.max-2000x2000.png"
        
          alt="Vertex AI1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un gros plan intimiste baigné par une lumière dorée et douce de fin d'après-midi qui filtre dans une cuisine typique des années 1960. Le sujet central est un charmant paquet vintage de farine tout usage, posé de manière accueillante sur un plan de travail en Formica moucheté. L'emballage lui-même évoque une pure nostalgie : un papier épais aux textures légères dans un ton crème chaleureux, orné d'une typographie simple et audacieuse (une police sérif conviviale ou manuscrite) en rouge et bleu classique pour « FARINE », avec une illustration plaisante, comme un épi de blé stylisé ou un personnage de boulanger souriant. En bas du paquet, en petits caractères gras : NET 2.27kg. Concentre-toi sur les détails du paquet : les bords légèrement arrondis du sac en papier, la texture de l'impression vintage, le texte accrocheur «FARINE ». Des indices subtils de la cuisine des années 1960 encadrent la scène : le rebord chromé du plan de travail qui brille doucement, un aperçu flou d’une crédence en carrelage jaune pastel, ou le coin d'un ensemble de boîtes métalliques vintage légèrement hors focus. La faible profondeur de champ maintient l'attention sur ce paquet magnifiquement conçu, créant une esthétique riche en chaleur, authenticité et charme nostalgique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_tf1CrD0.max-2000x2000.png"
        
          alt="Vertex AI 2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un gros plan intimiste baigné par une lumière dorée et douce de fin d'après-midi qui filtre dans une cuisine typique des années 1960. Le sujet central est un charmant paquet vintage de farine tout usage, posé de manière accueillante sur un plan de travail en Formica moucheté. L'emballage lui-même évoque une pure nostalgie : un papier épais aux textures légères dans un ton crème chaleureux, orné d'une typographie simple et audacieuse (une police sérif conviviale ou manuscrite) en rouge et bleu classique pour « ALL-PURPOSE FLOUR », avec une illustration plaisante, comme un épi de blé stylisé ou un personnage de boulanger souriant. En bas du paquet, en petits caractères gras : «NET WT 5 LBS (80 OZ) 2.27kg ». Concentre-toi sur les détails du paquet : les bords légèrement arrondis du sac en papier, la texture de l'impression vintage, le texte accrocheur « All-Purpose Flour ». Des indices subtils de la cuisine des années 1960 encadrent la scène : le rebord chromé du plan de travail qui brille doucement, un aperçu flou d’une crédence en carrelage jaune pastel, ou le coin d'un ensemble de boîtes métalliques vintage légèrement hors focus. La faible profondeur de champ maintient l'attention sur ce paquet magnifiquement conçu, créant une esthétique riche en chaleur, authenticité et charme nostalgique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_CAwwq6O.max-2000x2000.png"
        
          alt="Vertex AI 3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée une bande dessinée de quatre vignettes dans un style reconnaissable volontairement pixelisé, rappelant les jeux vidéo 8-bit classiques, avec des formes simples et une palette de couleurs vives et limitée, dominée par les verts, bleus, bruns, et le gris/noir emblématique du dinosaure. Le décor est une plage stylisée en pixels. La première case montre le célèbre dinosaure T-Rex de Google Chrome dans sa forme pixelisée caractéristique, portant de minuscules lunettes de soleil pixelisées et se prélassant sur une serviette de plage pixelisée sous un soleil jaune carré. Des palmiers pixelisés se balancent doucement en arrière-plan, sous un ciel bleu pixelisé. Une bulle de texte en police pixelisée indique : « Even error messages need a vacation »&lt;/i&gt; (NDLR : Même les messages d'erreur ont besoin de vacances). &lt;i&gt;La seconde case&lt;/i&gt; &lt;i&gt;présente un gros plan du T-Rex tentant de construire un château de sable pixelisé. Il tapote maladroitement un monticule de pixels bruns avec ses petits bras pixelisés, l'air concentré. De petits coquillages pixelisés parsèment le sable autour de lui.La troisième vignette montre le T-Rex sautant joyeusement par-dessus une série de cactus pixelisés plantés près de la plage, sous forme de clin d’œil au mini-jeu du dinosaure de Google Chrome où il doit éviter les obstacles. L’onomatopée « Boing! Boing! » s’affiche dans une police carrée au-dessus de chaque saut. Un crabe pixelisé observe sur le côté, levant sa pince pixelisée. La dernière case présente le T-Rex flottant paisiblement sur le dos dans l'eau bleue pixelisée, lunettes de soleil toujours sur le nez, avec une expression satisfaite. Une petite bulle de pensée au-dessus de lui contient des « Zzz... » pixelisés indiquant la détente.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from google import genai\r\n\r\n# TODO(developer): Update and un-comment below lines\r\n# project_id = &amp;quot;PROJECT_ID&amp;quot;\r\nclient = genai.Client(vertexai=True, project=project_id, location=&amp;quot;us-central1&amp;quot;)\r\n\r\nprompt = &amp;quot;&amp;quot;&amp;quot;\r\nA white wall with two Art Deco travel posters mounted. First poster has the text: &amp;quot;NEPTUNE&amp;quot;, tagline: &amp;quot;The jewel of the solar system!\&amp;#x27; Second poster has the text: &amp;quot;JUPITER&amp;quot;, tagline: &amp;quot;Travel with the giants!\r\n&amp;quot;&amp;quot;&amp;quot;\r\n\r\nimage = client.models.generate_images(\r\n   model=&amp;quot;imagen-4.0-generate-preview-05-20&amp;quot;,\r\n   prompt=prompt,\r\n)\r\n\r\n# OPTIONAL: View the generated image in a notebook\r\n# image.generated_images[0].image.show()&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e6bb5e0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt :&lt;/i&gt;&lt;/b&gt; &lt;i&gt;Filmée de manière cinématographique depuis le siège du conducteur, offrant une vue de profil nette sur une jeune passagère à l’avant, aux cheveux rouges éclatants. Son regard est rivé droit devant elle, concentré sur la route poussiéreuse et déserte visible à travers la vitre latérale, qui laisse apercevoir une étendue floue de terre aride et, peut-être, des montagnes lointaines dans la brume. Son bras repose sur le rebord de la fenêtre ou sur le volant. Le cadre inclut une partie de l’intérieur vieilli du camion autour d’elle : le panneau de la porte et peut-être un aperçu du tissu usé du siège. L’éclairage évoque une fin d’après-midi, avec des ombres allongées et des reflets de lumière chaude sur son visage et dans l’habitacle du camion. Cet angle met en valeur sa présence singulière et son état contemplatif au cœur de ce paysage vaste et désert.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="9e9nl"&gt;Pour commencer à utiliser Imagen 4 en version préliminaire publique sur Vertex AI, vous pouvez passer par &lt;a href="https://console.cloud.google.com/"&gt;Media Studio&lt;/a&gt;, Vertex AI Studio ou exécuter l’exemple de code ci-dessous, basé sur le SDK Google Gen AI pour Python.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from google import genai\r\n\r\n# TODO(developer): Update and un-comment below lines\r\n# project_id = &amp;quot;PROJECT_ID&amp;quot;\r\nclient = genai.Client(vertexai=True, project=project_id, location=&amp;quot;us-central1&amp;quot;)\r\n\r\nprompt = &amp;quot;&amp;quot;&amp;quot;\r\nA white wall with two Art Deco travel posters mounted. First poster has the text: &amp;quot;NEPTUNE&amp;quot;, tagline: &amp;quot;The jewel of the solar system!\&amp;#x27; Second poster has the text: &amp;quot;JUPITER&amp;quot;, tagline: &amp;quot;Travel with the giants!\r\n&amp;quot;&amp;quot;&amp;quot;\r\n\r\nimage = client.models.generate_images(\r\n   model=&amp;quot;imagen-4.0-generate-preview-05-20&amp;quot;,\r\n   prompt=prompt,\r\n)\r\n\r\n# OPTIONAL: View the generated image in a notebook\r\n# image.generated_images[0].image.show()&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e6bbe20&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;Google a également lancé récemment « Imagen 4 Ultra » pour Vertex AI Studio. Cette version destinée aux professionnels gagne encore en photoréalisme, en vitesse d’exécution mais également en fiabilité de génération de textes sur l’image.&lt;/p&gt;&lt;h3 data-block-key="4eets"&gt;Veo 3 : générer des vidéos de haute qualité avec voix, musique et bruitages&lt;/h3&gt;&lt;p data-block-key="aqv84"&gt;À la pointe de l'innovation, Veo 3 est notre dernier modèle de génération vidéo, développé par Google DeepMind. Avec Veo 3, vous pouvez créer des vidéos :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="8i276"&gt;de très haute qualité, que ce soit à partir de prompts textuels ou visuels ;&lt;/li&gt;&lt;li data-block-key="2430k"&gt;qui intègrent la voix (dialogues, voix off, etc.) ;&lt;/li&gt;&lt;li data-block-key="b6avq"&gt;et accompagnées de bandes-son complètes : musique ou des effets sonores ;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bs7o0"&gt;Voici ce que nos clients disent des gains de productivité et de créativité obtenus avec nos précédentes versions Veo et Veo 2 :&lt;/p&gt;&lt;p data-block-key="cioch"&gt;&lt;b&gt;Klarna&lt;/b&gt;, un des leaders du paiement numérique, exploite Veo et Imagen sur Vertex AI pour optimiser la création de contenus. Des visuels d’illustration aux formats courts pour YouTube, l’entreprise réduit drastiquement ses délais de production.&lt;/p&gt;&lt;p data-block-key="fv605"&gt;&lt;i&gt;« Chez Klarna, nous explorons constamment de nouvelles façons de repousser les limites de l'innovation dans nos efforts marketing, et Veo a révolutionné nos workflows créatifs. Avec Veo et Imagen, nous avons transformé des processus de production autrefois chronophages en tâches rapides et efficaces qui nous permettent de booster notre création de contenu. Qu'il s'agisse de produire des images d'illustration engageantes, de concevoir des vidéos pour YouTube accrocheuses, ou de développer des animations dynamiques pour les réseaux sociaux, ces outils ont rendu nos équipes plus réactives et créatives. Les résultats parlent d'eux-mêmes : hausse de l'engagement et amélioration des performances de nos contenus. Avec Google Cloud&lt;/i&gt; &lt;i&gt;nous façonnons l'avenir du commerce tout en réinventant la façon de faire vivre notre marque ».&lt;/i&gt; – David Sandström, Directeur Marketing, Klarna.&lt;/p&gt;&lt;p data-block-key="cte7r"&gt;&lt;b&gt;Jellyfish&lt;/b&gt;, agence de marketing digital de référence au sein du groupe The Brandtech, a intégré Veo à sa plateforme IA marketing la plus performante, Pencil, et s'est associée à Japan Airlines pour proposer des divertissements en vol générés par IA.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=2s2mEu12BDY"
      data-glue-modal-trigger="uni-modal-2s2mEu12BDY-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/2s2mEu12BDY/maxresdefault.jpg"
             alt="Japan Airlines transforms in-flight entertainment with Google&amp;#x27;s latest GenAI models - Jellyfish"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-2s2mEu12BDY-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="2s2mEu12BDY"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=2s2mEu12BDY"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;i&gt;« L’intégration de Veo 2 à Pencil s’inscrit dans notre volonté de doter les marketeurs d’outils d’IA toujours plus performants, pour des campagnes à la fois plus efficaces, plus rapides et plus créatives. Nos projets pilotes ont donné des résultats remarquables, avec en moyenne 50 % de réduction des coûts et des délais de mise sur le marché. Cette évolution majeure en termes de contrôle et de qualité transforme des idées auparavant irréalisables en contenu marketing concret en quelques minutes. Japan Airlines montre la voie en appliquant l’IA générative au secteur du voyage, et nous avons hâte de voir d'autres marques suivre cette dynamique ».&lt;/i&gt; – David Jones, Fondateur et PDG, Brandtech.&lt;/p&gt;&lt;p data-block-key="bbm6"&gt;La plateforme Tastemaker de &lt;b&gt;Kraft Heinz&lt;/b&gt; permet aux équipes de la société d’accéder à Imagen et Veo, accélérant de façon spectaculaire les processus de création et de développement de campagnes.&lt;/p&gt;&lt;p data-block-key="2pnqj"&gt;« &lt;i&gt;Avec Veo et Imagen sur Vertex AI, intégrés à notre plateforme Tastemaker, Kraft Heinz a atteint un niveau de rapidité et d’efficacité inédit dans ses workflows créatifs. Ce qui nous prenait auparavant huit semaines ne demande plus que huit heures, ce qui se traduit par des économies substantielles &lt;/i&gt;».&lt;br/&gt;— Justin Thomas, Head of Digital Experience &amp;amp; Growth.&lt;/p&gt;&lt;p data-block-key="9joet"&gt;&lt;b&gt;Envato&lt;/b&gt;, un des leaders mondiaux de ressources créatives (images, vidéos, musiques, voix, etc.) et de modèles pour le web, a jusqu’ici utilisé Veo 2 pour développer sa nouvelle fonctionnalité de génération vidéo, VideoGen. Elle permet de transformer du texte ou des images en contenus vidéo hyperréalistes et cinématographiques.&lt;/p&gt;&lt;p data-block-key="87iou"&gt;&lt;i&gt;« Nous avons testé plusieurs des meilleurs modèles vidéo du marché, et Veo 2 s’est révélé le plus performant en termes de rapidité et de qualité, même avec une grande diversité de textes et d’images en entrée. Dès les premiers jours du lancement de notre nouvelle fonctionnalité, des dizaines de milliers d'abonnés Envato utilisaient déjà VideoGen, et près de 60 % des vidéos générées étaient téléchargées pour leurs projets. Depuis mars, l’utilisation de VideoGen a connu une croissance de plus de 100 % chaque mois. Travailler avec Google Cloud pour donner vie à VideoGen grâce à Veo a été une expérience très enrichissante ».&lt;/i&gt; — Aaron Rutley, Directeur Produit IA chez Envato.&lt;/p&gt;&lt;p data-block-key="6v3kb"&gt;Veo 3 en action :&lt;/p&gt;&lt;p data-block-key="c3df8"&gt;Ce que nos partenaires et clients réalisent déjà avec Veo 2 est spectaculaire. Avec Veo 3, leur imaginaire va encore se libérer un peu plus. Car ce nouveau modèle excelle dans le traitement de prompts complexes et détaillés, comme l'illustrent les exemples suivants.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=iCD8QjfBYBs"
      data-glue-modal-trigger="uni-modal-iCD8QjfBYBs-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/iCD8QjfBYBs/maxresdefault.jpg"
             alt="Created with Veo: Lost Island"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-iCD8QjfBYBs-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="iCD8QjfBYBs"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=iCD8QjfBYBs"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un plan moyen, ambiance d’aventure historique : une lumière chaude de lampe éclaire un cartographe dans son bureau encombré, penché sur une carte ancienne et imposante étalée sur une grande table. Le cartographe dit : « D'après cette vieille carte marine, l'île perdue n'est pas un mythe ! Nous devons préparer une expédition immédiatement ! ».&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=io89iig6q4U"
      data-glue-modal-trigger="uni-modal-io89iig6q4U-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/io89iig6q4U/maxresdefault.jpg"
             alt="Created with Veo: Purple Door"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-io89iig6q4U-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="io89iig6q4U"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=io89iig6q4U"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un plan en contre-plongée montrant une porte ouverte, dans des tons lavande clair, qui s’ouvre d’une pièce aux murs lavande clair et au sol gris sur un extérieur éclatant. De l'herbe verte luxuriante et des fleurs sauvages débordent du seuil et s’étendent sur le sol à l’intérieur, créant une transition féerique entre les espaces. Au-delà de la porte, des collines verdoyantes parsemées de fleurs sauvages s'étendent vers un ciel lumineux et dégagé. Un arbre solitaire se dresse majestueusement au premier plan du paysage extérieur, son feuillage apportant de la profondeur à la scène. La lumière du soleil et les éléments naturels contrastent avec la simplicité de l'espace intérieur, insufflant une sensation d'émerveillement et d'évasion.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="dafns"&gt;&lt;b&gt;Veo 3&lt;/b&gt; est désormais disponible en préversion publique sur Vertex AI. Une version « Veo 3 Fast » est également disponible. Dérivant de Veo 3, &lt;b&gt;Veo 3 Fast&lt;/b&gt; est un modèle conçu pour la vitesse et l’itération rapide. Il s’agit d’un moyen plus rapide de transformer du texte en vidéo, qu’il s’agisse de démonstrations de produits commentées ou de courts métrages.&lt;/p&gt;&lt;h3 data-block-key="ed64d"&gt;Lyria 2 : contrôle créatif renforcé pour la génération musicale&lt;/h3&gt;&lt;p data-block-key="673fc"&gt;Lors de Google Cloud Next 2025, &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/expanding-generative-media-for-enterprise-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;nous avons présenté Lyria sur Vertex AI&lt;/a&gt;, le modèle de génération musicale à partir de texte (text-to-music) de Google. Aujourd'hui, nous annonçons que Lyria 2 est désormais disponible pour tous sur Vertex AI. Dernier-né des modèles de génération musicale de Google, Lyria 2 permet de produire des musiques haute-fidélité dans une grande variété de styles. Véritable partenaire créatif, Lyria 2 propose:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7rpkr"&gt;Une création audio de haute qualité à partir de prompts textuels&lt;/li&gt;&lt;li data-block-key="flmg9"&gt;Un contrôle créatif accru sur les instruments, le tempo (BPM) et sur d’autres caractéristiques&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7hc9v"&gt;Lyria 2 est désormais en « General Availability » Sur Vertex AI. Pour commencer à créer du contenu avec Lyria 2, rendez-vous sur &lt;a href="https://console.cloud.google.com/vertex-ai/studio/media/generate;tab=music?inv=1&amp;amp;invt=Ab417w"&gt;Media Studio&lt;/a&gt; dans Vertex AI. Vous pourrez générer de la musique à partir de prompts textuels ou accéder à l’API du modèle via Vertex AI. Pour vous inspirer, voici quelques exemples de morceaux générés, accompagnés de leurs prompts.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=kSmy1iPmaC8"
      data-glue-modal-trigger="uni-modal-kSmy1iPmaC8-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/kSmy1iPmaC8/maxresdefault.jpg"
             alt="Créer de la musique avec Lyria 2 : Cumbia psychédélique"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-kSmy1iPmaC8-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="kSmy1iPmaC8"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=kSmy1iPmaC8"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Compose une cumbia péruvienne entraînante et rythmée avec une touche psychédélique, en live à Los Angeles lors d’un festival de musique latine. Intègre des guitares électriques, une basse, et une section de percussions mettant en avant les timbales, pour une ambiance puissante et dansante. Le résultat doit être vibrant et énergique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Dza25xkWEYc"
      data-glue-modal-trigger="uni-modal-Dza25xkWEYc-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Dza25xkWEYc/maxresdefault.jpg"
             alt="Creating music with Lyria 2: Epic Orchestral"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Dza25xkWEYc-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Dza25xkWEYc"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Dza25xkWEYc"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Compose une partition orchestrale de type cinématographique grandiose, enregistrée dans un studio londonien avec un orchestre de 100 musiciens. L'ensemble doit être majestueux et profond, mêlant des mélodies planantes, des changements harmoniques dramatiques et des parties de percussions puissantes. Utilise des instruments comme des cors français, des cordes et des timbales dans une approche thématique sophistiquée, avec des orchestrations complexes, une large amplitude dynamique et une profondeur émotionnelle qui évoquent une atmosphère cinématographique saisissante.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="1tbjo"&gt;Voici ce que nos clients disent de Lyria 2 :&lt;/p&gt;&lt;p data-block-key="8h5dj"&gt;&lt;b&gt;Captions&lt;/b&gt; est un outil de création vidéo à l’aide de l’IA qui permet de réaliser rapidement et facilement des vidéos de qualité professionnelle. Lyria 2 a été intégré à la fonctionnalité Mirage Edit de l’outil, offrant ainsi aux utilisateurs la possibilité de générer en quelques instants des vidéos complètes avec une bande-son personnalisée.&lt;/p&gt;&lt;p data-block-key="3chtl"&gt;&lt;i&gt;« Chez Captions, notre fonction Mirage Edit permet déjà à nos abonnés de passer d’un simple prompt à une vidéo entièrement montée par l’IA : images, plans d’illustration, voix-off et transitions sont générées automatiquement. Désormais, nous ajoutons un élément clé : la musique adaptative, générée par Lyria 2 de Google. En un prompt, Lyria compose une bande-son qui s’ajuste au script, au rythme et à chaque moment d’émotion, permettant à nos clients de publier des vidéos courtes de qualité cinématographiques sans quitter Captions ni avoir à fouiller dans des banques de musiques libres de droits ». — Dwight Churchill, Co-fondateur et COO, Captions.ai.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="fbok0"&gt;Dashverse, entreprise proposant des plateformes de contenus numériques telles que Dashtoon et DashReels, exploite Lyria 2 de Google sur Vertex AI pour offrir des capacités avancées de génération musicale à la nouvelle génération de créateurs qui recourent nativement à l’IA pour générer leurs contenus. Cette intégration permet aux utilisateurs de composer des bandes-son dynamiques et émotionnellement adaptées, qui s’ajustent parfaitement au récit et au rythme de leurs contenus sur des plateformes comme DashReels.&lt;/p&gt;&lt;p data-block-key="91sl6"&gt;«&lt;i&gt; Chez Dashverse, nous avons toujours eu à cœur de donner du pouvoir à tous les créateurs– qu’il s’agisse de réaliser des bandes dessinées avec Dashtoon ou des courts-métrages sur DashReels. Pour accompagner notre passage à une narration dynamique et émotionnellement riche sur DashReels, il nous fallait un moteur musical aussi expressif et réactif. Lyria 2 sur Vertex AI répond parfaitement à ce besoin. Il offre à nos utilisateurs un contrôle de niveau professionnel sur la musique — s'adaptant aux émotions, aux scènes et au rythme — sans la complexité technique. Ce n'est pas juste un générateur de bande-son, c’est un véritable amplificateur narratif. Nous sommes très enthousiastes quant aux perspectives qu’offre cette technologie à la nouvelle génération de créateurs qui utilisent nativement l’IA pour générer leurs contenus&lt;/i&gt; ». — Soumyadeep Mukherjee, CTO, Dashverse.&lt;/p&gt;&lt;h3 data-block-key="7usgc"&gt;Créez en toute sécurité, partagez de manière responsable&lt;/h3&gt;&lt;p data-block-key="2lsj5"&gt;La sécurité et la fiabilité des contenus générés par l’IA sont essentielles. C’est pourquoi ces modèles intègrent des protections natives, vous permettant de vous concentrer pleinement sur votre travail créatif. Veo 3, Imagen 4 et Lyria 2 ont tous été conçus avec la sécurité comme principe fondamental, en partenariat avec Google DeepMind.&lt;/p&gt;&lt;p data-block-key="1ev3i"&gt;&lt;b&gt;Filigrane numérique&lt;/b&gt; : Par défaut, toutes les créations générées avec Veo, Imagen et Lyria intègrent SynthID, une technologie qui appose un filigrane invisible directement dans les contenus produits. Ce marquage permet d’identifier les médias issus de l’IA, garantissant ainsi la transparence.&lt;/p&gt;&lt;p data-block-key="d1ktt"&gt;&lt;b&gt;Filtres de sécurité&lt;/b&gt; : Les prompts en entrée comme les contenus générés par tous les modèles d’IA générative multimédia sont contrôlés à l’aide de filtres de sécurité. En configurant le niveau de filtrage souhaité, vous pouvez vous assurer que les contenus produits respectent les valeurs de votre marque. Pour les contenus visuels, vous disposez également d’un contrôle sur la génération de personnages.&lt;/p&gt;&lt;h3 data-block-key="26vrh"&gt;Pour en savoir plus &lt;/h3&gt;&lt;ul&gt;&lt;li data-block-key="mek1"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/image/overview"&gt;Imagen documentation&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="8jucr"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/video/generate-videos"&gt;Veo documentation&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="4qqqv"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/music/generate-music"&gt;Lyria documentation&lt;/a&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Wed, 24 Sep 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Expanding_Vertex_AI.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Vertex AI s'enrichit d’une nouvelle génération de modèles IA génératif multimédia</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Expanding_Vertex_AI.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Katie Nguyen</name><title>Developer Relations Engineer</title><department></department><company></company></author></item><item><title>Ateme révolutionne l’industrie du sous-titrage vidéo avec l’IA de Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/clients/ateme-revolutionne-lindustrie-du-sous-titrage-video-avec-lia-de-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="7d1b0"&gt;&lt;b&gt;À propos d’Ateme&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="bngop"&gt;Fondée en 1991 et basée à Vélizy-Villacoublay, près de Paris, Ateme est une entreprise française spécialisée dans les solutions de compression et de diffusion vidéo. Présente dans plus de 20 pays, la société emploie environ 580 collaborateurs. En 2023, Ateme a réalisé un chiffre d'affaires de 100 millions d'euros, dont plus de 90 % à l'international.&lt;/p&gt;&lt;hr/&gt;&lt;p data-block-key="df2tv"&gt;Entreprise française comptant plus de 580 collaborateurs et présente dans 20 pays, Ateme est un acteur de référence dans l’univers de la vidéo. Depuis sa création, la société s’est imposée comme un pionnier des solutions de compression, de diffusion et de monétisation des contenus audiovisuels. Elle accompagne les principaux opérateurs télécom, chaînes TV et plateformes de streaming à travers le monde, avec une ambition claire : optimiser l’expérience de visionnage, accroître l’engagement des spectateurs et renforcer l’accessibilité des contenus.&lt;/p&gt;&lt;p data-block-key="4n3us"&gt;En septembre 2022, Ateme a franchi une nouvelle étape en nouant un partenariat structurant avec Google Cloud. Cette collaboration marque le point de départ d’une transformation ambitieuse des chaînes de production de l’entreprise. À la croisée de l’expertise vidéo et des technologies d’IA générative, elle aboutit à un premier cas d’usage à fort impact : l’automatisation du sous-titrage multilingue à l’échelle. À la clé : un workflow plus rapide, plus économique et entièrement scalable, qui redéfinit les standards du secteur.&lt;/p&gt;&lt;h3 data-block-key="9d8i2"&gt;&lt;b&gt;Automatiser la génération de sous-titres avec l’IA de Google Cloud&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="fep36"&gt;L’enjeu initial était simple en apparence, mais complexe à mettre en œuvre. Jusqu’alors, générer des sous-titres pour une heure de vidéo dans une langue donnée pouvait mobiliser jusqu’à 15 heures de travail manuel, réparties entre transcription, traduction, synchronisation audio-texte et intégration technique. À cela s’ajoutaient des contraintes de budget et de ressources humaines qui limitaient la portée des projets de sous-titrage, d’autant que le recours à des prestataires spécialisés était lent, difficile à industrialiser et pouvait faire grimper les coûts à plusieurs milliers d’euros. « &lt;i&gt;Dans bien des cas, nos clients devaient faire un choix : traduire dans une seule langue, souvent l’anglais, au lieu de couvrir toutes les langues pertinentes pour leur audience, ce qui limitait mécaniquement leur capacité à diffuser leurs contenus à l’international et à les rendre accessibles, notamment pour les publics non anglophones ou en situation de handicap&lt;/i&gt; », explique Yohann Guilloux, VP Global Partnerships d’Ateme.&lt;/p&gt;&lt;p data-block-key="2rg6m"&gt;Grâce à l’IA générative de Google Cloud, ce processus chronophage a été entièrement automatisé. « &lt;i&gt;Quelques minutes suffisent désormais à produire des sous-titres de qualité professionnelle, avec un niveau de précision adapté aux attentes des diffuseurs. Et,&lt;/i&gt; &lt;i&gt;pour moins d’un dollar, il est possible de générer automatiquement une heure de sous-titres, dans une ou plusieurs langues, avec un rendu parfaitement exploitable en production&lt;/i&gt; », précise-t-il. « &lt;i&gt;Avec Google Cloud, nous changeons totalement la donne : la barrière du coût et du temps s’estompe&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="fjs7m"&gt;Pour parvenir à ce niveau d’efficacité, Ateme a intégré à sa plateforme logicielle une nouvelle étape de traitement directement connectée aux services managés de Google Cloud. Une fois les fichiers vidéo transcodés, le système déclenche automatiquement un appel à Vertex AI et aux modèles Gemini pour effectuer la transcription audio, le repérage précis des timecodes et la génération des sous-titres dans la langue souhaitée. Ceux-ci sont ensuite reformattés dans le format standard SRT de l’industrie audiovisuelle via un script développé en interne. Entièrement intégrée dans le workflow existant, cette fonctionnalité supplémentaire s’insère de manière transparente dans l’interface des clients, sans complexité technique ni rupture dans leurs processus habituels.&lt;/p&gt;&lt;h3 data-block-key="7vu83"&gt;&lt;b&gt;Une transformation profonde de l'économie du sous-titrage&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cnb3m"&gt;Ce virage vers les solutions de Google Cloud marque clairement un tournant stratégique pour Ateme et ses clients. Historiquement, les solutions de la société étaient déployées en local, directement sur l’infrastructure des clients. Aujourd’hui, la majorité de ces acteurs, qu’il s’agisse de plateformes de streaming, de broadcasters ou d’opérateurs télécom, ont migré tout ou partie de leurs environnements vers Google Cloud. En rendant sa plateforme entièrement compatible avec l’écosystème Google Cloud, Ateme facilite donc l’intégration de ses services dans les architectures de ses clients. « &lt;i&gt;Ce choix technologique s’est imposé de lui-même : il permet de réduire les délais de déploiement, d’accroître la souplesse opérationnelle et de proposer une solution alignée avec les standards cloud natifs du secteur. Il explique aussi pourquoi nous avons choisi de nouer un partenariat stratégique avec Google Cloud, au croisement de nos ambitions techniques et des besoins concrets du marché&lt;/i&gt; », précise Jules Mermet-Husson, Cloud Solutions Architect chez Ateme.&lt;/p&gt;&lt;p data-block-key="3o4mt"&gt;Au-delà des gains opérationnels immédiats, cette transformation ouvre aussi la voie à des perspectives inédites, comme le souligne Jules Mermet-Husson : « &lt;i&gt;Il devient possible d’enrichir massivement les catalogues VOD existants, d’accélérer les mises à disposition des contenus, d’élargir la couverture linguistique, mais aussi de satisfaire aux exigences réglementaires d’accessibilité, notamment pour les personnes malentendantes. Les retours du marché sont très positifs : à l’occasion du NAB Show à Las Vegas, nous avons constaté un fort intérêt pour cette solution, notamment de la part de diffuseurs internationaux en quête de scalabilité&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="59glf"&gt;De fait, la transformation opérée par Ateme génère des bénéfices directs pour ses clients : meilleure rentabilité des catalogues existants grâce à la possibilité de sous-titrer massivement à moindre coût ; accès facilité à de nouveaux marchés linguistiques ; conformité accrue et à moindre coût avec les exigences réglementaires en matière d’accessibilité ; et, in fine, une expérience utilisateur enrichie pour des publics plus larges et plus diversifiés.&lt;/p&gt;&lt;h3 data-block-key="i90k"&gt;&lt;b&gt;Enrichir l’expérience client et maximiser la valeur des contenus vidéo&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="spjl"&gt;Coté infrastructure sous-jacente, le projet s’appuie sur un socle robuste. L’application Ateme de transcodage de fichiers, Titan File, est conteneurisée sous forme de microservices et déployée via Google Kubernetes Engine. Les fichiers médias sont stockés dans Google Cloud Storage, d’où ils sont traités par Vertex AI. Grâce à cette infrastructure distribuée, flexible et évolutive, Ateme n’a pas eu à réécrire son existant pour s’adapter : seule une couche d’intégration a été nécessaire. « &lt;i&gt;La transition s’est faite en douceur&lt;/i&gt; », indique Jules Mermet-Husson.&lt;/p&gt;&lt;p data-block-key="7sl7"&gt;Ce projet de sous-titrage constitue la première brique de l’ambition affirmée par Ateme d’apporter des services toujours plus innovants à ses clients. La société travaille déjà sur de futurs cas d’usage exploitant le même socle technologique. L’audiodescription, par exemple, est en ligne de mire : elle nécessite une capacité d’analyse visuelle et contextuelle que les modèles multimodaux les plus récents commencent à offrir. À plus long terme, Ateme envisage de tirer parti de cette dynamique pour enrichir ses offres autour de la personnalisation des contenus, du smart clipping ou encore de la recommandation avancée.&lt;/p&gt;&lt;p data-block-key="640cm"&gt;En fondant leur partenariat sur une base d’innovation continue, Ateme et Google Cloud affirment leur position de pionniers dans la convergence entre vidéo et intelligence artificielle. « &lt;i&gt;Face à l’explosion des volumes de contenus, il ne suffit plus d’avoir une bonne technologie : il faut pouvoir innover vite, à grande échelle, et avec les bons partenaires. L’IA générative de Google Cloud nous donne les moyens d’automatiser ce qui relevait autrefois de l’artisanat. Ensemble, nous construisons une plateforme agile, ouverte et évolutive qui transforme chaque contrainte technique en opportunité de création de valeur&lt;/i&gt; », conclut Jules Mermet-Husson.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 10 Sep 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/ateme-revolutionne-lindustrie-du-sous-titrage-video-avec-lia-de-google-cloud/</guid><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ateme révolutionne l’industrie du sous-titrage vidéo avec l’IA de Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/ateme-revolutionne-lindustrie-du-sous-titrage-video-avec-lia-de-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Planification des workloads GKE : stratégies pour gérer les ressources sous contraintes</title><link>https://cloud.google.com/blog/fr/products/conteneurs-et-kubernetes/planification-des-workloads-gke-strategies-pour-gerer-les-ressources-sous-contraintes/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;En optant pour &lt;a href="https://cloud.google.com/kubernetes-engine"&gt;Google Kubernetes Engine (GKE)&lt;/a&gt;, vous avez choisi un environnement d’exécution de conteneurs hautement managé qui prend en charge, pour vous, toutes les opérations chronophages et complexes, depuis les mises à jour automatiques jusqu'à la gestion simplifiée des nœuds. Dit autrement, vous avez misé sur une efficacité maximale. Cette dernière, intrinsèque à tous services managés, vous permet de vous concentrer davantage sur vos applications, sans vous soucier de l’infrastructure sous-jacente. Dans un monde idéal, combiner cette gestion entièrement automatisée aux capacités avancées d’autoscaling de GKE garantit une gestion optimale des workloads à tout instant. Vos applications s’adaptent en temps réel, accédant aux ressources nécessaires au bon moment, sans effort.&lt;/p&gt;&lt;p data-block-key="34lvm"&gt;Malheureusement, la réalité sur le terrain est toujours un peu plus complexe et nous impose de relever quelques défis supplémentaires. Certes, GKE met à disposition un autoscaling efficient reposant sur quatre piliers complémentaires (Horizontal Pod Autoscaler ‘HPA’, Vertical Pod Autoscaler ‘VPA’, Cluster Autoscaler et le provisionnement automatique des nœuds ou Node Auto Provisioning). Des fondations qui font automatiquement évoluer les workloads et l’infrastructure en fonction des besoins. Mais orchestrer une plateforme vraiment efficiente pour des workloads en perpétuelle évolution exige bien plus que la simple capacité à « passer automatiquement à l’échelle ». Il faut aussi jongler avec l'optimisation des coûts, la disponibilité des ressources, la vitesse de provisioning, les performances et la flexibilité opérationnelle. Tous ces facteurs impactent – et contraignent parfois – la gestion de la répartition des workloads sur GKE. Difficile alors d’y voir clair : Quelle stratégie adopter ? Quels compromis accepter ? Choisir la meilleure voie devient un vrai exercice d’équilibriste.&lt;/p&gt;&lt;p data-block-key="baji5"&gt;Dans cet article, nous allons nous concentrer spécifiquement sur le « scheduler GKE » (planificateur GKE) et les facteurs qui peuvent influencer ses décisions de répartition des workloads quand les ressources sont limitées. Nous verrons comment anticiper et concevoir des solutions pour ces situations en s'appuyant sur les différentes fonctionnalités GKE et les options de configuration de workloads appropriées.&lt;/p&gt;&lt;p data-block-key="1nfpd"&gt;Un problème d’optimisation sous contraintes, avant tout&lt;/p&gt;&lt;p data-block-key="ame44"&gt;En pratique, une planification efficace de la gestion des ressources sur GKE ne consiste pas à chercher LA solution parfaite. Il faut plutôt envisager le problème sous l’angle d’une optimisation multi-critères sous contraintes. Dans la plupart des cas, il s'agit moins de surmonter des limitations strictes que de trouver le meilleur compromis entre des priorités qui peuvent entrer en concurrence :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_trade_offs.max-1800x1800.jpg"
        
          alt="GKE"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ul&gt;&lt;li data-block-key="b1orx"&gt;&lt;b&gt;Coût :&lt;/b&gt; vous voulez réduire les dépenses d'infrastructure globales, optimiser l'utilisation des ressources, éviter le sur-provisionnement et privilégier les solutions rentables.&lt;/li&gt;&lt;li data-block-key="fo85g"&gt;&lt;b&gt;Performance :&lt;/b&gt; vous voulez vous assurer que les workloads respectent leurs SLO en fonction de leur importance pour l'entreprise.&lt;/li&gt;&lt;li data-block-key="3vf8l"&gt;&lt;b&gt;Flexibilité et agilité :&lt;/b&gt; vous voulez pouvoir réagir aux variations de charge de vos workloads en attribuant la bonne capacité au bon moment.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="1j6h7"&gt;Pour faire les bons arbitrages et configurer efficacement GKE, vous devez d’abord identifier vos préférences et fixer vos seuils de tolérance sur chacune de ces dimensions.&lt;/p&gt;&lt;h3 data-block-key="amorn"&gt;Les briques de base de GKE&lt;/h3&gt;&lt;p data-block-key="ecffc"&gt;Sans être le seul facteur en jeu, l'autoscaling et sa configuration jouent un rôle clé dans la planification des workloads. La configuration de la montée en charge est spécifique à chaque environnement. Nous avons documenté certaines &lt;a href="https://cloud.google.com/architecture/best-practices-for-running-cost-effective-kubernetes-applications-on-gke#fine-tune_gke_autoscaling"&gt;bonnes pratiques&lt;/a&gt; pour vous guider.&lt;/p&gt;&lt;p data-block-key="3ptpq"&gt;Sur GKE, l’autoscaling s’exerce sur quatre axes :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bg69m"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/horizontalpodautoscaler"&gt;&lt;b&gt;Horizontal Pod Autoscaler (HPA)&lt;/b&gt;&lt;/a&gt; - ajuste le nombre de répliques de pods&lt;/li&gt;&lt;li data-block-key="3ofbt"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/verticalpodautoscaler"&gt;&lt;b&gt;Vertical Pod Autoscaler (VPA) &lt;/b&gt;&lt;/a&gt; - ajuste les demandes de ressources des pods en fonction de l'utilisation réelle&lt;/li&gt;&lt;li data-block-key="d6kli"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/cluster-autoscaler"&gt;&lt;b&gt;Cluster Autoscaler (CA)&lt;/b&gt;&lt;/a&gt; - ajuste automatiquement le nombre de nœuds&lt;/li&gt;&lt;li data-block-key="6e65h"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/node-auto-provisioning"&gt;&lt;b&gt;Node Auto Provisioner (NAP) &lt;/b&gt;&lt;/a&gt; - ajuste la taille des pools de nœuds selon les besoins des workloads.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="1p92t"&gt;Quand la capacité devient contrainte, il est primordial de connaître précisément ce que vos workloads demandent et consomment comme ressources. Le scheduler GKE s'appuie sur la valeur &lt;a href="https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/" target="_blank"&gt;resource.request&lt;/a&gt;  de chaque pod pour décider où placer les workloads de façon optimale. Si cette valeur n'est pas définie, le scheduler risque de positionner vos pods sur des nœuds sous-dimensionnés, ce qui provoque des préemptions en cascade et donc de l’instabilité. Le paramétrage correct des &lt;i&gt;requests&lt;/i&gt; reste donc essentiel : n’hésitez pas à consulter notre &lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/setting-resource-requests-the-key-to-kubernetes-cost-optimization?e=48754805?utm_source%3Dcgc-blog&amp;amp;hl=en"&gt;documentation détaillée&lt;/a&gt; sur ce sujet.&lt;/p&gt;&lt;h3 data-block-key="a6b7h"&gt;Scénarios de planification des workloads sous contraintes&lt;/h3&gt;&lt;p data-block-key="dck6a"&gt;« &lt;i&gt;Mais alors, quelles sont mes alternatives pour obtenir une plateforme à la fois performante et efficace quand la capacité est contrainte ?&lt;/i&gt; », vous demandez-vous certainement.&lt;br/&gt;Passons ici en revue quelques situations courantes et explorons les différents leviers à votre disposition pour optimiser les coûts, la performance et la flexibilité.&lt;/p&gt;&lt;p data-block-key="fe3br"&gt;&lt;b&gt;Scénario 1 - Capacité fixe ou limitée : comment garantir les ressources aux workloads prioritaires ?&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="2440s"&gt;Dans ce scénario, le nombre de nœuds disponibles est considéré comme statique mais les workloads continuent à évoluer en fonction de la demande. Vous devez donc réserver des ressources pour les workloads critiques et définir explicitement des ordres de priorité (afin d’éviter qu’un service essentiel ne soit évincé par des charges moins stratégiques).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_prio_taints.max-900x900.jpg"
        
          alt="GK2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;&lt;b&gt;La Solution&lt;/b&gt; : des classes de priorité des workloads et des taints (altérations) / tolérances&lt;/p&gt;&lt;p data-block-key="unht"&gt;Les &lt;a href="https://kubernetes.io/docs/concepts/scheduling-eviction/pod-priority-preemption/#priorityclass" target="_blank"&gt;&lt;b&gt;Classes de priorité&lt;/b&gt;&lt;/a&gt; instaurent une hiérarchie d’importance des workloads : le scheduler accorde la préséance aux workloads en fonction de leur niveau de criticité. Comme l’illustre le schéma ci-dessus, lorsque les ressources se raréfient, le scheduler évince (préempte) les workloads de priorité basse (en bleu) pour libérer les ressources nécessaires à ceux de priorité supérieure (en rouge).&lt;/p&gt;&lt;p data-block-key="dbt0u"&gt;Les &lt;a href="https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/" target="_blank"&gt;&lt;b&gt;Taints et Tolérances&lt;/b&gt;&lt;/a&gt; servent à réserver et garantir la capacité. Les « Taints » sont des marqueurs appliqués aux nœuds pour indiquer qu’ils ne doivent pas accepter de charges de travail supplémentaires. Ce sont en quelque sorte des « interdictions par défaut » : pour simplifier, un « taint » interdit l’installation d’un pod sur le nœud « tainté » sauf s’il possède une autorisation spéciale. Les Tolérances permettent de définir ces « autorisations spéciales » : ce sont des paramètres ajoutés aux pods pour leur permettre d’être placés sur des nœuds taintés.&lt;br/&gt;Dit autrement, ces marqueurs empêchent le placement de workloads sur des nœuds inappropriés et réservent l’intégralité des ressources de certains nœuds « taintés » (par exemple dotés de GPU ou de SSD ultra-rapide) à des workloads &lt;b&gt;spécifiquement autorisés&lt;/b&gt;. Tant qu’un pod n’a pas la « tolérance » (l’autorisation spéciale) qui force le « taint » (l’interdiction par défaut) du nœud, il ne pourra jamais y être placé, même si sa classe de priorité est plus élevée que celle des pods autorisés. C’est donc la garantie qu’une capacité précieuse (un GPU, un SSD ultra performant, etc.) ne sera jamais consommée par inadvertance par des workloads non prévus à cet effet.&lt;/p&gt;&lt;p data-block-key="7r1h5"&gt;&lt;b&gt;Scénario 2 - Pics soudains de trafic : comment scaler sans dégradation des performances ni erreurs ?&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="53jt1"&gt;Dans ce scénario, le défi consiste à placer sans délai, le plus rapidement possible, de nouveaux workloads sur un cluster capable de s’étendre horizontalement à la volée. Même si GKE propose des fonctionnalités telles que &lt;a href="https://cloud.google.com/kubernetes-engine/docs/release-notes#May_20_2025"&gt;container-optimized compute&lt;/a&gt; et &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/image-streaming"&gt;image streaming&lt;/a&gt;, qui réduisent considérablement le temps de provisionnement des nouveaux nœuds, la planification des pods reste toujours beaucoup plus rapide que le redimensionnement de nœuds. Le différentiel de vitesse — les pods démarrent en quelques secondes alors que l’ajout d’un nœud prend beaucoup plus de temps — peut provoquer des goulets d’étranglement sur les ressources et dégrader le SLO.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_balloon.max-1100x1100.jpg"
        
          alt="GKE3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;&lt;b&gt;La Solution&lt;/b&gt; : Le provisionnement des Pods (Placeholder pods ou Pods de Réserve) et les profils d’autoscaling&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="29mh8"&gt;Les &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/capacity-provisioning"&gt;&lt;b&gt;Placeholder pods&lt;/b&gt;&lt;/a&gt; (ou balloon pods), autrement dit les Pods Réservés, permettent d’avoir en permanence de la capacité disponible sans le cluster. Lorsqu’un pic soudain survient et que de nouveaux pods doivent être placés, ces pods « balloon » sont évincés (préemptés) afin de libérer immédiatement la capacité qu’ils retenaient et y déployer tout aussi rapidement les nouveaux pods requis. L’autoscaler du cluster provisionne ensuite de nouveaux nœuds pour reloger les balloon pods évincés et, si nécessaire, ajouter encore de la capacité.&lt;/li&gt;&lt;li data-block-key="a88cg"&gt;Les &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/cluster-autoscaler?hl=fr#autoscaling_profiles"&gt;&lt;b&gt;profils d’autoscaling&lt;/b&gt;&lt;/a&gt; permettent de régler la mise hors service des nœuds selon des objectifs de coût ou de performance. Dit autrement, ces profils indiquent comment et quand les nœuds du cluster doivent être supprimés afin d’opérer un « scale-down » automatique. GKE propose deux profils d’autoscaling, applicables au niveau du cluster : &lt;b&gt;balanced&lt;/b&gt; et &lt;b&gt;optimize-utilization&lt;/b&gt;. Le profil &lt;b&gt;balanced&lt;/b&gt; réduit la taille des nœuds de façon moins agressive qu’optimize-utilization, maintenant ainsi les nœuds disponibles plus longtemps : un nouveau pic de demande ne pâtira donc pas du temps de création de nœuds. &lt;b&gt;Optimize-utilization&lt;/b&gt;, en revanche, supprime les nœuds plus rapidement pour maximiser l’utilisation des ressources et réduire les coûts.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="d49r"&gt;Les &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/about-custom-compute-classes#set-autoscaling"&gt;compute classes&lt;/a&gt; (définies ci-après) permettent aussi de réduire le nombre de nœuds de façon ciblée, workload par workload. Elles permettent de définir des règles de consolidation (seuil d’utilisation, délai d’inactivité, etc.) qui déterminent quand un nœud peut être supprimé pour un workload donné.&lt;/p&gt;&lt;p data-block-key="fhcus"&gt;&lt;b&gt;Scénario 3 : Comment ajouter des nœuds dans un cluster quand le type de nœud souhaité n’est pas disponible ?&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="5k1r3"&gt;Dans ce scénario, vous souhaitez étendre votre cluster sans savoir si le type de nœud requis ou préféré, tel un accélérateur hardware ou une &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/spot-vms?hl=fr"&gt;VM spot&lt;/a&gt;, sera réellement disponible.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_ccc.max-800x800.jpg"
        
          alt="GKE4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;&lt;b&gt;La Solution&lt;/b&gt; : GKE &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/about-custom-compute-classes"&gt;custom compute classes&lt;/a&gt; (ou classes de calcul personnalisées). &lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="fjbfe"&gt;Les « compute classes » permettent de définir des types de nœuds préférés et de secours lorsque vous étendez votre cluster. Vous pouvez fixer des priorités pour des propriétés précises de nœuds (CPU, accélérateurs hardware), pour des caractéristiques globales (famille de VM, minimum CPU/Mémoire, instances Spot), ou même pour un type d’instance exact (par ex. : n4-standard-16).&lt;br/&gt;Ces « compute classes » assurent en outre une migration active vers la meilleure option disponible : si un nœud de priorité supérieure (comme une VM Spot) se libère après le déploiement, les workloads se réalignent automatiquement dessus.&lt;br/&gt;Si votre organisation profite déjà de remises “Committed Use Discounts” (CUD) basées sur les ressources (engagement de facturation sur un volume précis de vCPU/RAM contre un tarif réduit), vous pouvez configurer vos « compute classes » pour consommer en priorité ces ressources déjà payées avant de solliciter d’autres types de nœuds. Et pour gagner encore en souplesse entre familles de machines, régions et plateformes de calcul, envisagez à terme de basculer vers les &lt;a href="https://cloud.google.com/compute/docs/instances/committed-use-discounts-overview?hl=fr#spend_based"&gt;CUD flexibles&lt;/a&gt;.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;apiVersion: cloud.google.com/v1\r\nkind: ComputeClass\r\nmetadata:\r\n  name: my-class\r\nspec:\r\n  priorities:\r\n    rules:\r\n    - machineFamily: n4\r\n      minCores: 16\r\n    - machineType: e2-standard-16\r\n    - nodepools: [pool1, pool2]\r\n  autoscalingPolicy:\r\n    consolidationDelayMinutes: 20\r\n  nodepoolAutoCreation:\r\n    enabled: true&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e7c3130&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;&lt;b&gt;Scénario 4 : Que faire quand les ressources matérielles souhaitées ne sont pas disponibles dans une région ?&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="4ocr8"&gt;Dans ce scénario, la capacité requise par le workload est à la fois très spécifique et fortement sollicitée. Il se peut même que ces ressources ne soient pas disponibles dans une région donnée, même en jonglant avec les compute classes. Un casse-tête fréquent pour les applications IA, qui ont besoin d’une infrastructure ultra-performante et d’accélérateurs GPU ou TPU rarement disponibles en grande quantité.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_MCO.max-900x900.jpg"
        
          alt="GKE4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="b1orx"&gt;&lt;b&gt;La Solution &lt;/b&gt;: Multi-Cluster Orchestrator et Multi-Cluster Gateway&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="9jutm"&gt;&lt;a href="https://cloud.google.com/blog/products/containers-kubernetes/multi-cluster-orchestrator-for-cross-region-kubernetes-workloads?e=48754805?utm_source%3Dcgc-blog"&gt;Multi-Cluster Orchestrator&lt;/a&gt; est un &lt;a href="https://github.com/GoogleCloudPlatform/gke-fleet-management/tree/main/multi-cluster-orchestrator" target="_blank"&gt;projet open-source&lt;/a&gt; dont l’objectif est de &lt;i&gt;« simplifier les déploiements multi-cluster, optimiser l’utilisation des ressources et les coûts et renforcer la fiabilité, la scalabilité et les performances des workloads&lt;/i&gt; ». Intégré à GKE, cet outil permet aux ingénieurs plateforme de localiser les ressources au sein des régions Google Cloud, puis de déclencher automatiquement le provisionnement d’un cluster dans la région où ces ressources sont disponibles.&lt;/li&gt;&lt;li data-block-key="e5v9e"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/deploying-multi-cluster-gateways"&gt;Multi-Cluster Gateway&lt;/a&gt; est une solution réseau pour GKE qui s’appuie sur l’API Kubernetes Gateway pour piloter le trafic applicatif entre plusieurs clusters, potentiellement répartis sur plusieurs régions. Elle simplifie considérablement l’exposition des services et l’équilibrage de charge dans des environnements GKE géographiquement distribués.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="10aqc"&gt;Combinées, ces deux solutions permettent une orchestration fluide des workloads dans un environnement multi-régions et offrent une résilience accrue face aux limitations de capacité de certaines régions cloud.&lt;/p&gt;&lt;h3 data-block-key="fi6t0"&gt;Conclusion et pour aller plus loin&lt;/h3&gt;&lt;p data-block-key="6rv7"&gt;GKE fournit aux ingénieurs plateforme un arsenal complet d’outils pour optimiser l’allocation des ressources, même lorsqu’ils sont confrontés à des contraintes de capacité. Pour que la planification de ressources soit réellement efficace et holistique, il faut connaître ses workloads sur le bout des doigts : criticité, profils d’usage, besoins de ressources spécifiques (CPU, mémoire, GPU, etc.). Travailler en environnement contraint peut être un formidable levier pour maîtriser les coûts… à condition de savoir préserver le niveau de performances.&lt;/p&gt;&lt;p data-block-key="ftb7s"&gt;Pour affiner votre démarche, n’hésitez pas à exploiter les ressources suivantes :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7v6c3"&gt;Apprenez à interpréter les indicateurs clés du cluster GKE et des workloads — &lt;a href="https://medium.com/google-cloud/gke-cost-cutting-three-key-lookout-points-to-view-your-potential-savings-10f271dc4fa9" target="_blank"&gt;comme le taux d’utilisation ou le bon dimensionnement (rightsizing)&lt;/a&gt; — pour mieux anticiper les besoins en capacité. Ces indicateurs constituent la base de toute planification solide.&lt;/li&gt;&lt;li data-block-key="216d"&gt;Surveillez les événements de mise à l’échelle (scaling), tels que les échecs de planification de pods et les changements du nombre de nœuds/pods, à l’aide du tableau de bord «&lt;a href="https://console.cloud.google.com/monitoring/dashboards/gke-troubleshooting/unschedulable"&gt; Unschedulable Pods&lt;/a&gt; ».&lt;/li&gt;&lt;li data-block-key="j9fe"&gt;Découvrez la nouvelle fonctionnalité « &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/view-horizontalpodautoscaling-events"&gt;GKE Horizontal Pod Autoscaling Observability Events&lt;/a&gt; », qui permet d’accéder aux journaux des décisions prises par l’autoscaler HPA. Un outil précieux pour analyser les événements de scaling et affiner la conception de votre plateforme en fonction des comportements observés.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Thu, 04 Sep 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/conteneurs-et-kubernetes/planification-des-workloads-gke-strategies-pour-gerer-les-ressources-sous-contraintes/</guid><category>Containers &amp; Kubernetes</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Planification des workloads GKE : stratégies pour gérer les ressources sous contraintes</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/conteneurs-et-kubernetes/planification-des-workloads-gke-strategies-pour-gerer-les-ressources-sous-contraintes/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Daniel Strebel</name><title>Solution Lead, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Olive Power</name><title>EMEA Solutions Lead, Application Modernization</title><department></department><company></company></author></item><item><title>Blackcircles Réinvente l'Achat de Pneus en Ligne et Révolutionne ses Opérations avec Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/clients/blackcircles-reinvente-lachat-de-pneus-en-ligne-et-revolutionne-ses-operations-avec-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="s6xi1"&gt;&lt;b&gt;À PROPOS&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="j8hp"&gt;À propos de Blackcircles Fondée en 2001 à Édimbourg, Blackcircles est un leader de la vente de pneus en ligne. Avec plus de 2 200 garages partenaires au Royaume-Uni, l'entreprise simplifie l'achat et le montage de pneus grâce à un service client reconnu. Fort de son succès, elle poursuit son expansion internationale, notamment au Canada, en Égypte et en Afrique du Sud, adaptant son modèle innovant aux spécificités locales.&lt;/p&gt;&lt;p data-block-key="abak4"&gt;—--------------&lt;/p&gt;&lt;p data-block-key="1eigf"&gt;Filiale de Michelin depuis 2015, Blackcircles s'est imposée comme le leader incontesté de la vente de pneus en ligne au Royaume-Uni avant de progressivement conquérir la scène internationale. Fondée en 2001 à Édimbourg, où elle a établi son siège social, l'entreprise s'est progressivement étendue à l'international, notamment au Canada, en Égypte et en Italie. Cette expansion mondiale s'intensifie pour apporter son modèle innovant à un nombre croissant de marchés à travers le monde.&lt;/p&gt;&lt;p data-block-key="6gomn"&gt;Dans un secteur traditionnellement complexe pour les consommateurs, Blackcircles s'est donné pour mission d'offrir à ses clients la meilleure expérience possible en simplifiant radicalement l'achat de pneus. Le succès de cette approche se reflète dans un Net Promoter Score impressionnant de 79, très proche de son objectif ambitieux de 80, démontrant une satisfaction client exceptionnelle dans un secteur souvent considéré comme technique et peu engageant.&lt;/p&gt;&lt;p data-block-key="dfesf"&gt;Maintenir ce niveau d'excellence tout en poursuivant des plans de croissance ambitieux nécessite une infrastructure technologique à la hauteur. Au fil des ans, Blackcircles a progressivement renforcé sa collaboration avec Google pour mettre en place une architecture de données robuste qui ouvre de nouvelles perspectives.&lt;/p&gt;&lt;h3 data-block-key="e662k"&gt;&lt;b&gt;Google Cloud au Cœur de la Transformation Digitale de Blackcircles&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cenud"&gt;« Notre collaboration de longue date avec Google sur la publicité nous a naturellement conduits vers Google Cloud lorsque nous avons cherché à centraliser nos données et à exploiter le potentiel de l'IA », déclare Stephen Dewar, Directeur Marketing chez Blackcircles.&lt;/p&gt;&lt;p data-block-key="8c3oo"&gt;Cette évolution est née d'un problème concret lié aux changements profonds dans le paysage du suivi des données utilisateurs. « L'évolution des normes de confidentialité, le RGPD, le blocage des cookies... tous ces facteurs ont rendu la compréhension du comportement des clients de plus en plus difficile », explique Stephen Dewar. « Nous avons donc décidé de migrer nos données vers BigQuery tout en intégrant Google Tag Manager côté serveur dans notre architecture de données, une solution qui nous permet de centraliser efficacement notre suivi tout en assurant la protection des données de nos utilisateurs. »&lt;/p&gt;&lt;p data-block-key="3un8m"&gt;En pratique, l'architecture de données mise en place repose sur Google BigQuery pour l'analyse en temps réel du comportement des consommateurs, Google Cloud Storage pour le stockage sécurisé et conforme, Google Cloud Run pour le déploiement rapide de nouvelles fonctionnalités, Vertex AI et les modèles Gemini pour alimenter les projets d'intelligence artificielle, ainsi que Google Analytics 4 pour une vue unifiée du parcours client.&lt;/p&gt;&lt;p data-block-key="2vcv3"&gt;« Auparavant, notre analyse de données était très manuelle : des connexions directes à Google Analytics, des feuilles de calcul et beaucoup de travail fastidieux », explique Stephen Dewar. « La flexibilité offerte par BigQuery a clairement changé la donne. Outre sa capacité à traiter d'énormes volumes de données, elle nous permet de croiser facilement les informations. Nous pouvons désormais combiner nos données de vente avec les données comportementales, les avis clients et même les données météorologiques, ce qui est crucial dans notre secteur où les achats de pneus sont fortement influencés par les conditions climatiques. Nous pouvons également exécuter des requêtes complexes en quelques secondes alors qu'auparavant cela nous prenait beaucoup plus de temps, créer des segmentations clients ultra-précises, alimenter nos tableaux de bord en temps réel ou générer des rapports marketing automatisés et, plus largement, comprendre le parcours client de bout en bout. »&lt;/p&gt;&lt;h3 data-block-key="1opno"&gt;&lt;b&gt;Trois Avancées Majeures Propulsées par l'IA et les Données&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="9re2v"&gt;Cette nouvelle façon d'aborder les données et l'IA nous a aidés à atteindre notre objectif qui était de capitaliser sur ces données centralisées, fiables et conformes pour entrer pleinement dans l'ère de l'IA. » Et c'est précisément ce que Blackcircles a fait en donnant naissance à trois projets innovants.&lt;/p&gt;&lt;p data-block-key="11s8n"&gt;Baptisé Navigator, le premier projet s'appuie sur Vertex Search for Retail, une solution d'IA clé en main conçue pour améliorer significativement les fonctionnalités de recherche sur les sites de commerce électronique. « Nous avons ainsi remplacé un système coûteux par une solution plus efficace et moins chère qui comprend les intentions des clients et affine les résultats en fonction de leurs besoins de recherche immédiats », explique Stephen Dewar. Très réussie, cette évolution a permis de réduire les coûts d'infrastructure et d'améliorer l'expérience client, tout en collectant des données précieuses sur les habitudes de recherche des consommateurs qui alimentent continuellement un cycle d'apprentissage et d'amélioration pour l'entreprise.&lt;/p&gt;&lt;p data-block-key="c5c9m"&gt;Axé sur les processus internes quotidiens, le deuxième projet, Nexus, exploite le potentiel de Vertex AI et des modèles Gemini. « Nous ne voulions pas simplement donner à tout le monde dans l'entreprise les clés du royaume, mais plutôt créer un environnement où les employés peuvent apprendre à utiliser l'IA de manière structurée. C'est pourquoi nous avons mis en place un hub centralisé qui propose des modules prêts à l'emploi pour améliorer l'efficacité de nos employés au quotidien », explique Stephen Dewar. Nexus comprend déjà une vingtaine de modules pilotés par l'IA, dont un système d'analyse de contrats juridiques qui a considérablement réduit les délais de traitement, des outils de personnalisation de la communication écrite et des générateurs de plans de projets structurés. « Au total, Nexus nous a déjà permis de libérer du temps consacré à des tâches à faible valeur ajoutée afin que nous puissions nous concentrer sur la croissance. »&lt;/p&gt;&lt;p data-block-key="3tvkd"&gt;Enfin, TyreMate, développé avec Google Dialogflow CX et récemment mis en ligne sur le site web britannique, représente le troisième projet né de cette infrastructure de données modernisée, exploitant la puissance de l'IA sur des données fiables et centralisées. « Nous travaillons dans le secteur du pneumatique et nous savons que ce n'est pas le produit le plus facile à acheter. Notre mission est d'offrir à nos clients la meilleure expérience possible et de leur offrir une meilleure voie à suivre », rappelle le Directeur Marketing. « Nous avons donc conçu un assistant virtuel intelligent qui guide les clients tout au long du processus d'achat avec des recommandations personnalisées basées sur le véhicule, le style de conduite et le budget. Il offre également des réponses instantanées aux questions techniques complexes, simplifie le suivi des commandes et fournit aux clients un accompagnement convivial et utile lors de leurs achats en ligne. »&lt;/p&gt;&lt;h3 data-block-key="dcpti"&gt;&lt;b&gt;Cultiver l'Innovation et les Compétences pour Aller Plus Loin&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="955ti"&gt;Afin de maximiser l'impact de cette transformation et de continuer à capitaliser sur son infrastructure de données, Blackcircles a également souscrit au programme Google Cloud Skills Boost pour aider ses équipes à acquérir des compétences avancées en IA et à générer de nouvelles idées.&lt;/p&gt;&lt;p data-block-key="9fel5"&gt;« Notre ambition est de créer une véritable culture de l'innovation à tous les niveaux de l'entreprise. D'ici fin 2025, nous prévoyons de transformer Nexus en une plateforme interne en libre-service qui permettra à chaque employé de créer ses propres outils. Nous explorons également des solutions comme Notebooks LM pour transformer nos contenus complexes en podcasts accessibles à tous. En fin de compte, les solutions Google Cloud nous ont permis de passer d'une approche réactive à une approche proactive dans tous nos processus, transformant fondamentalement notre relation avec nos clients et nos partenaires », conclut Stephen Dewar.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 29 Aug 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/blackcircles-reinvente-lachat-de-pneus-en-ligne-et-revolutionne-ses-operations-avec-google-cloud/</guid><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Blackcircles Réinvente l'Achat de Pneus en Ligne et Révolutionne ses Opérations avec Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/blackcircles-reinvente-lachat-de-pneus-en-ligne-et-revolutionne-ses-operations-avec-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Comment créer et déployer un serveur MCP distant sur Google Cloud Run en 10 minutes chrono !</title><link>https://cloud.google.com/blog/fr/topics/developers-practitioners/comment-creer-et-deployer-un-serveur-mcp-distant-sur-google-cloud-run-en-10-minutes-chrono/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Plus un modèle IA a connaissance des contextes, plus ses réponses sont pertinentes et moins il a tendance à halluciner. Mais cette intégration du contexte – issu des outils métier et des sources de données – dans les LLMs s’avère souvent laborieuse et freine la création et la démocratisation des agents IA. Pour relever ce défi, Anthropic a introduit le &lt;a href="https://modelcontextprotocol.io/introduction" target="_blank"&gt;&lt;b&gt;Model Context Protocol (MCP)&lt;/b&gt;&lt;/a&gt;, qui standardise la manière dont les applications fournissent du contexte aux LLM.&lt;/p&gt;&lt;p data-block-key="18q26"&gt;Imaginez que vous souhaitiez créer un serveur MCP pour votre API afin de le rendre vos données accessibles à d’autres développeurs, pour qu’ils puissent l’utiliser comme contexte dans leurs propres applications d’IA. Se posera alors forcément la question « où le déployer ? ». Notre réponse à cette question sonne comme une évidence : « sur Google Cloud Run bien sûr ! »&lt;/p&gt;&lt;p data-block-key="78brg"&gt;Le guide ci-dessous, directement inspiré de &lt;a href="https://cloud.google.com/run/docs/host-mcp-servers"&gt;la documentation officielle de Cloud Run&lt;/a&gt;, vous montre étape par étape comment créer et héberger facilement votre propre serveur MCP à distance. De quoi révolutionner la manière dont vous injectez du contexte dans vos applications IA !&lt;/p&gt;&lt;h2 data-block-key="4q9pa"&gt;Transports MCP&lt;/h2&gt;&lt;p data-block-key="8oed7"&gt;Le protocole MCP repose sur une architecture client-serveur. À l’origine limité à une exécution locale via stdio, le protocole MCP a, depuis, considérablement évolué et prend désormais en charge des transports d’accès distant : streamable-http et sse. Certes, les « Server-Sent Events » (SSE) sont aujourd’hui obsolètes et remplacés par Streamable HTTP dans la dernière spécification MCP, mais ils restent pris en charge pour assurer la compatibilité avec les versions précédentes.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/MCP-blog-image.max-2100x2100.png"
        
          alt="MCP"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="jptig"&gt;&lt;a href="https://modelcontextprotocol.io/introduction"&gt;https://modelcontextprotocol.io/introduction&lt;/a&gt;&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Avec Streamable HTTP, le serveur MCP fonctionne comme un processus indépendant capable de gérer plusieurs connexions client. Ce transport utilise les requêtes HTTP POST et GET.&lt;/p&gt;&lt;p data-block-key="8g9"&gt;Le serveur DOIT exposer un unique chemin d’endpoint HTTP (appelé endpoint MCP) supportant les méthodes POST et GET. Par exemple, au travers d’une URL telle que : &lt;a href="https://example.com/mcp" target="_blank"&gt;https://example.com/mcp&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="95a6k"&gt;Pour explorer les différents types de transport, consultez la &lt;a href="https://modelcontextprotocol.io/introduction" target="_blank"&gt;documentation officielle de MCP&lt;/a&gt;.&lt;/p&gt;&lt;h2 data-block-key="1nje5"&gt;Pourquoi passer au serveur MCP distant ?&lt;/h2&gt;&lt;p data-block-key="dlh86"&gt;Exécuter un serveur MCP à distance sur Google Cloud Run offre plusieurs avantages :&lt;/p&gt;&lt;p data-block-key="f62a0"&gt;&lt;b&gt;Scalabilité :&lt;/b&gt; Cloud Run est conçu pour &lt;a href="https://cloud.google.com/run/docs/about-instance-autoscaling"&gt;s’adapter rapidement au volume des requêtes entrantes&lt;/a&gt;. Le service absorbe sans sourciller les montées en charge, dimensionnant votre serveur MCP à la volée, que ce soit pour quelques requêtes ou de massifs pics soudains de trafic.&lt;/p&gt;&lt;p data-block-key="7960c"&gt;&lt;b&gt;Serveur centralisé :&lt;/b&gt; Vous pouvez partager l’accès à un serveur MCP centralisé avec d’autres membres de votre équipe via les privilèges IAM. Chacun peut s’y connecter depuis sa propre machine, en toute sécurité, sans avoir à gérer son propre serveur. Toute modification apportée au serveur MCP profite instantanément à tous les utilisateurs.&lt;/p&gt;&lt;p data-block-key="4htth"&gt;&lt;b&gt;Sécurité renforcée :&lt;/b&gt; Cloud Run facilite la mise en place d’un accès authentifié, garantissant que seules les connexions autorisées peuvent accéder à votre serveur MCP et évitant ainsi tout accès non autorisé.&lt;/p&gt;&lt;p data-block-key="8u4dl"&gt;&lt;b&gt;IMPORTANT&lt;/b&gt; : sans authentification, votre serveur MCP devient accessible à n’importe qui sur le web. Une faille critique à éviter absolument.&lt;/p&gt;&lt;h2 data-block-key="68pnj"&gt;Prérequis&lt;/h2&gt;&lt;p data-block-key="7ajsf"&gt;* &lt;b&gt;Python 3.10&lt;/b&gt; ou supérieur&lt;/p&gt;&lt;p data-block-key="a1vgh"&gt;* &lt;b&gt;Uv&lt;/b&gt;, l’outil nouvelle génération pour gérer vos dépendances Python et piloter votre projet. Consultez &lt;a href="https://docs.astral.sh/uv/getting-started/installation/" target="_blank"&gt;la doc officielle&lt;/a&gt; pour une installation rapide.&lt;/p&gt;&lt;p data-block-key="e0ls4"&gt;* &lt;b&gt;Google Cloud SDK&lt;/b&gt; (gcloud)&lt;/p&gt;&lt;h2 data-block-key="8m709"&gt;Installation&lt;/h2&gt;&lt;p data-block-key="a7vvb"&gt;&lt;b&gt;Adaptation dynamique et incisive :&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="d47lj"&gt;Commencez par créer un dossier de travail « mcp-on-cloudrun ». C’est dans ce répertoire que vous centraliserez l’ensemble du code source de votre serveur MCP ainsi que les fichiers nécessaires au déploiement sur Cloud Run.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;mkdir mcp-on-cloudrun\r\ncd mcp-on-cloudrun&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2580&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Passons à l’action ! Utilisez &lt;b&gt;uv&lt;/b&gt; pour initialiser votre projet. Ce puissant gestionnaire de projets va simplifier à la fois la création et la gestion des dépendances de votre serveur MCP.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;uv init --name &amp;quot;mcp-on-cloudrun&amp;quot; --description &amp;quot;Example of deploying a MCP server on Cloud Run&amp;quot; --bare --python 3.10&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2460&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Après avoir exécuté la commande ci-dessus, vous devriez voir apparaître le fichier pyproject.toml suivant :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;[project]\r\nname = &amp;quot;mcp-on-cloudrun&amp;quot;\r\nversion = &amp;quot;0.1.0&amp;quot;\r\ndescription = &amp;quot;Example of deploying a MCP server on Cloud Run&amp;quot;\r\nrequires-python = &amp;quot;&amp;gt;=3.10&amp;quot;\r\ndependencies = []&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2b50&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Poursuivons la mise en place ! Ajoutez maintenant les fichiers essentiels à la racine de votre projet :&lt;br/&gt;- &lt;b&gt;server.py&lt;/b&gt; : le cœur du code de votre serveur MCP.&lt;br/&gt;- &lt;b&gt;test_server.py&lt;/b&gt; : pour valider facilement le fonctionnement du serveur à distance.&lt;br/&gt;- &lt;b&gt;Dockerfile&lt;/b&gt; : indispensable pour packager et déployer votre application sur Cloud Run.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;touch server.py test_server.py Dockerfile&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2430&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;La structure de nos fichiers devrait maintenant être complète et ressembler à ça :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;├── mcp-on-cloudrun\r\n│   ├── pyproject.toml\r\n│   ├── server.py\r\n│   ├── test_server.py\r\n│   └── Dockerfile&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2f10&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Maintenant que notre structure de fichiers est en place, configurons nos identifiants Google Cloud et sélectionnons notre projet :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud auth login\r\nexport PROJECT_ID=&amp;lt;your-project-id&amp;gt;\r\ngcloud config set project $PROJECT_ID&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2670&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4llal"&gt;Math MCP Server&lt;/h3&gt;&lt;p data-block-key="h3vu"&gt;Les LLM excellent dans les tâches non déterministes : comprendre l’intention, générer du texte créatif, résumer des idées complexes ou raisonner sur des concepts abstraits. En revanche, ils sont notoirement peu fiables pour les tâches déterministes : celles qui n’admettent qu’une seule réponse correcte.&lt;/p&gt;&lt;p data-block-key="5c7ol"&gt;Doter les LLM de fonctions déterministes (comme des opérations de calcul mathématique) est un bon exemple de la façon dont des outils externes peuvent apporter un contexte précieux via MCP pour améliorer leur utilisation et/ou leurs capacités.&lt;/p&gt;&lt;p data-block-key="9f7sp"&gt;Nous allons utiliser FastMCP pour créer un simple serveur MCP dédié aux opérations mathématiques, doté de deux « outils » : addition et soustraction. FastMCP propose une méthode rapide et pythonique pour construire des serveurs et clients MCP.&lt;/p&gt;&lt;p data-block-key="21onr"&gt;Ajoutez &lt;b&gt;FastMCP&lt;/b&gt; comme dépendance dans votre fichier pyproject.toml :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;uv add fastmcp==2.6.1 --no-sync&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2610&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Copiez et collez le code suivant dans le fichier server.py afin de mettre en place notre serveur MCP dédié aux opérations mathématiques :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import asyncio\r\nimport logging\r\nimport os\r\n\r\nfrom fastmcp import FastMCP \r\n\r\nlogger = logging.getLogger(__name__)\r\nlogging.basicConfig(format=&amp;quot;[%(levelname)s]: %(message)s&amp;quot;, level=logging.INFO)\r\n\r\nmcp = FastMCP(&amp;quot;MCP Server on Cloud Run&amp;quot;)\r\n\r\n@mcp.tool()\r\ndef add(a: int, b: int) -&amp;gt; int:\r\n    &amp;quot;&amp;quot;&amp;quot;Use this to add two numbers together.\r\n    \r\n    Args:\r\n        a: The first number.\r\n        b: The second number.\r\n    \r\n    Returns:\r\n        The sum of the two numbers.\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    logger.info(f&amp;quot;&amp;gt;&amp;gt;&amp;gt; Tool: \&amp;#x27;add\&amp;#x27; called with numbers \&amp;#x27;{a}\&amp;#x27; and \&amp;#x27;{b}\&amp;#x27;&amp;quot;)\r\n    return a + b\r\n\r\n@mcp.tool()\r\ndef subtract(a: int, b: int) -&amp;gt; int:\r\n    &amp;quot;&amp;quot;&amp;quot;Use this to subtract two numbers.\r\n    \r\n    Args:\r\n        a: The first number.\r\n        b: The second number.\r\n    \r\n    Returns:\r\n        The difference of the two numbers.\r\n    &amp;quot;&amp;quot;&amp;quot;\r\n    logger.info(f&amp;quot;&amp;gt;&amp;gt;&amp;gt; Tool: \&amp;#x27;subtract\&amp;#x27; called with numbers \&amp;#x27;{a}\&amp;#x27; and \&amp;#x27;{b}\&amp;#x27;&amp;quot;)\r\n    return a - b\r\n\r\nif __name__ == &amp;quot;__main__&amp;quot;:\r\n    logger.info(f&amp;quot; MCP server started on port {os.getenv(\&amp;#x27;PORT\&amp;#x27;, 8080)}&amp;quot;)\r\n    # Could also use \&amp;#x27;sse\&amp;#x27; transport, host=&amp;quot;0.0.0.0&amp;quot; required for Cloud Run.\r\n    asyncio.run(\r\n        mcp.run_async(\r\n            transport=&amp;quot;streamable-http&amp;quot;, \r\n            host=&amp;quot;0.0.0.0&amp;quot;, \r\n            port=os.getenv(&amp;quot;PORT&amp;quot;, 8080),\r\n        )\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2af0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4llal"&gt;Transport&lt;/h3&gt;&lt;p data-block-key="a8fi8"&gt;Dans cet exemple, nous utilisons le transport &lt;b&gt;streamable-http&lt;/b&gt;, recommandé pour les serveurs distants. Cependant, il est également possible d’utiliser &lt;b&gt;sse&lt;/b&gt; (Server-Sent Events), qui reste pris en charge pour des raisons de compatibilité.&lt;/p&gt;&lt;p data-block-key="8ahvo"&gt;Si vous souhaitez utiliser &lt;b&gt;sse&lt;/b&gt;, il suffit de modifier la dernière ligne du fichier server.py en définissant &lt;b&gt;transport="sse".&lt;/b&gt;&lt;/p&gt;&lt;h2 data-block-key="2ceee"&gt;Déploiement sur Cloud Run&lt;/h2&gt;&lt;p data-block-key="9olai"&gt;Il est temps de passer au déploiement sur Cloud Run. Copiez et collez le code ci-dessous dans le fichier Dockerfile (actuellement vide) : ce fichier utilise uv pour exécuter notre server.py.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# Use the official Python lightweight image\r\nFROM python:3.13-slim\r\n\r\n# Install uv\r\nCOPY --from=ghcr.io/astral-sh/uv:latest /uv /uvx /bin/\r\n\r\n# Install the project into /app\r\nCOPY . /app\r\nWORKDIR /app\r\n\r\n# Allow statements and log messages to immediately appear in the logs\r\nENV PYTHONUNBUFFERED=1\r\n\r\n# Install dependencies\r\nRUN uv sync\r\n\r\nEXPOSE $PORT\r\n\r\n# Run the FastMCP server\r\nCMD [&amp;quot;uv&amp;quot;, &amp;quot;run&amp;quot;, &amp;quot;server.py&amp;quot;]&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2520&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Deux options s’offrent à vous : déployer directement votre code source ou passer par une image conteneurisée.&lt;/p&gt;&lt;p data-block-key="9okpe"&gt;Quel que soit votre choix, il est crucial d’ajouter le flag --no-allow-unauthenticated lors du déploiement : c’est votre rempart contre tout accès non autorisé. Sans cette précaution, votre serveur MCP serait exposé à la première sollicitation venue… avec tous les risques que cela implique.&lt;/p&gt;&lt;h3 data-block-key="apsft"&gt;Option 1 – Déployer le code source&lt;/h3&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud run deploy mcp-server --no-allow-unauthenticated --region=us-central1 --source .&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2370&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4llal"&gt;Option 2 – Déployer une image conteneurisée&lt;/h3&gt;&lt;p data-block-key="3m6jq"&gt;Commencez par créer un dépôt &lt;a href="https://cloud.google.com/artifact-registry/docs"&gt;Artifact Registry&lt;/a&gt; pour stocker l’image du conteneur.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud artifacts repositories create remote-mcp-servers \\\r\n  --repository-format=docker \\\r\n  --location=us-central1 \\\r\n  --description=&amp;quot;Repository for remote MCP servers&amp;quot; \\\r\n  --project=$PROJECT_ID&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b22e0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Enchaînons avec la création de votre image Docker et son transfert sécurisé dans Artifact Registry grâce à &lt;a href="https://cloud.google.com/build"&gt;&lt;b&gt;Cloud Build&lt;/b&gt;&lt;/a&gt;.&lt;br/&gt;Cet outil Google Cloud automatise chaque étape : compilation de l’image, gestion des dépendances et push dans votre repository Artifact Registry, le tout dans un environnement conteneurisé, fiable et reproductible.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud builds submit --region=us-central1 --tag us-central1-docker.pkg.dev/$PROJECT_ID/remote-mcp-servers/mcp-server:latest&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2700&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Il ne reste plus qu’à déployer votre image conteneurisée du serveur MCP sur Cloud Run.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud run deploy mcp-server \\\r\n  --image us-central1-docker.pkg.dev/$PROJECT_ID/remote-mcp-servers/mcp-server:latest \\\r\n  --region=us-central1 \\\r\n  --no-allow-unauthenticated&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b26d0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Une fois l’une ou l’autre des options terminée, si votre service a été déployé avec succès, vous verrez s’afficher un message similaire à celui-ci :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;Service [mcp-server] revision [mcp-server-12345-abc] has been deployed and is serving 100 percent of traffic.&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2280&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h2 data-block-key="4llal"&gt;Authentification des clients MCP&lt;/h2&gt;&lt;p data-block-key="aiihg"&gt;On ne badine pas avec la sécurité, même sur des tests. Puisque nous avons spécifié un peu plus haut l’option « --no-allow-unauthenticated » pour exiger une authentification, tout client MCP se connectant à notre serveur MCP distant devra s’authentifier.&lt;/p&gt;&lt;p data-block-key="cgrvp"&gt;La documentation officielle «&lt;a href="https://cloud.google.com/run/docs/host-mcp-servers#authenticate_mcp_clients"&gt;&lt;b&gt; Héberger des serveurs MCP sur Cloud Run &lt;/b&gt;&lt;/a&gt;» fournit des informations détaillées sur ce sujet, selon l’environnement dans lequel vous exécutez votre client MCP.&lt;/p&gt;&lt;p data-block-key="bvpmb"&gt;Dans cet exemple, nous utiliserons le &lt;a href="https://cloud.google.com/sdk/gcloud/reference/run/services/proxy"&gt;proxy Cloud Run&lt;/a&gt; pour établir un tunnel authentifié vers notre serveur MCP distant, directement depuis notre machine locale.&lt;/p&gt;&lt;p data-block-key="c2t9t"&gt;Par défaut, l’URL des services Cloud Run exige que toutes les requêtes soient autorisées avec le rôle IAM «&lt;a href="https://cloud.google.com/run/docs/securing/managing-access#invoker"&gt; Cloud Run Invoker &lt;/a&gt;» (roles/run.invoker). Ce binding de politique IAM garantit l’utilisation d’un mécanisme d’authentification robuste pour votre client MCP local.&lt;/p&gt;&lt;p data-block-key="3vko2"&gt;Assurez-vous que vous, ainsi que tous les membres de l’équipe qui souhaitent accéder au serveur MCP distant, disposez bien du rôle IAM « roles/run.invoker » associé à votre compte Google Cloud principal (ou à leurs comptes Google Cloud).&lt;/p&gt;&lt;p data-block-key="6hgvj"&gt;&lt;b&gt;Remarque :&lt;/b&gt; La commande suivante peut vous inviter à télécharger le proxy Cloud Run s’il n’est pas déjà installé. Suivez les instructions pour l’installer si besoin.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;gcloud run services proxy mcp-server --region=us-central1&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2f70&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Si tout se passe bien, vous devriez voir apparaître le message suivant :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;Proxying to Cloud Run service [mcp-server] in project [&amp;lt;YOUR_PROJECT_ID&amp;gt;] region [us-central1]\r\nhttp://127.0.0.1:8080 proxies to https://mcp-server-abcdefgh-uc.a.run.app&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2dc0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Tout le trafic envoyé vers http://127.0.0.1:8080 sera désormais authentifié et redirigé vers notre serveur MCP distant.&lt;/p&gt;&lt;h2 data-block-key="4gqfl"&gt;Tester le serveur MCP distant&lt;/h2&gt;&lt;p data-block-key="558i6"&gt;Dernière ligne droite : la validation ! Connectez-vous à votre serveur MCP fraîchement déployé avec le client FastMCP, via l’URL locale sécurisée http://127.0.0.1:8080/mcp (attention, le suffixe /mcp est indispensable avec le transport Streamable HTTP).&lt;/p&gt;&lt;p data-block-key="b9oe5"&gt;Il ne vous reste plus qu’à ajouter ce script dans test_server.py pour tester en conditions réelles les fonctions d’addition et de soustraction de votre serveur MCP distant.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import asyncio\r\n\r\nfrom fastmcp import Client\r\n\r\nasync def test_server():\r\n    # Test the MCP server using streamable-http transport.\r\n    # Use &amp;quot;/sse&amp;quot; endpoint if using sse transport.\r\n    async with Client(&amp;quot;http://localhost:8080/mcp&amp;quot;) as client:\r\n        # List available tools\r\n        tools = await client.list_tools()\r\n        for tool in tools:\r\n            print(f&amp;quot;&amp;gt;&amp;gt;&amp;gt; Tool found: {tool.name}&amp;quot;)\r\n        # Call add tool\r\n        print(&amp;quot;&amp;gt;&amp;gt;&amp;gt;  Calling add tool for 1 + 2&amp;quot;)\r\n        result = await client.call_tool(&amp;quot;add&amp;quot;, {&amp;quot;a&amp;quot;: 1, &amp;quot;b&amp;quot;: 2})\r\n        print(f&amp;quot;&amp;lt;&amp;lt;&amp;lt;  Result: {result[0].text}&amp;quot;)\r\n        # Call subtract tool\r\n        print(&amp;quot;&amp;gt;&amp;gt;&amp;gt;  Calling subtract tool for 10 - 3&amp;quot;)\r\n        result = await client.call_tool(&amp;quot;subtract&amp;quot;, {&amp;quot;a&amp;quot;: 10, &amp;quot;b&amp;quot;: 3})\r\n        print(f&amp;quot;&amp;lt;&amp;lt;&amp;lt; Result: {result[0].text}&amp;quot;)\r\n\r\nif __name__ == &amp;quot;__main__&amp;quot;:\r\n    asyncio.run(test_server())&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b6e3b2160&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;&lt;b&gt;Remarque :&lt;/b&gt; Assurez-vous que le proxy Cloud Run est bien lancé avant d’exécuter le serveur de test.&lt;/p&gt;&lt;p data-block-key="ce58v"&gt;Dans une nouvelle fenêtre Terminal, exécuter la commande :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;uv run test_server.py&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b68594850&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Vous devriez voir s’afficher :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;&amp;gt;&amp;gt;&amp;gt; Tool found: add\r\n&amp;gt;&amp;gt;&amp;gt; Tool found: subtract\r\n&amp;gt;&amp;gt;&amp;gt; Calling add tool for 1 + 2\r\n&amp;lt;&amp;lt;&amp;lt; Result: 3\r\n&amp;gt;&amp;gt;&amp;gt; Calling subtract tool for 10 - 3\r\n&amp;lt;&amp;lt;&amp;lt; Result: 7&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f5b685947c0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4llal"&gt;Félicitations ! Vous avez déployé avec succès un serveur MCP distant sur Cloud Run et l’avez testé à l’aide du client FastMCP.&lt;/p&gt;&lt;p data-block-key="88ri5"&gt;Envie d’aller plus loin dans le déploiement d’applications IA sur Cloud Run ? Le blog « &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/ai-studio-to-cloud-run-and-cloud-run-mcp-server"&gt;Easily Deploying AI Apps to Cloud Run&lt;/a&gt; » extrait du dernier Google I/O vous propose de maîtriser toutes les astuces et dernières avancées du déploiement d’IA sur Cloud Run. À explorer sans hésiter pour monter en puissance !&lt;/p&gt;&lt;/div&gt;</description><pubDate>Sun, 24 Aug 2025 11:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/developers-practitioners/comment-creer-et-deployer-un-serveur-mcp-distant-sur-google-cloud-run-en-10-minutes-chrono/</guid><category>Developers &amp; Practitioners</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Comment créer et déployer un serveur MCP distant sur Google Cloud Run en 10 minutes chrono !</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/developers-practitioners/comment-creer-et-deployer-un-serveur-mcp-distant-sur-google-cloud-run-en-10-minutes-chrono/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jack Wotherspoon</name><title>Developer Advocate</title><department></department><company></company></author></item><item><title>À quel point votre IA est-elle performante ? Guide d’évaluation de l’IA générative étape par étape</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Progressivement, l’IA est passée du stade d’expérimentation prometteuse à celui de levier stratégique pour l’entreprise. Cette évolution modifie la nature des enjeux : la vraie question aujourd’hui n’est plus « &lt;i&gt;Que peut-elle faire ?&lt;/i&gt; », mais « &lt;i&gt;À quel point est-elle efficace dans ce qu’elle fait ?&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="8c5nu"&gt;Garantir la qualité, la fiabilité et la sécurité de vos applications IA est devenu un impératif stratégique. Pour y parvenir, l’évaluation continue doit devenir un réflexe et s’imposer comme une pratique structurante, capable de guider vos décisions à chaque étape du cycle de développement. De la formulation du « bon » prompt au choix du « bon » modèle, du « tuning » à l’analyse des agents, seule une évaluation rigoureuse permet d’y voir clair et de faire les bons choix.&lt;/p&gt;&lt;p data-block-key="frf8u"&gt;Il y a un an, nous avons lancé &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-overview"&gt;Gen AI Evaluation Service&lt;/a&gt;, solution permettant de mesurer la performance de différents types de modèles, à commencer par celle des modèles fondation de Google mais aussi des modèles open source, des modèles fondation propriétaires ou encore des modèles personnalisés. Ce service proposait jusqu’ici des modes d’évaluation en ligne, basés sur des critères individuels (pointwise) et comparatifs (pairwise), en utilisant des calculs automatisés et un évaluateur intelligent « Autorater ».&lt;/p&gt;&lt;p data-block-key="efn9n"&gt;Depuis, nous avons attentivement écouté vos retours et concentré nos efforts sur vos priorités en matière d’évaluation. C’est pourquoi nous sommes ravis de présenter aujourd’hui les nouvelles fonctionnalités dans &lt;b&gt;&lt;i&gt;Gen AI Evaluation Service&lt;/i&gt;&lt;/b&gt;, conçues pour vous aider à passer à l’échelle, évaluer et personnaliser votre « Autorater » avec des rubriques et grilles de scoring, et mesurer l’efficacité de vos agents en conditions réelles.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_evaluation_Framework.max-1000x1000.png"
        
          alt="AI evaluation Framework"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="o71qz"&gt;1. Évaluez l’IA générative à grande échelle avec le mode batch&lt;/h3&gt;&lt;p data-block-key="3l7q0"&gt;En matière d’IA, les développeurs se posent régulièrement la question suivante : &lt;i&gt;« Comment évaluer à grande échelle ? ».&lt;/i&gt; Jusqu’à présent, la mise en œuvre de ce genre d’évaluation supposait un gros travail d’ingénierie avec des infrastructures lourdes à maintenir et donc une explosion des coûts. Il fallait souvent &lt;a href="https://medium.com/google-cloud/vqa-3-how-to-evaluate-generated-answers-from-rag-at-scale-on-vertex-ai-70bc397cb33d" target="_blank"&gt;construire sa propre architecture pour gérer les traitements batch&lt;/a&gt; en combinant plusieurs services Google Cloud.&lt;/p&gt;&lt;p data-block-key="ajfjj"&gt;Notre nouvelle fonctionnalité &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/run-evaluation?hl=fr#batch-eval"&gt;d’évaluation en mode batch&lt;/a&gt; simplifie radicalement ce processus. Elle propose une API unique pour traiter efficacement des jeux de données volumineux, tout en exploitant l’ensemble des méthodes et métriques proposées par le service &lt;b&gt;&lt;i&gt;Gen AI Evaluation Service&lt;/i&gt;&lt;/b&gt; de Vertex AI. Le tout, avec des performances optimisées et un coût réduit par rapport aux approches précédentes.&lt;/p&gt;&lt;p data-block-key="4vk4n"&gt;Vous pouvez en savoir plus sur l’évaluation batch avec l’API Gemini dans Vertex AI en consultant &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/intro_batch_evaluation.ipynb" target="_blank"&gt;ce tutoriel&lt;/a&gt;.&lt;/p&gt;&lt;h3 data-block-key="c2rnu"&gt;2. Examinez votre “Autorater” à la loupe et construisez la confiance&lt;/h3&gt;&lt;p data-block-key="7ju2j"&gt;Autre question récurrente - et fondamentale - que se posent les développeurs : &lt;i&gt;« Comment personnaliser et évaluer réellement mon “Autorater” ? ».&lt;/i&gt; Utiliser un LLM pour évaluer une application basée sur un autre LLM permet de gagner en efficacité et de rapidement passer à l’échelle. C’est le principe même de l’Autorater. Mais cela soulève aussi des interrogations légitimes autour des limites de la solution, de sa robustesse ou encore des biais que cette approche peut introduire. Dès lors, la question centrale devient celle de la fiabilité des résultats produits.&lt;/p&gt;&lt;p data-block-key="f0b0i"&gt;Cette confiance ne se décrète pas : elle se construit, par la transparence et le contrôle. Forts de cette conviction, nous avons prévu de nouveaux outils qui permettent d’analyser en profondeur votre Autorater et de l’améliorer. Ils reposent sur deux fonctionnalités clés :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="46i5j"&gt;&lt;b&gt;Evaluation de la qualité de votre Autorater.&lt;/b&gt; Tout d’abord, en constituant un jeu de données de référence annoté par des humains, vous pouvez comparer directement les évaluations de l’Autorater à votre « vérité de terrain ». Cela vous permet de calibrer ses performances, de mesurer son alignement avec vos attentes et d’identifier précisément les axes d’amélioration.&lt;br/&gt;&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="ai1ui"&gt;&lt;b&gt;Amélioration de l’alignement de votre Autorater.&lt;/b&gt; Dans un second temps, vous pouvez personnaliser son comportement en utilisant différentes approches : affiner le prompt en y intégrant des critères précis, un raisonnement en chaîne de pensée (&lt;i&gt;chain-of-thought reasoning&lt;/i&gt;) ou encore des grilles de scoring détaillées ; exploiter des réglages avancés ; importer vos propres jeux de données de référence afin d’entraîner ou d’ajuster l’Autorater. Et ainsi vous vous assurez qu’il s’adapte réellement à vos besoins et couvre tous les cas d’usage, y compris les plus spécifiques.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="4tv6p"&gt;Les nouvelles options de personnalisation d’Autorater ouvrent la voie à des analyses sur mesure. Voici un aperçu du type d’analyse que vous pouvez désormais construire grâce à ces fonctionnalités évoluées :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/demo.gif"
        
          alt="AI"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Pour en savoir plus sur ce sujet, consultez notre série sur la personnalisation avancée des modèles de notation, « &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluate-judge-model"&gt;Advanced judge model customization series&lt;/a&gt; », dans la documentation officielle : vous y découvrirez en détail comment évaluer et configurer votre modèle d’évaluation (Autorater). Pour un exemple concret, ce &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/open-models/evaluation/vertex_ai_tgi_evaluate_llm_with_open_judge.ipynb" target="_blank"&gt;tutoriel&lt;/a&gt; montre comment personnaliser vos évaluations à l’aide d’un Autorater en open source pour Vertex AI Gen AI Evaluation.&lt;/p&gt;&lt;h3 data-block-key="1j35o"&gt;3. Evaluer avec une grille de notation (scoring)&lt;/h3&gt;&lt;p data-block-key="95fi1"&gt;Évaluer des applications d’IA complexes peut vite devenir frustrant : comment appliquer un ensemble de critères fixes quand chaque entrée est différente ? Dès que l’on traite des cas multimodaux sophistiqués, comme la compréhension d’images, une simple liste de critères génériques s’avère insuffisante pour saisir toutes les subtilités. Pour dépasser ce problème, notre fonctionnalité &lt;b&gt;d’évaluation pilotée par « grille de scoring »&lt;/b&gt; décompose le processus en deux étapes :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="6b3jp"&gt;&lt;b&gt;Étape 1 — Génération de grilles de scoring sur mesure&lt;/b&gt;&lt;br/&gt;Au lieu d’obliger l’utilisateur à fournir une liste figée de critères, le système se comporte comme un concepteur de tests personnalisés. Pour &lt;i&gt;chaque point de données&lt;/i&gt; de votre jeu d’évaluation, il produit automatiquement une grille de scoring unique : des critères précis et mesurables adaptés au contenu concerné. Vous pouvez ensuite vérifier ces grilles et les ajuster si besoin.&lt;br/&gt;&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="3c4r"&gt;&lt;b&gt;Étape 2 — Évaluation ciblée par l’Autorater&lt;/b&gt;&lt;br/&gt;L’Autorater applique ensuite ces grilles personnalisées pour évaluer la réponse de l’IA : il agit un peu comme un enseignant qui adapte l’énoncé à chaque élève selon le sujet de sa dissertation, plutôt que de poser les mêmes questions génériques à toute la classe.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="aer4l"&gt;Ce processus garantit que chaque évaluation reste contextualisée et apporte des enseignements pertinents. Il renforce l’interprétabilité : chaque score est relié à des critères directement adaptés à la tâche, ce qui vous permet d’obtenir une mesure beaucoup plus fidèle de la performance réelle de votre modèle.&lt;/p&gt;&lt;p data-block-key="h8op"&gt;Voici, ci-dessous, un aperçu concret du type d’évaluation comparative et structurée que vous pourrez orchestrer, en vous appuyant sur une grille de critères, grâce au service d’évaluation Gen AI intégré à Vertex AI.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_PZiRidd.max-800x800.png"
        
          alt="AI2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Pour aller plus loin, n’hésitez pas à consulter nos exemples d’évaluations basées sur une grille de scoring appliquées au &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/rubric_based_eval.ipynb" target="_blank"&gt;suivi d’instructions&lt;/a&gt;, aux scénarios multimodaux et à la qualité du texte. Par ailleurs, nous avons collaboré avec notre équipe de recherche afin de déployer un Autorater piloté par grille de scoring pour les cas &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/evaluate_images_with_gecko.ipynb" target="_blank"&gt;&lt;i&gt;text-to-image&lt;/i&gt;&lt;/a&gt; (du texte à l’image) et &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/evaluate_videos_with_gecko.ipynb" target="_blank"&gt;&lt;i&gt;text-to-video&lt;/i&gt;&lt;/a&gt; (du texte à la vidéo).&lt;/p&gt;&lt;h3 data-block-key="32mv4"&gt;4. Évaluer vos agents&lt;/h3&gt;&lt;p data-block-key="4mkk5"&gt;Nous entrons dans l’ère agentique avec des agents IA capables de raisonner, de planifier et d’utiliser des outils pour exécuter des tâches complexes en toute autonomie. Leur évaluation soulève de nouveaux défis. Il ne suffit plus d’examiner la réponse finale, il faut valider l’ensemble du processus décisionnel. L’agent a-t-il choisi le bon outil ? A-t-il suivi une séquence logique d’étapes ? A-t-il stocké et exploité les informations de façon efficace pour proposer une réponse personnalisée ? Ces questions clés déterminent la fiabilité d’un agent.&lt;/p&gt;&lt;p data-block-key="ab7gb"&gt;Pour relever ces défis, Gen AI Evaluation Service dans Vertex AI propose de nouvelles fonctionnalités dédiées à l’évaluation d’agents. Vous pouvez non seulement analyser la réponse finale de l’agent, mais aussi examiner sa « trajectoire », autrement dit la succession d’actions et d’appels d’outils qu’il utilise. Avec des métriques spécialisées sur cette trajectoire, vous pouvez évaluer la pertinence de son raisonnement.&lt;/p&gt;&lt;p data-block-key="d3nli"&gt;Que vous travailliez avec Agent Development Kit, LangGraph, CrewAI ou tout autre framework, hébergé localement ou sur  &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/agent-engine/overview"&gt;Vertex AI Agent Engine&lt;/a&gt;, vous pouvez vérifier si les actions de l’agent sont logiques et si les bons outils sont mobilisés au bon moment. Tous les résultats sont intégrés à &lt;a href="https://cloud.google.com/vertex-ai/docs/experiments/intro-vertex-ai-experiments"&gt;Vertex AI Experiments&lt;/a&gt;, système robuste pour suivre, comparer et visualiser les performances, afin de concevoir des agents IA toujours plus fiables et efficaces.&lt;/p&gt;&lt;p data-block-key="20ebs"&gt;En suivant ce &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-agents?hl=fr"&gt;lien&lt;/a&gt;, vous trouverez une documentation détaillée avec plusieurs exemples d’évaluation d’agents réalisés avec Gen AI Evaluation Service sur Vertex AI.&lt;/p&gt;&lt;p data-block-key="eatt6"&gt;Enfin, nous sommes tout à fait conscients que l’évaluation demeure un terrain de recherche encore largement inexploré. Pour relever ces nouveaux défis, la collaboration est essentielle. C’est pourquoi nous travaillons avec des partenaires tels que &lt;a href="https://wandb.ai/site/" target="_blank"&gt;Weights &amp;amp; Biases&lt;/a&gt;, &lt;a href="https://arize.com/" target="_blank"&gt;Arize&lt;/a&gt; et &lt;a href="https://www.getmaxim.ai/" target="_blank"&gt;Maxim AI&lt;/a&gt;. Ensemble, nous cherchons à résoudre des défis, tels que le problème du &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/tree/main/gemini/evaluation/synthetic-data-evals" target="_blank"&gt;&lt;i&gt;cold-start data&lt;/i&gt;&lt;/a&gt; (difficulté à évaluer ou entraîner un modèle avec peu ou pas de données initiales), l’évaluation &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/multi_agent_evals_with_arize_and_crewai.ipynb" target="_blank"&gt;multi-agents&lt;/a&gt; (comment évaluer des systèmes où plusieurs agents interagissent entre eux) ou encore la validation par la simulation d’agents en conditions réelles (créer des environnements réalistes pour tester les agents IA comme s’ils étaient en production).&lt;/p&gt;&lt;h3 data-block-key="et134"&gt;Passez à l’action dès aujourd’hui&lt;/h3&gt;&lt;p data-block-key="2ga18"&gt;Prêt à déployer des applications LLM fiables et parées pour une mise en production sur Vertex AI ? Gen AI Evaluation Service répond aux besoins les plus fréquemment exprimés par les utilisateurs et propose une suite complète et puissante pour évaluer votre application IA. En vous permettant de passer vos évaluations à l’échelle, de renforcer la confiance dans votre Autorater et d’analyser des cas d’usage multimodaux ou pilotés par des agents, nous voulons renforcer la confiance et l’efficacité — afin que vos applications basées sur des LLM atteignent le niveau de performance attendu en production.&lt;/p&gt;&lt;p data-block-key="blcia"&gt;Consultez la &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-overview?hl=fr"&gt;documentation détaillée&lt;/a&gt; ainsi que les &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/tree/main/gemini/evaluation" target="_blank"&gt;exemples de code&lt;/a&gt; pour tirer pleinement parti de Gen AI Evaluation Service.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 18 Aug 2025 08:45:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>À quel point votre IA est-elle performante ? Guide d’évaluation de l’IA générative étape par étape</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ivan Nardini</name><title>Developer Relations Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Irina Sigler</name><title>Product Manager, Cloud AI</title><department></department><company></company></author></item><item><title>Fitness Park transforme ses données en leviers d’innovation avec Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/clients/fitness-park-transforme-ses-donnees-en-leviers-dinnovation-avec-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vp9bc"&gt;&lt;b&gt;ABOUT&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="9ps6o"&gt;À propos de Fitness Park Fondée en 2009 à Puteaux, Fitness Park est une chaîne française de clubs de fitness, qui compte plus de 350 clubs dans le monde et plus d’un million d’adhérents. Son modèle repose sur des abonnements accessibles, une expérience enrichie par la technologie, et un développement en franchise. L’entreprise emploie 1 500 personnes et a réalisé 300 millions d’euros de chiffre d’affaires en 2023.&lt;/p&gt;&lt;hr/&gt;&lt;p data-block-key="ahihc"&gt;Fondée en 2009, Fitness Park s’est rapidement imposé comme un acteur incontournable du fitness en France et à l’international. Avec plus de 350 clubs répartis dans l’Hexagone, en Espagne, au Portugal et au Maroc, la société poursuit son expansion à un rythme soutenu. Ce succès repose sur un positionnement unique : rendre accessible une expérience sportive haut de gamme à prix compétitif.&lt;/p&gt;&lt;p data-block-key="850pi"&gt;« Au sein de nos clubs, nos adhérents découvrent des concepts immersifs et motivants tels que le Burning Park, le Cycle Park et le Fight Park. Nos installations proposent des espaces uniques, certains intégrant des solutions digitales pour une expérience enrichie, notamment dans nos zones de cardio-training et nos salles de cours coachés virtuels. Nous mettons à disposition différentes options pour accompagner chacun dans l'atteinte de ses objectifs : des machines Technogym connectées, des balances connectées pour une analyse précise de la composition corporelle, l'Hydromassage pour une récupération optimale après l'entraînement, mesurer et suivre sa performance. », explique Eddy Cozzi, responsable data chez Fitness Park.&lt;/p&gt;&lt;p data-block-key="fj747"&gt;À l'heure où le secteur du fitness connaît une mutation accélérée, l'enseigne fait le pari de la donnée pour consolider son avantage concurrentiel. Elle s'est lancée dans un vaste projet de transformation numérique baptisé Smallwood qui prévoit la refonte de son architecture data pour mieux piloter ses activités et poser les fondations de services personnalisés alimentés par l'IA.&lt;/p&gt;&lt;p data-block-key="degap"&gt;Smallwood : bâtir le socle de la nouvelle ère data « Notre ERP historique offre peu de latitude pour analyser la donnée. Il ne répond pas à nos besoins croissants d’agilité et de performance, et surtout, il rend la traçabilité des informations difficile, ce qui compromet la confiance des équipes dans les chiffres produits », explique Eddy Cozzi. « Pour une entreprise en pleine croissance, cet existant devenait un frein. Il nous fallait une infrastructure data plus robuste, plus flexible, et surtout capable de croître avec nous ».&lt;/p&gt;&lt;p data-block-key="3rtii"&gt;Accompagnée par Pyl.Tech, partenaire Google Cloud, Fitness Park a concrétisé sa vision en bâtissant son architecture data sur GCP. Cette refonte s'est traduite par la mise en place d'un datalake dans BigQuery, conçu pour accueillir les données brutes de l'ERP, sans transformation préalable. Il constitue la première brique d'un système pensé pour évoluer vers un datawarehouse, capable de croiser les données issues de l'ERP avec d'autres sources internes ou externes, et d'alimenter en retour des tableaux de bord, des campagnes marketing ou encore des outils CRM.&lt;/p&gt;&lt;p data-block-key="dcf5k"&gt;Cloud-native avec des environnements distincts pour le développement, la recette et la production, l’automatisation des traitements et des flux repose sur les services serverless Cloud Functions et Cloud Run. Ils permettent de déclencher des processus à la demande, sans infrastructure dédiée. Cette logique à la consommation garantit une flexibilité maximale tout en favorisant la maitrise des coûts d’exploitation.&lt;/p&gt;&lt;p data-block-key="66tjn"&gt;Enfin, prérequis essentiel pour instaurer une gouvernance rigoureuse et poser les bases d’analyses fiables, Fitness Park a mis en œuvre un mécanisme d’ingestion basé sur le Change Data Capture (CDC) pour assurer la traçabilité des données.&lt;/p&gt;&lt;p data-block-key="ff9uc"&gt;Des fondations solides pour piloter, automatiser et le tout, en confiance. « Le premier objectif a été de générer cette confiance dans les données auprès de nos utilisateurs, faute de quoi ils auraient continué à ignorer nos solutions. Grâce à la traçabilité et la centralisation opérée dans BigQuery, nous disposons désormais de données fiables sur lesquelles ils peuvent s’appuyer pour prendre des décisions éclairées et faire émerger de nouvelles pratiques data-driven », se félicite Eddy Cozzi.&lt;/p&gt;&lt;p data-block-key="6qti9"&gt;Si le choix de GCP s’est imposé pour des raisons de cohérence avec l'environnement Google Workspace déjà en place, il a surtout été motivé par des raisons techniques et économiques solides. Les bénéfices déjà observés confirment la pertinence de ce choix ainsi que le souligne Eddy Cozzi : « La logique serverless permet d’ajuster les ressources à la demande, assurant ainsi une performance optimale, une grande agilité opérationnelle et un contrôle rigoureux des coûts. Parallèlement, BigQuery nous apporte une nouvelle puissance de calcul qui change la donne : elle permet non seulement d’envisager de nouveaux usages autour de la donnée, mais aussi de démontrer aux utilisateurs l’intérêt de s’appuyer sur notre infrastructure : des requêtes qui prenaient plusieurs heures s’exécutent désormais en quelques secondes. Ce gain de performance renforce leur confiance et les incite à adopter nos solutions ».&lt;/p&gt;&lt;p data-block-key="175hd"&gt;Grâce aux gains de performance réalisés avec BigQuery, Fitness Park peut aussi automatiser un ensemble de traitements qui, jusqu’alors, étaient trop complexes ou trop longs à exécuter. La rapidité d’exécution des requêtes permet par exemple de déclencher plusieurs fois par jour des campagnes marketing ciblées, d’alimenter en temps réel les tableaux de bord métiers ou encore de synchroniser les flux CRM de manière continue. Autant de projets jadis bloqués par les limites de l’infrastructure précédente, aujourd’hui rendus possibles par cette architecture agile et résiliente.&lt;/p&gt;&lt;p data-block-key="5dv76"&gt;Une expérience fitness augmentée par l’intelligence artificielle Si le socle data déployé par Fitness Park tient déjà ses promesses en matière d'analyse et de pilotage, son architecture a été conçue avec une ambition plus large, ainsi que le souligne Eddy Cozzi : « Notre vision n’est pas seulement de mieux piloter l’activité, mais aussi de préparer l’arrivée de services innovants, basés sur l’intelligence artificielle. Nous voulons aller plus loin dans la personnalisation de l’expérience client avec des recommandations d’exercices, de nutrition, de parcours d'entraînement intelligents... ».&lt;/p&gt;&lt;p data-block-key="48ak2"&gt;Cette vision repose dans un premier temps sur l'enrichissement du datalake avec de nouvelles sources d'information issues de l’utilisation des appareils dans les clubs (machines Technogym, balances connectées, etc.) et des comportements des adhérents. Forte de cette base de données enrichie, Fitness Park entend exploiter les solutions IA de Google Cloud, dont notamment Vertex AI et Gemini, pour transformer ses données brutes en services à valeur ajoutée. « Bien plus qu’une simple infrastructure data, Smallwood deviendra alors le moteur d'une expérience fitness réinventée, capable d’accompagner chaque adhérent avec des recommandations personnalisées », souligne Eddy Cozzi.&lt;/p&gt;&lt;p data-block-key="bjbb8"&gt;L’application mobile, déjà au cœur de l’expérience Fitness Park, deviendra le point de contact privilégié pour ces services enrichis, offrant aux adhérents un coach virtuel dans leur poche. Les premières briques sont posées : infrastructure data moderne, sécurisée, ouverte et prête à dialoguer avec les outils IA de Google Cloud.&lt;/p&gt;&lt;p data-block-key="5oomt"&gt;Dans un marché en pleine expansion, où l’innovation est clé pour se différencier, Fitness Park entend s’imposer non seulement comme un acteur leader sur le terrain, mais aussi comme un pionnier de l’usage de la data dans l’univers du sport. Un pari audacieux, porté par une équipe engagée et une collaboration étroite avec Google Cloud. « Le secteur évolue vite, et nous voulons garder une longueur d’avance. Être leader sur la data, demain sur l’IA, c’est aussi garantir une expérience client sans cesse enrichie et pilotée intelligemment », conclut Eddy.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 06 Aug 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/fitness-park-transforme-ses-donnees-en-leviers-dinnovation-avec-google-cloud/</guid><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Fitness Park transforme ses données en leviers d’innovation avec Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/fitness-park-transforme-ses-donnees-en-leviers-dinnovation-avec-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Boostez la Modernisation de Votre IT avec les Services Serverless de Google Cloud</title><link>https://cloud.google.com/blog/fr/products/modernisation-dinfrastructure/boostez-la-modernisation-de-votre-it-avec-les-services-serverless-de-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4es9n"&gt;Dans l'environnement commercial actuel, la modernisation de l'IT n'est plus une option – elle est cruciale pour la survie de toute entreprise. Les entreprises doivent être agiles, évolutives et innovantes, et l'infrastructure traditionnelle entrave souvent ces objectifs.&lt;/p&gt;&lt;p data-block-key="etfg6"&gt;L’implémentation de flux de travail complexes pour automatiser les tâches peut présenter des défis importants lorsqu'elle est abordée avec des méthodes de développement traditionnelles. Considérez les complexités de la gestion de l'échelle, du parallélisme et de la synchronisation des tâches, de la gestion robuste des exceptions et des erreurs, et de l'intégration d'une "vérification manuelle" pour les validations.&lt;/p&gt;&lt;p data-block-key="99l5m"&gt;Les services serverless de Google Cloud offrent une alternative puissante pour accélérer cette transformation, en masquant une grande partie de cette complexité sous-jacente. &lt;b&gt;Imaginez être en capacité d’implémenter des processus automatisés complexes avec un minimum de code&lt;/b&gt;, en tirant parti de l'infrastructure robuste de Google Cloud, tout en maîtrisant les coûts. Ceci n'est pas un rêve ; &lt;b&gt;c'est une réalité.&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="c1v6n"&gt;&lt;i&gt;“L’implémentation de flux de travail complexes pour automatiser les tâches peut présenter des défis importants lorsqu'elle est abordée avec des méthodes de codage traditionnelles.”&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="22rca"&gt;&lt;b&gt;Énoncé du problème&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="c7d2g"&gt;Pour illustrer cela, considérons le scénario suivant :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Screenshot_2025-07-28_at_23.35.23.max-1000x1000.png"
        
          alt="GCP_severless1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4es9n"&gt;Ce scénario est basé sur des flux de travail réels que j'ai dû mettre en place au début de ma carrière, bien qu'aujourd'hui il intègre des capacités d'IA telles que le résumé textuel d’une vidéo. L'objectif ? Ingérer une vidéo, la transcoder, fournir un accès sécurisé et extraire des informations précieuses à l'aide de l'IA.&lt;/p&gt;&lt;p data-block-key="5n1m9"&gt;Si j'avais développé cette solution uniquement avec du code, j'aurais dépensé beaucoup d'énergie à concevoir une architecture de service appropriée (probablement avec un bus de messages centralisé), sans même compter les heures d'implémentation et de tests, pour pouvoir supporter :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5h779"&gt;&lt;b&gt;L’évolutivité :&lt;/b&gt; que se passerait-il si 50 fichiers vidéo étaient stockés en même temps dans mon bucket Cloud Storage ?&lt;/li&gt;&lt;li data-block-key="e193r"&gt;&lt;b&gt;Une intervention manuelle :&lt;/b&gt; les mécanismes de callback doivent être sécurisés pour éviter toute action non autorisée.&lt;/li&gt;&lt;li data-block-key="cdomg"&gt;&lt;b&gt;Une gestion appropriée des exceptions :&lt;/b&gt; avec de nombreuses étapes dans ce flux de travail, la gestion des exceptions et des erreurs peut rapidement devenir très difficile à gérer.&lt;/li&gt;&lt;li data-block-key="6msvl"&gt;&lt;b&gt;Le parallélisme :&lt;/b&gt; appeler plusieurs services en parallèle et synchroniser les réponses avant de passer à l'étape suivante peut être délicat à implémenter. Néanmoins, paralléliser les opérations permet de gagner du temps dans le traitement des données.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7unvc"&gt;&lt;i&gt;“Si j'avais développé cette solution uniquement avec du code, j'aurais dépensé beaucoup d'énergie à concevoir une architecture de service appropriée (...), sans même compter les heures d'implémentation et de tests…”&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="6i68k"&gt;Implémentation&lt;/p&gt;&lt;p data-block-key="2c2rs"&gt;Les services serverless de GCP m'ont permis de développer ce flux de travail avec une approche “low code”, tout en surmontant tous les défis précédents.&lt;/p&gt;&lt;p data-block-key="kp9e"&gt;Voici comment j'y suis parvenu avec les services serverless de GCP :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Screenshot_2025-07-28_at_23.35.30.max-1000x1000.png"
        
          alt="GCP_severless2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ol&gt;&lt;li data-block-key="4es9n"&gt;&lt;b&gt;Initiation Événementielle:&lt;/b&gt;&lt;ul&gt;&lt;li data-block-key="f2qrq"&gt;Un fichier vidéo est téléchargé dans un bucket &lt;a href="https://cloud.google.com/storage/docs"&gt;Cloud Storage&lt;/a&gt;. Cette action déclenche un événement &lt;a href="https://cloud.google.com/eventarc/docs"&gt;EventArc&lt;/a&gt;, initiant le flux de travail.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="17d1"&gt;2. &lt;b&gt;Orchestration du Flux de Travail avec Cloud Workflows&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="alvsc"&gt;3. &lt;b&gt;Transcodage Vidéo et Accès Sécurisé&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="f90ql"&gt;4. &lt;b&gt;Vérification par Intervention Humaine&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="4kt0e"&gt;5. &lt;b&gt;Résumé textuel de la vidéo pilotée par l'IA (Conditionnelle)&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="8i06m"&gt;6. &lt;b&gt;Traduction (Extension)&lt;/b&gt; Le résumé peut ensuite être traité ultérieurement pour être traduit dans plusieurs langues (comme indiqué dans le diagramme), toujours en tirant parti de &lt;a href="https://cloud.google.com/vertex-ai/docs"&gt;Vertex AI&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="dh9gr"&gt;7. &lt;b&gt;Persistance des Données avec Firestore&lt;/b&gt; Enfin, le résumé et les métadonnées sont stockés dans &lt;a href="https://firebase.google.com/docs/firestore" target="_blank"&gt;Firestore&lt;/a&gt; (NoSQL) pour un accès facile.&lt;/p&gt;&lt;p data-block-key="512t2"&gt;&lt;i&gt;“Les services serverless de GCP m'ont offert un moyen presque "sans code" de développer ce flux de travail, tout en surmontant tous ces défis à la fois.”&lt;/i&gt;&lt;/p&gt;&lt;h3 data-block-key="6ea79"&gt;&lt;b&gt;Application Integration : Accélérer votre vitesse de mise sur le marché&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="aaiur"&gt;Comme illustré par l'étape de “validation manuelle” ci-dessus, &lt;a href="https://cloud.google.com/application-integration/docs"&gt;&lt;b&gt;Application Integration&lt;/b&gt;&lt;/a&gt;&lt;b&gt; peut considérablement accélérer votre calendrier de mise sur le marché&lt;/b&gt;. Ses connecteurs pré-intégrés et son concepteur visuel intuitif vous permettent de connecter rapidement diverses applications et services, réduisant ainsi le besoin de développement. Cette rapidité et cette efficacité le rendent idéal non seulement pour le prototypage, mais aussi pour le déploiement rapide et fiable d'intégrations prêtes pour la production.&lt;/p&gt;&lt;p data-block-key="1uicf"&gt;&lt;i&gt;“Application Intégration peut considérablement accélérer votre calendrier de mise sur le marché pour la construction d'intégrations robustes.”&lt;/i&gt;&lt;/p&gt;&lt;h3 data-block-key="161a9"&gt;&lt;b&gt;Optimisation des coûts&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="ekh27"&gt;L'un des avantages les plus significatifs de cette approche serverless est l’optimisation des coûts. En tirant parti des modèles de paiement à l'utilisation pour des services comme &lt;a href="https://cloud.google.com/functions/docs"&gt;Cloud Run Functions&lt;/a&gt;, &lt;a href="https://cloud.google.com/workflows/docs"&gt;Cloud Workflows&lt;/a&gt; et &lt;a href="https://cloud.google.com/vertex-ai/docs"&gt;Vertex AI&lt;/a&gt;, vous ne payez que les ressources que vous consommez pendant le traitement des données. Par exemple, pour une courte vidéo, l'ensemble du flux de travail, y compris le transcodage, la génération du résumé textuel et le stockage, peut ne coûter que quelques centimes. C'est une fraction du coût d’une infrastructure IT traditionnelle. &lt;b&gt;L'architecture serverless permet donc un contrôle granulaire des coûts, évitant le gaspillage de ressources et optimisant les budgets.&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="efcvs"&gt;&lt;i&gt;“C'est une fraction du coût d’une infrastructure IT traditionnelle.”&lt;/i&gt;&lt;/p&gt;&lt;h3 data-block-key="b1647"&gt;&lt;b&gt;Avantages clés du Serverless Google Cloud&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="b27sb"&gt;&lt;i&gt;“Qu'il s'agisse du traitement multimédia, de l'automatisation des processus métier ou des applications en temps réel, ces services offrent une boîte à outils polyvalente pour surmonter les obstacles traditionnels au développement.”&lt;/i&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5maa"&gt;&lt;b&gt;Complexité simplifiée :&lt;/b&gt; Gère l'échelle, le parallélisme et la gestion des erreurs.&lt;/li&gt;&lt;li data-block-key="98nj6"&gt;&lt;b&gt;Intégration transparente :&lt;/b&gt; Connecte facilement divers services Google Cloud et externes.&lt;/li&gt;&lt;li data-block-key="9o98o"&gt;&lt;b&gt;Validation manuelle :&lt;/b&gt; Permet une incorporation facile de l'intervention humaine.&lt;/li&gt;&lt;li data-block-key="1umk8"&gt;&lt;b&gt;Evolutivité :&lt;/b&gt; S'ajuste automatiquement à la demande.&lt;/li&gt;&lt;li data-block-key="qnvd"&gt;&lt;b&gt;Sécurité :&lt;/b&gt; Fonctionnalités de sécurité intégrées.&lt;/li&gt;&lt;li data-block-key="dt0ij"&gt;&lt;b&gt;Rentabilité :&lt;/b&gt; Modèle de paiement à l'utilisation.&lt;/li&gt;&lt;li data-block-key="5s8k9"&gt;&lt;b&gt;Développement Rapide :&lt;/b&gt; Concentrez-vous sur l'innovation.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="27bir"&gt;Cet exemple démontre la puissance du serverless Google Cloud pour la modernisation de l'IT. Qu'il s'agisse du traitement multimédia, de l'automatisation des processus métier ou des applications en temps réel, ces services offrent &lt;b&gt;une boîte à outils polyvalente pour surmonter les obstacles traditionnels au développement&lt;/b&gt;.&lt;/p&gt;&lt;p data-block-key="rpus"&gt;&lt;b&gt;Prêt à surcharger votre modernisation IT et à simplifier les flux de travail complexes ?&lt;/b&gt; Explorons ensemble comment le serverless Google Cloud peut vous aider à atteindre vos objectifs.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 31 Jul 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dinfrastructure/boostez-la-modernisation-de-votre-it-avec-les-services-serverless-de-google-cloud/</guid><category>Infrastructure Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Boostez la Modernisation de Votre IT avec les Services Serverless de Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dinfrastructure/boostez-la-modernisation-de-votre-it-avec-les-services-serverless-de-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Nicolas Pintaux</name><title>Application Modernization Specialist</title><department></department><company>Google Cloud</company></author></item></channel></rss>