<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>IA et machine learning</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/</link><description>IA et machine learning</description><atom:link href="https://cloudblog.withgoogle.com/blog/fr/products/ai-machine-learning/rss/" rel="self"></atom:link><language>fr</language><lastBuildDate>Mon, 22 Dec 2025 16:53:40 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/static/blog/images/google.a51985becaa6.png</url><title>IA et machine learning</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/</link></image><item><title>Choisir le bon outil de développement Google IA selon votre projet</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="qpf9o"&gt;Vous souvenez-vous de ce que signifiait préparer un long voyage il y a vingt ans ? Il fallait prévoir l’appareil photo, l’agenda, la pile de livres, la console portable, le guide touristique rempli de cartes, un téléphone, un lecteur CD… et parfois même des chèques de voyage. Aujourd’hui ? Un smartphone suffit !&lt;/p&gt;&lt;p data-block-key="8rhp3"&gt;Appelez-ça « l’effet consolidation »… mais l’évolution passe aussi parfois par la diversification. Prenons l’ordinateur, par exemple : il n’y a pas si longtemps, il se résumait au PC de bureau, unique appareil pour tous les usages. Désormais, nous avons des ordinateurs portables pour travailler en situation de mobilité, des tablettes pour consulter des contenus, des smartphones pour rester connecté en permanence à Internet, des téléviseurs intelligents pour regarder tout type de média… sans oublier une multitude de consoles de jeux.&lt;/p&gt;&lt;p data-block-key="7p2ed"&gt;Tantôt regroupement, tantôt éclatement, ces évolutions me rappellent l’état actuel des outils pour développeurs. Jusqu’à récemment, le paysage était relativement stable : des outils de conception UX pour réaliser des maquettes, des IDE pour écrire du code, des systèmes de build pour assembler les artefacts, et des scripts système ou shell pour déployer infrastructures et applications.&lt;br/&gt; Avec l’essor de l’IA générative, tout a basculé : l’univers des outils est devenu foisonnant et en constante évolution. Nos pratiques, comme nos outils, ne seront plus jamais les mêmes.&lt;/p&gt;&lt;p data-block-key="6c6er"&gt;Dans ce contexte, comment choisir le bon outil en fonction du projet ? Rien que chez Google, l’éventail est déjà large : des interfaces LLM comme l’application Gemini et Google AI Studio, des extensions d’IDE comme Gemini Code Assist, des environnements de développement dans le navigateur tels que Firebase Studio, ou encore des services « agentiques » comme Jules et Gemini CLI. Face à une telle profusion d’outils, on est vite submergé ! Pas de panique : on va vous aider ici à faire le tri !&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_Mnujh1J.max-1300x1300.png"
        
          alt="Google IA"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="qpf9o"&gt;La diversification des outils s’explique notamment par la façon dont l’IA intervient aujourd’hui dans le développement logiciel.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bt555"&gt;La première approche, dite &lt;b&gt;&lt;i&gt;déléguée&lt;/i&gt;&lt;/b&gt;, &lt;b&gt;repose sur des options agentiques&lt;/b&gt; : vous confiez la tâche à l’IA comme si vous l’externalisiez à un prestataire, en lui donnant des instructions détaillées, puis vous n’avez que très peu d’interactions jusqu’à la fin de l’exécution du processus. L’objectif est avant tout d’obtenir un résultat rapidement, sans chercher à développer vos propres compétences.&lt;/li&gt;&lt;li data-block-key="52hv3"&gt;La deuxième approche, dite &lt;b&gt;&lt;i&gt;supervisée&lt;/i&gt;&lt;/b&gt;, consiste à considérer l’IA comme un collaborateur placé sous votre supervision. Vous interagissez davantage avec elle que dans l’approche déléguée : vous la guidez, l’orientez, et tirez parti de votre expérience pour cadrer son action.&lt;/li&gt;&lt;li data-block-key="3g5n7"&gt;Enfin, l’approche &lt;b&gt;&lt;i&gt;collaborative&lt;/i&gt;&lt;/b&gt; repose sur un dialogue continu avec l’assistant IA, dans un va-et-vient permanent où l’on « progresse » ensemble, comme dans un processus d’apprentissage partagé.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_0eLq7ZQ.max-2000x2000.png"
        
          alt="Google IA2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="qpf9o"&gt;Forces et usages de chaque outil IA de développement&lt;/h3&gt;&lt;p data-block-key="14i2h"&gt;&lt;a href="https://jules.google/" target="_blank"&gt;&lt;b&gt;Jules&lt;/b&gt;&lt;/a&gt; excelle dès qu’il s’agit d’appliquer des instructions explicites, des consignes précises, pour automatiser des tâches en série (des batchs) sans supervision : ajouter de la documentation, améliorer la couverture des tests, moderniser chirurgicalement du code. Tout ceci directement sur du code source hébergé sur GitHub.com. Ses atouts ?&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="fh649"&gt;Pas d’infrastructure ou de processus à gérer et maintenir : Jules fonctionne directement, sans avoir à déployer ou entretenir des serveurs ou pipelines.&lt;/li&gt;&lt;li data-block-key="3udtl"&gt;Possibilité de définir le déroulé avant exécution : vous pouvez discuter avec Jules pour établir un plan des actions (quelles tâches lancer, dans quel ordre) avant de lui confier l’exécution automatique.&lt;/li&gt;&lt;li data-block-key="fa4q2"&gt;Résultats restitués sous forme de modifications prêtes à l’emploi : Jules propose un lot de changements concrets dans le code, accompagné d’une &lt;i&gt;pull request&lt;/i&gt; que vous pouvez examiner puis valider dans GitHub.&lt;/li&gt;&lt;li data-block-key="576u7"&gt;Un modèle de tarification souple : Jules est disponible avec un palier gratuit, complété par des formules payantes (&lt;a href="https://jules.google/#plans" target="_blank"&gt;Pro et Ultra&lt;/a&gt;) pour les usages plus avancés.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7bk37"&gt;&lt;a href="https://github.com/google-gemini/gemini-cli" target="_blank"&gt;&lt;b&gt;Gemini CLI&lt;/b&gt;&lt;/a&gt; propose une interface en ligne de commande ouverte et flexible, conçue pour travailler efficacement avec du code et du contenu, en mode interactif ou « &lt;i&gt;délégué&lt;/i&gt; »&lt;b&gt; :&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1vbng"&gt;Mise en place simple : une simple installation locale de Node suffit.&lt;/li&gt;&lt;li data-block-key="9pjhl"&gt;Extensible : outils intégrés et compatibilité avec MCP.&lt;/li&gt;&lt;li data-block-key="8q6uk"&gt;Intégration avec d’autres services, dont Gemini Code Assist et Firebase Studio.&lt;/li&gt;&lt;li data-block-key="44smq"&gt;Gemini CLI GitHub Actions en open source : permet de déléguer des tâches en arrière-plan sur vos dépôts de code — comme le tri des tickets ou la revue de &lt;i&gt;pull requests&lt;/i&gt; — via des déclencheurs automatiques ou manuels.&lt;/li&gt;&lt;li data-block-key="drqcm"&gt;Souplesse d’utilisation et de tarification : des quotas (volumes d’utilisation) gratuits conséquents sont proposés pour les modèles Gemini, le support des accès sécurisés ‘entreprise’ via Vertex AI et la compatibilité avec une licence Gemini Code Assist&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bp33"&gt;&lt;a href="https://codeassist.google/" target="_blank"&gt;&lt;b&gt;Gemini Code Assist&lt;/b&gt;&lt;/a&gt; propose une extension pour IDE complète qui permet des interactions conversationnelles ou de type agentiques avec une base de code :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="14nqf"&gt;Disponible en mode plug-in pour Visual Studio Code (VSCode) et JetBrains.&lt;/li&gt;&lt;li data-block-key="ki0f"&gt;Gère la complétion de code, la génération de tests, l’explication de code, la création de nouvelles portions de code.&lt;/li&gt;&lt;li data-block-key="5qmln"&gt;Extensible : support des commandes personnalisées, outils complémentaires et personnalisation sur vos bases de code privées. Le mode agent, basé sur Gemini CLI, permet en plus des interactions plus complexes&lt;/li&gt;&lt;li data-block-key="6428e"&gt;Tarification souple : quotas (volumes d’utilisation) gratuits et formule par utilisateur et par mois pour les équipes&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cmo5n"&gt;&lt;a href="https://firebase.studio/" target="_blank"&gt;&lt;b&gt;Firebase Studio&lt;/b&gt;&lt;/a&gt; est le choix idéal si vous voulez concevoir des applications de qualité professionnelle, sans avoir besoin d’être développeur de métier, dans un environnement de développement managé par Google et accessible depuis le navigateur :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="c7tfm"&gt;Templates inclus pour les frameworks et langages populaires afin de démarrer rapidement vos projets&lt;/li&gt;&lt;li data-block-key="4rr70"&gt;Vous pouvez laisser Gemini Vibe générer votre application, ou bien prendre la main et exploiter toute la puissance d’une machine virtuelle personnalisable pour coder vous-même l’application&lt;/li&gt;&lt;li data-block-key="2nv13"&gt;Configuration de l’environnement de travail avec Nix&lt;/li&gt;&lt;li data-block-key="afesj"&gt;Gratuit pendant la phase de preview. Davantage d’environnements sont proposés aux personnes inscrites au Google Developer Program.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="237t5"&gt;&lt;a href="https://aistudio.google.com/welcome" target="_blank"&gt;&lt;b&gt;Google AI Studio&lt;/b&gt;&lt;/a&gt; propose la façon la plus simple d’explorer les derniers modèles de Google, d’expérimenter avec des prompts et de prototyper des applications web légères.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="ihq1"&gt;Générez des contenus multimédia, utilisez l’API Live pour des sessions interactives et rédigez des prompts pour les modèles Gemini et Gemma&lt;/li&gt;&lt;li data-block-key="ebm3l"&gt;Rédigez des prompts avancés, combinez-les à des outils, appuyez-vous sur Google Search pour l’ancrage et comparez les résultats&lt;/li&gt;&lt;li data-block-key="3h9g1"&gt;Obtenez des clés API pour appeler les modèles Gemini de manière programmatique&lt;/li&gt;&lt;li data-block-key="9i9bs"&gt;Tarification souple : un quota gratuit conséquent (volumes d’utilisation) et une &lt;a href="https://ai.google.dev/gemini-api/docs/pricing?hl=fr" target="_blank"&gt;formule payante&lt;/a&gt; avec des limites de requêtes plus élevées, davantage de fonctionnalités et une gestion des données différenciée&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="c2emm"&gt;&lt;b&gt;En résumé :&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="41vks"&gt;Choisissez&lt;b&gt; Gemini&lt;/b&gt; &lt;b&gt;app&lt;/b&gt; pour prototyper rapidement une application.&lt;/li&gt;&lt;li data-block-key="b403o"&gt;Choisissez&lt;b&gt; Google AI Studio&lt;/b&gt; pour expérimenter des prompts ciblant des modèles et fonctionnalités spécifiques.&lt;/li&gt;&lt;li data-block-key="5f29r"&gt;Choisissez&lt;b&gt; Gemini Code Assist&lt;/b&gt; pour un développement assisté par l’IA dans votre environnement, avec votre suite d’outils habituelle.&lt;/li&gt;&lt;li data-block-key="3jfht"&gt;Choisissez&lt;b&gt; Firebase Studio&lt;/b&gt; si vous souhaitez travailler dans un environnement entièrement managé par Google, accessible via le navigateur, pour prototyper ou laisser Gemini Vibe coder des applications complètes, sans avoir besoin d’être développeur.&lt;/li&gt;&lt;li data-block-key="aqgv5"&gt;Choisissez&lt;b&gt; Gemini CLI&lt;/b&gt; si vous travaillez sur de nombreux de projets en IA générative et que vous recherchez la rapidité et la portabilité d’une interface en ligne de commande agentique.&lt;br/&gt;Et utilisez les &lt;b&gt;GitHub Actions Gemini CLI&lt;/b&gt; si vous voulez bénéficier de la sécurité Google Cloud et des modèles Gemini, tout en déclenchant des tâches interactives ou en arrière-plan pour vos projets basés sur GitHub.&lt;/li&gt;&lt;li data-block-key="8g9fc"&gt;Choisissez&lt;b&gt; Jules&lt;/b&gt; si vous avez des projets hébergés sur GitHub nécessitant des modifications pouvant être exprimées clairement sous forme d’instructions.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="a7v27"&gt;De toute ma carrière, je n’ai jamais vu les outils de développement logiciel évoluer aussi vite — ni une telle volonté chez les développeurs d’expérimenter toutes les nouveautés. C’est à la fois enthousiasmant… et déroutant. Ces différents outils sont complémentaires : vous aurez sans doute besoin d’en combiner plusieurs pour mener vos projets à bien.&lt;/p&gt;&lt;p data-block-key="ufl8"&gt;Chez Google, nous allons continuer à nous concentrer sur un objectif simple : vous donner les meilleurs outils IA pour créer les meilleures applications IA. Et nous comptons aussi beaucoup sur vos retours d’expérience pour y parvenir.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 19 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</guid><category>Developers &amp; Practitioners</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Choisir le bon outil de développement Google IA selon votre projet</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/choisir-le-bon-outil-de-developpement-google-ia-selon-votre-projet/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Seroter</name><title>Chief Evangelist, Google Cloud</title><department></department><company></company></author></item><item><title>Découvrez Gemini Enterprise</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="pf7hk"&gt;&lt;i&gt;(Note de l'éditeur : Il s'agit d'une version abrégée du discours prononcé par Thomas Kurian pour annoncer Gemini Enterprise au cours d'un événement qui s'est tenu début octobre.)&lt;/i&gt;&lt;br/&gt;&lt;br/&gt;L'IA offre une opportunité unique de transformer votre façon de travailler, de gérer votre entreprise et de créer de la valeur pour vos clients. Cependant, la première vague d'IA, bien que prometteuse, est restée cloisonnée, incapable d'orchestrer des tâches complexes à l'échelle d'une organisation entière.&lt;br/&gt;&lt;br/&gt;Une véritable transformation nécessite une plateforme complète qui se connecte à votre contexte, à vos workflows et à vos équipes. C'est pourquoi nous sommes fiers de vous présenter aujourd'hui Gemini Enterprise, la nouvelle porte d'entrée de l'IA dans le monde du travail.&lt;br/&gt;&lt;br/&gt;Pour atteindre ce niveau de transformation, il faut une approche complète et globale de l'innovation, et c'est là que Google fait la différence. Notre force réside dans une infrastructure d'IA fiable, conçue pour répondre à des besoins spécifiques, et s'appuie sur les recherches pionnières de Google DeepMind ainsi que sur notre gamme polyvalente de modèles Gemini. Sundar Pichai évoque tout ceci plus en détail dans son &lt;a href="https://blog.google/products/google-cloud/gemini-enterprise-sundar-pichai" target="_blank"&gt;article&lt;/a&gt;.&lt;br/&gt;&lt;br/&gt;Cette pile complète boostée par l'IA est la raison pour laquelle neuf des dix plus grands laboratoires d'IA et la quasi-totalité des licornes du secteur font déjà confiance à Google Cloud. C'est pourquoi 65 % de nos clients utilisent nos produits d'IA, y compris Banco BV, Behr, Box, DBS Bank, Deloitte, Deutsche Telekom, Fairprice Group, le département de l'Énergie des États-Unis et &lt;a href="https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders?e=48754805"&gt;bien d'autres organisations dans le monde&lt;/a&gt;. Aujourd'hui, nous sommes fiers d'annoncer de nouvelles réussites en matière d'IA avec &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Figma-and-Google-Team-Up-to-Empower-Next-Generation-of-Creative-Builders" target="_blank"&gt;Figma&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Gap-Inc-Sets-Out-to-Reimagine-Retail-Powered-by-Google-Clouds-AI" target="_blank"&gt;GAP&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Gordon-Food-Service-Fuels-Digital-Transformation-and-AI-Powered-Growth-with-Gemini-Enterprise-and-Google-Workspace" target="_blank"&gt;Gordon Foods&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Klarna-and-Google-Cloud-Enter-Strategic-AI-Partnership-to-Bring-More-Creative-and-Engaging-Shopping-Experiences-to-Millions-of-Klarna-Users-Worldwide" target="_blank"&gt;Klarna&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Macquarie-Bank-Democratises-Agentic-AI,-Scaling-Customer-Innovation-with-Gemini-Enterprise" target="_blank"&gt;Macquarie Bank&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Melexis-and-Google-Cloud-Announce-Expanded-Strategic-Partnership-to-Accelerate-Enterprise-Wide-AI-Transformation" target="_blank"&gt;Melexis&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-SIGNAL-IDUNA-Rolls-Out-Gemini-Enterprise-for-over-10,000-Employees" target="_blank"&gt;Signal Iduna&lt;/a&gt;, &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Valiuz-Partners-with-Google-Cloud-to-Accelerate-Employee-AI-Adoption-and-Transform-Business-Practices" target="_blank"&gt;Valiuz&lt;/a&gt; et &lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Virgin-Voyages-Partners-with-Google-Cloud-to-Launch-a-Fleet-of-50-AI-Agents-on-Gemini-Enterprise,-Powering-a-Company-Wide-Transformation" target="_blank"&gt;Virgin Voyages&lt;/a&gt;. Nous sommes également fiers d'être le fournisseur de services cloud officiel des Jeux olympiques d'été de 2028 de Los Angeles, où Google Cloud apportera ses innovations en matière d'IA aux Jeux olympiques et paralympiques.&lt;br/&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=tGq5yUEo_AQ"
      data-glue-modal-trigger="uni-modal-tGq5yUEo_AQ-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/tGq5yUEo_AQ/maxresdefault.jpg"
             alt="Hear how Google Cloud is teaming up with LA28 to reimagine the Olympic &amp;amp; Paralympic Games experience"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-tGq5yUEo_AQ-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="tGq5yUEo_AQ"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=tGq5yUEo_AQ"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="pf7hk"&gt;&lt;b&gt;L'IA qui transforme votre façon de travailler&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8rnjd"&gt;Gemini Enterprise offre le meilleur de l'IA de Google à chaque collaborateur grâce à une interface de chat intuitive qui sert de point d'accès unique à l'IA sur le lieu de travail. Derrière cette interface simple, Gemini Enterprise unifie six composants essentiels :&lt;/p&gt;&lt;p data-block-key="1r5gc"&gt;La plate-forme repose sur les &lt;b&gt;modèles Gemini&lt;/b&gt; les plus avancés de Google, qui constituent le cerveau du système et offrent une intelligence de pointe pour chaque tâche.&lt;br/&gt;&lt;br/&gt;Grâce à un &lt;b&gt;workbench sans code&lt;/b&gt;, tout collaborateur, du service marketing aux équipes financières ou dans toute autre équipe, peut analyser des informations et orchestrer des agents pour automatiser les processus dans toute l'organisation.&lt;/p&gt;&lt;p data-block-key="5po66"&gt;Pour générer de la valeur dès le premier jour, Gemini Enterprise inclut une &lt;b&gt;suite d'agents Google prédéfinis&lt;/b&gt; pour des tâches spécialisées comme la recherche approfondie et l'analyse des données. Vous pouvez facilement l'enrichir avec des agents personnalisés créés par vos équipes ou avec des solutions issues de notre vaste écosystème de partenaires.&lt;/p&gt;&lt;p data-block-key="7u9br"&gt;Un agent n'est efficace que s'il dispose du contexte nécessaire pour agir. Gemini Enterprise &lt;b&gt;se connecte de façon sécurisée aux données de votre entreprise&lt;/b&gt;, où qu'elles se trouvent : Google Workspace, Microsoft 365, applications professionnelles comme Salesforce et SAP, etc.&lt;/p&gt;&lt;p data-block-key="9vcjt"&gt;Tout ceci est géré par un &lt;b&gt;framework de gouvernance centralisé&lt;/b&gt;, ce qui vous permet de visualiser, de sécuriser et d'auditer tous vos agents depuis un seul et même endroit.&lt;/p&gt;&lt;p data-block-key="el562"&gt;Et tout cela repose sur un principe d'ouverture, avec un &lt;b&gt;écosystème&lt;/b&gt; de plus de 100 000 partenaires. Cela garantit que les clients ont le choix et favorise l'innovation.&lt;/p&gt;&lt;p data-block-key="9pno9"&gt;En réunissant l'ensemble de ces composants dans une interface unique, Gemini Enterprise transforme la façon dont les équipes travaillent. Cette solution ne se limite pas aux tâches simples : elle permet d'automatiser des workflows entiers et d'obtenir des résultats plus efficaces, le tout sur l'architecture de Google sécurisée et taillée pour les entreprises.&lt;/p&gt;&lt;p data-block-key="na8o"&gt;Certaines entreprises proposent des modèles et des boîtes à outils d'IA, mais elles vous fournissent juste les composants, pas la plate-forme. Elles laissent à &lt;i&gt;vos&lt;/i&gt; équipes le soin de tout assembler. Mais ce n'est pas en combinant des composants que vous obtiendrez la transformation dont vous avez besoin.&lt;/p&gt;&lt;p data-block-key="7k2pp"&gt;Seul Gemini Enterprise fournit une plate-forme complète optimisée par l'IA, depuis nos TPU (Tensor Processing Units) sur mesure jusqu'à nos modèles Gemini de pointe, en passant par la plate-forme et les agents qui transforment les workflows. Il n'en faut pas moins pour créer une structure d'IA véritablement unifiée pour votre entreprise, et c'est pour cela que les clients utilisent déjà Gemini Enterprise :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7f2ie"&gt;Les responsables de la relation client de Banco BV passaient des heures à effectuer leurs propres analyses. Désormais, grâce à Gemini Enterprise, cette tâche est automatisée. Ils peuvent ainsi consacrer plus de temps à la conversion de nouveaux clients.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="44hme"&gt;Harvey est la principale IA spécifique aux services juridiques et professionnels, utilisée par les équipes juridiques des entreprises du classement Fortune 500. Grâce à Gemini, les avocats sont plus efficaces dans l'analyse des contrats, la diligence raisonnable, la conformité et les litiges, ce qui leur permet de gagner un temps précieux.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="7b45i"&gt;Macquarie Bank utilise Google Cloud IA pour lutter contre la fraude de façon efficace et proactive et proposer des fonctionnalités de libre-service en ligne, par exemple une fonctionnalité de recherche qui a permis de rediriger 38 % d'utilisateurs en plus vers le centre d'aide. Les faux positifs dans les alertes de protection des clients ont également baissé de 40 %.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=YEkyJaFmQ6o"
      data-glue-modal-trigger="uni-modal-YEkyJaFmQ6o-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/YEkyJaFmQ6o/maxresdefault.jpg"
             alt="Gordon Food Service empowers every employee with Gemini Enterprise"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-YEkyJaFmQ6o-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="YEkyJaFmQ6o"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=YEkyJaFmQ6o"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="pf7hk"&gt;Il ne s'agit pas seulement de simplifier une tâche. Il s'agit de rendre les workflows entiers plus intelligents en recherchant et en trouvant des informations dans tous les documents, applications, systèmes de messagerie et de chat de votre entreprise, et en automatisant les processus à l'aide d'agents avec n'importe laquelle de vos applications d'entreprise.&lt;/p&gt;&lt;p data-block-key="9851v"&gt;Gemini Enterprise souligne notre engagement envers une plate-forme ouverte. En effet, il fonctionne parfaitement dans les environnements Microsoft 365 et SharePoint. Et lorsque vous utilisez Gemini Enterprise avec Google Workspace, vous bénéficiez d'avantages supplémentaires. Aujourd'hui, nous annonçons le lancement du premier d'une longue série d'agents multimodaux qui exploitent la puissance de Gemini pour comprendre et créer du texte, des images, des vidéos et des contenus vocaux, directement intégrés aux applications Workspace que vous utilisez déjà.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1527p"&gt;&lt;b&gt;Vidéos&lt;/b&gt; : avec Google Vids, vous pouvez désormais transformer un type d'informations, comme une présentation, en une vidéo attrayante, avec un script et une voix off générés par l'IA. Avec 2,5 millions d'utilisateurs chaque mois, Vids rencontre déjà un engouement incroyable.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="69g2d"&gt;&lt;b&gt;Voix&lt;/b&gt; : dans Google Meet, nous proposons la traduction vocale en temps réel à tous les clients professionnels. Cette fonctionnalité ne se limite pas aux mots. Elle capture votre ton et votre expression naturels pour rendre les conversations fluides, quelle que soit votre langue. Elle s'appuie sur les données issues de notre fonctionnalité Prendre des notes pour moi, dont l'utilisation a été multipliée par plus de 13 depuis le début de l'année.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="8g1hd"&gt;Un agent n'est efficace que si son contexte l'est également. Gemini Enterprise s'intègre aux données de votre organisation, où qu'elles se trouvent, pour créer ce contexte et fournir des résultats utiles, précis et fiables. Aujourd'hui, nous annonçons les nouveautés suivantes dans Gemini Enterprise :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="46kf7"&gt;Un nouveau &lt;b&gt;Data Science Agent&lt;/b&gt;, disponible en preview, pour automatiser l'ingestion des données et le formatage des données brutes (data wrangling). Il accélère l'exploration détaillée des données en identifiant instantanément des schémas et simplifie le développement de modèles complexes en générant des plans en plusieurs étapes pour l'entraînement et l'inférence, ce qui élimine le réglage manuel et itératif.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bon46"&gt;Des clients comme Morrisons, Vodafone et Walmart utilisent déjà cet agent pour accélérer leurs workflows de données et effacer les points de friction dans l'expérience client.&lt;/p&gt;&lt;h3 data-block-key="es5h6"&gt;&lt;b&gt;L'IA qui transforme votre façon de gérer votre entreprise&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="e3n2g"&gt;&lt;br/&gt;L'engagement client est l'un des cas d'utilisation les plus importants de l'IA. Customer Engagement Suite, notre solution d'IA conversationnelle pour le Web, les applications mobiles, les centres d'appel et les points de vente, travaille aux côtés de vos conseillers clientèle pour répondre aux questions par chat et par téléphone, et pour effectuer des actions. L'impact commercial est réel, et les entreprises leaders en constatent déjà les résultats :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="dbbmv"&gt;Commerzbank a été l'une des premières entreprises à adopter Customer Engagement Suite, qu'elle a utilisée pour créer Bene, son propre chatbot spécialisé. Pour améliorer encore davantage l'expérience, la banque utilise désormais Gemini, qui gère plus de deux millions de discussions par chat et résout 70 % des demandes.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="e25jf"&gt;Mercari, la plus grande place de marché en ligne du Japon, repense son centre de contact avec l'IA de Google pour offrir une expérience de service client basée sur l'IA. L'entreprise prévoit d'obtenir un ROI de 500 % en réduisant la charge de travail des agents du service client d'au moins 20 %.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="aj1cd"&gt;Aujourd'hui, nous annonçons le lancement en preview d'agents conversationnels de nouvelle génération qui se connectent directement à Gemini Enterprise. Ces agents apportent des améliorations sur quatre niveaux :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="36r0m"&gt;&lt;b&gt;La façon dont vous créez&lt;/b&gt; : nous lançons un nouveau générateur visuel nécessitant peu de code et facile à utiliser. Vous pouvez créer un agent d'engagement client une seule fois et le configurer pour tous vos canaux : téléphonie, Web, mobile, e-mail et chat. Ces nouveaux agents prennent en charge plus de 40 langues.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="ejoie"&gt;&lt;b&gt;L'intelligence sous-jacente&lt;/b&gt; : ces agents nouvelle génération sont basés sur nos derniers modèles Gemini. Ils offrent des voix incroyablement naturelles et peuvent gérer les transitions d'accent et les bruits ambiants dus à une mauvaise connexion téléphonique avec une justesse et une latence inégalées dans le secteur.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="3ginf"&gt;&lt;b&gt;Votre délai de rentabilisation&lt;/b&gt; : les nouveaux services d'augmentation par l'IA et les agents spécialisés prédéfinis permettent aux créateurs d'agents de créer, tester, déployer et surveiller des agents plus rapidement que jamais. De plus, nous utilisons le coaching assisté par l'IA pour accroître considérablement la productivité de vos équipes. Cela rend l'ensemble de votre centre de contact plus efficace, qu'il soit humain ou numérique.&lt;/li&gt;&lt;li data-block-key="92j58"&gt;&lt;b&gt;Intégration poussée dans l'entreprise&lt;/b&gt; : ces agents sont conçus pour se connecter directement à Gemini Enterprise. Cela vous offre deux avantages clés : une personnalisation approfondie, grâce au contexte en temps réel de tous vos systèmes d'entreprise, et une gouvernance unifiée, qui vous permet de gérer tous vos agents depuis la même plate-forme centrale.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="5msq5"&gt;&lt;b&gt;L'IA qui transforme vos créations&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="9llec"&gt;La transformation ultime consiste à utiliser l'IA pour créer des expériences entièrement inédites pour vos clients. Pour cela, vous devez tout d'abord donner aux développeurs les moyens d'élaborer vos agents et vos applications. Lancée il y a seulement trois mois, la &lt;a href="http://geminicli.com/" target="_blank"&gt;CLI Gemini&lt;/a&gt; a déjà séduit un million de développeurs. Cet agent IA leur permet d'interagir avec les modèles Gemini de Google directement depuis un terminal pour automatiser des tâches, générer du code et effectuer des recherches en langage naturel. C'est devenu un outil essentiel pour les développeurs du monde entier, dont les workflows sont chaque jour plus complexes. La meilleure IA ne doit pas vous obliger à changer de contexte, mais s'adapter à votre chaîne d'outils.&lt;/p&gt;&lt;p data-block-key="aiehe"&gt;C'est pourquoi nous avons lancé des &lt;a href="https://blog.google/technology/developers/gemini-cli-extensions/" target="_blank"&gt;extensions pour la CLI Gemini&lt;/a&gt;. Ce nouveau framework vous permet de personnaliser votre IA en ligne de commande et de la connecter aux services que vous utilisez le plus. Vous pouvez ainsi créer un workflow plus intelligent et personnalisé grâce à un écosystème toujours plus vaste d'extensions, proposées par Google et des leaders du secteur comme Atlassian, GitLab, MongoDB, Postman, Shopify, Stripe et plus encore. De cette façon, votre CLI n'est plus un simple outil, mais un centre de commande personnalisé.&lt;/p&gt;&lt;p data-block-key="7b30m"&gt;L'innovation basée sur les agents donne naissance à une toute nouvelle économie des agents, où les développeurs, les éditeurs de logiciels indépendants et les partenaires peuvent créer des agents spécialisés qui communiquent et effectuent des transactions entre eux, et générer des revenus grâce à ces agents. Pour ce faire, nous avons collaboré avec le secteur sur une norme ouverte appelée &lt;a href="https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/" target="_blank"&gt;protocole Agent2Agent (A2A)&lt;/a&gt; qui, avec le protocole MCP (Model Context Protocol), définit les normes de communication entre les agents.&lt;/p&gt;&lt;p data-block-key="euhbo"&gt;Mais pour que les agents soient vraiment autonomes, ils doivent pouvoir réaliser des transactions. Pour permettre aux agents d'effectuer des paiements de façon sécurisée et auditable, nous avons annoncé le mois dernier un nouveau protocole ouvert : le &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/announcing-agents-to-payments-ap2-protocol?e=48754805"&gt;protocole AP2 (Agent Payments Protocol)&lt;/a&gt;. Il s'agit d'une initiative unique en son genre, développée avec plus de 100 partenaires technologiques et de paiement, comme American Express, Coinbase, Intuit, Mastercard, PayPal, ServiceNow et Salesforce, pour standardiser la façon dont les agents gèrent les transactions financières.&lt;/p&gt;&lt;p data-block-key="e8gr2"&gt;En collaborant avec nos partenaires et la communauté au sens large en vue d'élaborer des protocoles standardisés pour le contexte, la communication, le commerce et d'autres aspects clés, nous posons les bases de l'économie des agents.&lt;/p&gt;&lt;p data-block-key="370ck"&gt;Nos clients intègrent également nos modèles Gemini directement à leurs produits :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1lqrt"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Klarna-and-Google-Cloud-Enter-Strategic-AI-Partnership-to-Bring-More-Creative-and-Engaging-Shopping-Experiences-to-Millions-of-Klarna-Users-Worldwide" target="_blank"&gt;Klarna&lt;/a&gt; utilise des outils comme Gemini et Veo pour créer des lookbooks sur mesure, dynamiques, personnalisés et percutants pour les acheteurs, ce qui a permis d'augmenter les commandes de 50 %.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="9l59f"&gt;Mercedes-Benz conçoit des véhicules dotés de l'IA de Google qui peuvent parler à leurs conducteurs. Le constructeur utilise Automotive AI Agent de Google Cloud, qui s'appuie sur Gemini sur Vertex AI pour alimenter son assistant virtuel MBUX. Celui-ci permet d'avoir des conversations naturelles et fournit des réponses personnalisées aux automobilistes pour la navigation ou encore la recherche de points d'intérêt.&lt;br/&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=ijqTReRzG8M"
      data-glue-modal-trigger="uni-modal-ijqTReRzG8M-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/ijqTReRzG8M/maxresdefault.jpg"
             alt="Mercedes &amp;amp; Google Cloud: The AI Technology Behind the CLA’s Navigation Assistant"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-ijqTReRzG8M-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="ijqTReRzG8M"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=ijqTReRzG8M"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ul&gt;&lt;li data-block-key="pf7hk"&gt;Swarovski crée une expérience client personnalisée avec Vertex AI, qui se traduit par une augmentation de 17 % du taux d'ouverture des e-mails et une localisation des campagnes dix fois plus rapide.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3ohmo"&gt;Cette transformation ne se limite pas au code. Notre famille de modèles Gemini a été utilisée pour créer plus de 13 milliards d'images et 230 millions de vidéos. Par exemple :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="2fj1h"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Figma-and-Google-Team-Up-to-Empower-Next-Generation-of-Creative-Builders" target="_blank"&gt;Figma&lt;/a&gt; aide sa communauté à créer plus facilement que jamais. Grâce aux outils de sa plate-forme basés sur le modèle Gemini 2.5 Flash Image (plus communément appelé Nano Banana), ses utilisateurs peuvent désormais créer des images de haute qualité et adaptées à leur marque à partir d'un simple prompt, modifier les détails avec l'IA et obtenir toute la variété dont leur projet a besoin.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="1p470"&gt;&lt;a href="https://www.googlecloudpresscorner.com/2025-10-09-Virgin-Voyages-Partners-with-Google-Cloud-to-Launch-a-Fleet-of-50-AI-Agents-on-Gemini-Enterprise,-Powering-a-Company-Wide-Transformation" target="_blank"&gt;Virgin Voyages&lt;/a&gt; utilise la fonctionnalité de conversion texte-vers-vidéo de Veo et Imagen pour créer des milliers d'annonces et d'e-mails hyperpersonnalisés, chacun correspondant parfaitement à la voix unique de la marque, à une échelle qui aurait été impossible il y a un an à peine.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="84djl"&gt;Le nombre de clients qui utilisent nos modèles d'IA dans Vertex continue de croître, y compris des grandes marques comme Adobe, Cathay Pacific, Kraft-Heinz, LATAM Airlines, Toyota, Unilever et bien d'autres.&lt;/p&gt;&lt;h3 data-block-key="8639a"&gt;&lt;b&gt;L'avenir de l'IA doit être ouvert&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="4ssce"&gt;La stratégie d'IA de Google Cloud repose sur une conviction fondamentale : l'avenir de l'IA nécessite un écosystème de partenaires ouvert et collaboratif pour garantir que les clients ont le choix. Pour concrétiser cette vision, nous avons créé un écosystème complet d'IA agentive avec plus de 100 000 partenaires qui sous-tendent tous les niveaux de notre pile d'IA : infrastructure d'IA, outils IA, éditeurs indépendants et partenaires de services. Aujourd'hui, nous faisons &lt;a href="https://cloud.google.com/blog/topics/partners/partners-powering-the-gemini-enterprise-agent-ecosystem"&gt;progresser&lt;/a&gt; cet écosystème de quatre manières essentielles :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="8gu2g"&gt;&lt;b&gt;Workflows multiplates-formes étendus&lt;/b&gt; : nous élargissons notre collaboration avec des partenaires comme Box, OpenText, ServiceNow et Workday, des outils que vous utilisez au quotidien, pour proposer des workflows multiplates-formes sophistiqués prêts à l'emploi.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="eg85o"&gt;&lt;b&gt;Scaling avec nos partenaires&lt;/b&gt; : des partenaires de premier plan, comme BCG, Capgemini, HCLTech, Infosys, McKinsey, TCS, Wipro et bien d'autres peuvent vous aider à planifier, déployer et développer des agents personnalisés pour accélérer votre adoption de Gemini Enterprise. Par ailleurs, Accenture, Cognizant, Deloitte, KPMG et PwC annoncent aujourd'hui leur adoption interne et l'élargissement de leurs services pour Gemini Enterprise.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="78sj8"&gt;&lt;b&gt;Recherche d'agents validés&lt;/b&gt; : les clients peuvent désormais utiliser un nouvel&lt;a href="http://cloud.withgoogle.com/agentfinder" target="_blank"&gt; AI Agent Finder&lt;/a&gt; pour trouver l'agent adapté à leurs besoins. Ils ont ainsi l'assurance que les milliers d'agents qu'ils peuvent désormais trouver, filtrer et déployer ont été vérifiés en termes de sécurité et d'interopérabilité.&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="feldm"&gt;&lt;b&gt;Commercialisation et monétisation des agents&lt;/b&gt; : les partenaires créateurs d'agents IA bénéficient d'un moyen simple et efficace de commercialiser leurs solutions et d'en tirer des revenus, en les mettant instantanément en relation avec des millions de clients Google Cloud.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="72gb5"&gt;&lt;b&gt;Faciliter votre transformation&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="408p7"&gt;Un tel niveau de transformation implique le perfectionnement des compétences de vos équipes. C'est pourquoi &lt;a href="https://cloud.google.com/blog/topics/training-certifications/google-skills-new-home-AI-learning"&gt;nous lançons aujourd'hui&lt;/a&gt; un ensemble complet de programmes pour vous aider à réussir.&lt;br/&gt;&lt;br/&gt;Pour développer les compétences de l'ensemble de vos collaborateurs, nous lançons &lt;b&gt;Google Skills&lt;/b&gt;, notre nouvelle plate-forme qui propose gratuitement des formations Google, de Gemini Enterprise à Google DeepMind. Sur cette plate-forme, nous annonçons le &lt;b&gt;programme Gemini Enterprise Agent Ready (GEAR)&lt;/b&gt;, un nouveau parcours pédagogique conçu pour permettre à un million de développeurs de créer et de déployer des agents. &lt;a href="http://goo.gle/google-skills" target="_blank"&gt;Cliquez ici&lt;/a&gt; pour être parmi les premiers à utiliser Google Skills et pour manifester votre intérêt pour GEAR.&lt;/p&gt;&lt;p data-block-key="977c1"&gt;Pour les organisations qui souhaitent s'adjoindre les services de nos experts, nous sommes fiers d'annoncer la création d'une nouvelle équipe, Delta : un groupe d'ingénieurs en IA de Google qui vous aideront à relever vos défis les plus complexes.&lt;/p&gt;&lt;p data-block-key="t2ov"&gt;Ces programmes ont tous un objectif commun : vous aider, vous et vos équipes, à construire votre avenir avec l'IA.&lt;/p&gt;&lt;h3 data-block-key="39gv5"&gt;&lt;b&gt;Les bases de votre avenir&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="4ibme"&gt;À l'heure où l'IA transforme les entreprises du monde entier, Google est le seul partenaire à proposer une gamme complète d'offres que vous pouvez adapter aux besoins de votre organisation. Et surtout, nous vous offrons une réelle valeur ajoutée pour vous aider à rentabiliser vos investissements dans l'IA.&lt;br/&gt;&lt;br/&gt;C'est tout le potentiel de Gemini Enterprise, la nouvelle porte d'entrée de l'IA dans le monde du travail. Nous mettons le meilleur de l'IA de Google à la disposition de chaque collaborateur, pour chaque workflow, et nous sommes là pour vous aider à chaque étape.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 12 Dec 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</guid><category>Inside Google Cloud</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/2436_x_1200_logo_lockup.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Découvrez Gemini Enterprise</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/2436_x_1200_logo_lockup.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-gemini-enterprise/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Thomas Kurian</name><title>CEO, Google Cloud</title><department></department><company></company></author></item><item><title>Converteo industrialise l’IA agentique avec Google Cloud</title><link>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="znm3y"&gt;&lt;b&gt;À propos de Converteo&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="b9t39"&gt;Cabinet de conseil de nouvelle génération, Converteo fait converger expertise data, marketing digital et IA pour transformer les performances business. Fondé en 2007, il compte plus de 450 consultants à Paris, Madrid, New York, Shanghai, et accompagne plus de 200 clients, en France et à l’international.&lt;/p&gt;&lt;p data-block-key="46ug5"&gt;&lt;b&gt;—----------—----------&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="c5dee"&gt;Fondé en 2007, Converteo s’est imposé comme un acteur majeur du conseil en data et intelligence artificielle. Avec plus de 450 consultants répartis entre Paris, Madrid, New York, Montréal, Shanghai, le cabinet accompagne plus de 200 clients, principalement des grands comptes ainsi que des ETI, sur l’ensemble de la chaîne de valeur de la donnée et de l’IA, de la stratégie à l’implémentation opérationnelle. Sa mission : agir comme un accélérateur de performance, en reliant efficacement les enjeux métiers à la technologie.&lt;/p&gt;&lt;p data-block-key="7gn6f"&gt;Aujourd'hui, Converteo franchit une nouvelle étape pour devenir le premier cabinet de conseil où chaque collaborateur est nativement augmenté par l'IA agentique. &lt;i&gt;« Avec un plan de déploiement de plus de 420 licences Gemini Enterprise en interne d'ici au premier trimestre 2026, nous ne nous contentons pas de conseiller la transformation : nous l'opérons d'abord sur nous-mêmes pour décupler notre efficacité et la valeur apportée à nos clients »,&lt;/i&gt; explique Hamza Senoussi, Senior Manager Data &amp;amp; AI chez Converteo.&lt;/p&gt;&lt;h3 data-block-key="a6vv4"&gt;&lt;b&gt;Anticiper la rupture, incarner le conseil de demain&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cq4qo"&gt;Pour Converteo, l’IA agentique marque un tournant stratégique. &lt;i&gt;« La première vague de l’IA générative a déjà modifié le quotidien des consultants, en automatisant certaines tâches de création de contenu, mais ces usages restaient limités »,&lt;/i&gt; explique Hamza Senoussi. &lt;i&gt;« Nos consultants n’ont pas seulement besoin d’un chatbot qui répond à des questions, ils ont besoin de systèmes capables de comprendre, de planifier et d’exécuter des processus de bout en bout. Et c’est précisément ce que l’IA agentique apporte ».&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="fhgnd"&gt;Converteo estime en effet que les tâches routinières (recherche d’informations, synthèse de documents, analyses standard, etc.) vont être automatisées par des processus intelligents reliant plusieurs agents spécialisés pour exécuter un flux de travail complet. &lt;i&gt;« L’agentique provoque une véritable rupture dans les métiers du conseil. Notre valeur réside plus que jamais dans la capacité à mobiliser nos talents sur la réflexion stratégique, sur le “pourquoi”. Intégrer cette réalité au cœur de notre organisation nous met en situation d’être plus compétitif que nos concurrents. »,&lt;/i&gt; souligne Hamza Senoussi.&lt;/p&gt;&lt;p data-block-key="10r3g"&gt;Au delà de la conviction, la stratégie de Converteo s’appuie sur une analyse approfondie, des objectifs définis et mesurables : &lt;i&gt;« À terme, nous avons l’intention de libérer 30 % du temps de nos équipes grâce à l’IA agentique, pour le réinvestir dans les rôles stratégiques qui font la différence pour nos clients. »&lt;/i&gt; indique Hamza Senoussi.&lt;/p&gt;&lt;h3 data-block-key="4ouij"&gt;&lt;b&gt;Google Cloud, accélérateur de transformation&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="p64k"&gt;Pour concrétiser ses ambitions, Converteo s’appuie sur les solutions de Google Cloud. Le partenariat, initié il y a quelques années autour de projets data et marketing, s'est progressivement élargi à l'intelligence artificielle générative puis à l'IA agentique. Gemini Enterprise Plus s'est imposé pour trois raisons principales : sa capacité à indexer et unifier les connaissances internes, la richesse de son écosystème de connecteurs et la flexibilité du no-code au développement sur mesure.&lt;/p&gt;&lt;p data-block-key="7i99g"&gt;&lt;i&gt;« Gemini Enterprise permet de briser les silos de connaissances en offrant une recherche unifiée sur l’ensemble du capital intellectuel du cabinet. Cette capacité s’appuie sur l’expertise éprouvée de Google dans la recherche d’information »,&lt;/i&gt; souligne Hamza Senoussi. La plateforme facilite aussi l’orchestration de l’intelligence grâce à la puissance de raisonnement des modèles Gemini, capables de traiter des requêtes complexes. Enfin, grâce à Vertex AI Agent Builder et à des frameworks comme l’Agent Development Kit et A2A, Converteo peut dépasser la simple recommandation et concevoir des agents sur mesure, capables d’exécuter directement des processus métiers.&lt;/p&gt;&lt;p data-block-key="4bkpi"&gt;&lt;i&gt;« Avec Gemini&lt;/i&gt; &lt;i&gt;Enterprise Plus, nous avons trouvé la combinaison parfaite : un moteur de recherche d’entreprise puissant, un écosystème riche de connecteurs, et la possibilité d’aller du no-code au développement avancé. C’est cette flexibilité qui nous permet d’industrialiser l’usage des agents à l’échelle du cabinet et de l’étendre ensuite à nos clients »,&lt;/i&gt; résume Hamza Senoussi.&lt;/p&gt;&lt;p data-block-key="ctf6v"&gt;Le déploiement a démarré dès l’été 2025, avec une phase axée sur des cas d’usage rapides à mettre en œuvre. Converteo a impliqué ses experts métiers, formés pour devenir acteurs du développement des agents et collaborer efficacement avec les équipes techniques. La société a structuré sa démarche autour de deux profils complémentaires : les « Champions » agentiques identifient les cas d'usage à fort potentiel tandis que les « Builders » transforment ces idées en agents opérationnels. Ce modèle alimente une véritable « usine à agents » propriétaires, où chaque projet passe par un processus clair, de l’identification à la mise en production.&lt;/p&gt;&lt;p data-block-key="89u0s"&gt;Pour garantir une adoption fluide, Converteo a aussi prévu des kits de formation, un backlog partagé (liste centralisée et priorisée des développements en cours et à venir) d’agents et une boucle de feedback continue. &lt;i&gt;« Cette gouvernance rigoureuse renforce la sécurité et la traçabilité de chaque décision. Elle sécurise les usages et place les consultants au cœur du dispositif, en leur donnant un rôle actif de superviseurs d’agents »,&lt;/i&gt; précise Hamza Senoussi.&lt;/p&gt;&lt;h3 data-block-key="2grvc"&gt;&lt;b&gt;Des résultats tangibles, une ambition sectorielle&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="6kre3"&gt;Deux mois à peine après l’adoption de Gemini Enterprise, Converteo compte déjà plusieurs agents opérationnels en interne. Ils assistent les consultants de la société dans la recherche et la synthèse de documents complexes et automatisent des processus comme le rapprochement financier ou encore l’&lt;i&gt;onboarding&lt;/i&gt; des collaborateurs. Là où l’intégration d’un nouveau consultant mobilisait auparavant plusieurs services et impliquait une succession de démarches administratives chronophages, un agent orchestre désormais l’ensemble du parcours : accès aux outils, formation initiale, vérifications contractuelles, etc. Le gain est double : moins de temps perdu pour les équipes RH et une expérience plus fluide pour les nouveaux arrivants.&lt;/p&gt;&lt;p data-block-key="83o4d"&gt;Converteo a également appliqué l’agentique à ses processus de staffing. L’affectation des consultants aux missions reposait jusqu’alors sur des échanges manuels et des tableurs. Un agent agrège désormais automatiquement les données de compétences, de disponibilités et de planning, puis propose instantanément les meilleures combinaisons. Résultat : une allocation des ressources humaines plus rapide, plus pertinente et mieux équilibrée, garantissant une meilleure adéquation avec les besoins des clients.&lt;/p&gt;&lt;p data-block-key="3shpn"&gt;Outre les gains de productivité, les premiers retours d’expérience montrent une amélioration de la qualité des analyses et une réduction des temps de réponse aux besoins des clients. Cette transformation opérée en interne constitue aujourd’hui le socle d'une offre différenciante : Converteo propose désormais un parcours complet de transformation « agentique » à ses clients, de l'identification des cas d'usage à l'industrialisation.&lt;/p&gt;&lt;p data-block-key="f47pg"&gt;Les ambitions de la société ne s’arrêtent pas là. Le partenariat entre Converteo et Google Cloud s'articule en effet autour d'une vision stratégique commune : démocratiser l'IA agentique pour en faire un véritable levier de création de valeur pour les entreprises. &lt;i&gt;« Il s'agit d'une collaboration qui dépasse largement la dimension technique. Ensemble, nous redéfinissons les codes du métier du conseil en créant un modèle hybride où l'expertise humaine est amplifiée par des solutions technologiques évolutives et réutilisables. Un modèle où l'agilité, l'efficacité et la durabilité ne sont plus des objectifs à atteindre, mais une réalité opérationnelle au service des clients »,&lt;/i&gt; conclut Hamza Senoussi.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 29 Oct 2025 07:44:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Converteo industrialise l’IA agentique avec Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/converteo-industrialise-lia-agentique-avec-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Hamza Senoussi</name><title>Senior Manager</title><department>Data and AI</department><company>Converteo</company></author></item><item><title>Bâtir un agent de recherche intelligent avec l’ADK de Google pour booster la génération de prospects</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;La prospection commerciale traditionnelle repose souvent sur des scrapers fragiles et des scripts statiques, incapables de comprendre les contextes, de s’y adapter ou de raisonner.&lt;br/&gt; Mais imaginez que vous puissiez concevoir un agent qui ne se contente pas de récupérer des données, mais qui imite le processus d’analyse d’une équipe d’étude de marché : Un agent capable de repérer les tendances, de vérifier ses sources, de valider des informations et de vous fournir des prospects hautement qualifiés grâce à une compréhension dynamique des critères de succès.&lt;/p&gt;&lt;p data-block-key="7ihd6"&gt;Ce guide détaille l’architecture d’un tel agent, développé à l’aide de notre &lt;a href="https://google.github.io/adk-docs/" target="_blank"&gt;Agent Development Kit (ADK)&lt;/a&gt;. Nous verrons comment structurer une tâche complexe en une hiérarchie d’agents coopératifs, gérer l’état au fil des interactions, et exploiter le parallélisme pour créer une solution à la fois performante et efficiente.&lt;/p&gt;&lt;h3 data-block-key="c5jjc"&gt;Étape 1 : identifier l’agent racine&lt;/h3&gt;&lt;p data-block-key="6jn4h"&gt;Tout système agentique avancé s’organise autour d’un chef d’orchestre, un orchestrateur principal, ou dit autrement un cerveau qui coordonne l’ensemble. Ici, c’est l’&lt;i&gt;InteractiveLeadGenerator&lt;/i&gt; qui tient la baguette : Son but n’est pas d’exécuter lui-même les tâches de bas niveau, mais de gérer le flux de travail, déléguer à des sous-agents spécialisés et interagir avec l’utilisateur. En clair, il transforme une multitude d’agents spécialisés en une seule force cohérente et performante.&lt;/p&gt;&lt;p data-block-key="5orl"&gt;En voici le script Python :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# From: LeadGenerationResearch/LeadGenerationResearch/agent.py\r\n\r\nroot_agent = Agent(\r\n    name=&amp;quot;InteractiveLeadGenerator&amp;quot;,\r\n    model=os.getenv(&amp;quot;GEN_ADVANCED_MODEL&amp;quot;, &amp;quot;gemini-2.5-pro&amp;quot;),\r\n    instruction=ROOT_AGENT_INSTRUCTION, # The agent\&amp;#x27;s core directive\r\n    tools=[\r\n        get_user_choice,\r\n        *agent_tools,\r\n    ],\r\n    before_agent_callback=[before_agent_run],\r\n    after_tool_callback=[after_tool_run],\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da73a3e50&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;L’agent racine agit comme chef d’orchestre de la prospection : il révèle les schémas qui font la réussite, les valide avec l’utilisateur, puis les met en action pour produire des leads qualifiés. Les actions de cet agent racine sont déterminées par son instruction principale « ROOT_AGENT_INSTRUCTION » , qui fixe son objectif global et sa façon de fonctionner.&lt;br/&gt;&lt;br/&gt;Voici cette instruction :&lt;/p&gt;&lt;p data-block-key="22r0p"&gt;« &lt;i&gt;Tu es un assistant de génération de leads. Ton objectif est d’aider l’utilisateur à trouver de nouveaux leads en découvrant des schémas dans les entreprises performantes. Ton processus est le suivant : 1. Comprendre l’intention de l’utilisateur. 2. Exécuter un flux de travail de découverte de schémas. 3. Confirmer les résultats avec l’utilisateur. 4. Exécuter un flux de travail de génération de leads à partir des schémas confirmés. Maintiens une approche interactive, proactive et approfondie.&lt;/i&gt; »&lt;/p&gt;&lt;h3 data-block-key="9r20o"&gt;Étape 2 : Décomposer le problème et extraire l'intention&lt;/h3&gt;&lt;p data-block-key="58mrd"&gt;Les problèmes complexes se résolvent plus facilement lorsqu’on les divise en phases distinctes. Notre tâche de génération de prospects (leads) se divise naturellement en deux flux de travail principaux, comme illustré dans le diagramme ci-dessous :&lt;/p&gt;&lt;p data-block-key="2p90h"&gt;1 - &lt;b&gt;Apprendre du passé (découverte de modèles)&lt;/b&gt; : Nous avons besoin d'une Équipe de Recherche (Research Squad) pour analyser l'historique, décortiquer les succès passés et mettre en lumière les signaux gagnants.&lt;/p&gt;&lt;p data-block-key="do67b"&gt;2 - &lt;b&gt;Prédire l'avenir (génération de prospects)&lt;/b&gt; : Nous avons besoin d'une Équipe de Chasseurs (Hunter Squad) pour exploiter ces signaux afin de trouver les prochaines opportunités (autrement dit, débusquer les prospects à fort potentiel).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1-flow.max-1500x1500.png"
        
          alt="Google ADK"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Avant de lancer l’un ou l’autre des flux de travail, l’agent racine doit d’abord comprendre les besoins spécifiques de l’utilisateur. Cette mission est confiée à un agent spécialisé, l’&lt;i&gt;intent_extractor_agent&lt;/i&gt;, chargé d’analyser la requête initiale de l’utilisateur et de la convertir en données structurées.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# From: LeadGenerationResearch/LeadGenerationResearch/sub_agents/intent_extractor/agent.py\r\n\r\nintent_extractor_agent = LlmAgent(\r\n    name=&amp;quot;intent_extractor_agent&amp;quot;,\r\n    model=os.getenv(&amp;quot;GEN_FAST_MODEL&amp;quot;, &amp;quot;gemini-2.5-flash&amp;quot;),\r\n    instruction=INTENT_EXTRACTOR_PROMPT,\r\n    output_schema=IntentExtractionResult,\r\n    description=&amp;quot;Extracts key parameters like user intent, country, and industry.&amp;quot;,\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da73a3ac0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="gxhjp"&gt;Étape 3 : Le workflow de découverte de patterns&lt;/h3&gt;&lt;p data-block-key="7n6d6"&gt;Pour concrétiser notre objectif, il nous faut identifier des entreprises « prospects », les valider, et explorer leur historique. Mais un tel processus séquentiel, réalisé manuellement, est bien trop chronophage, lent et inefficace.&lt;/p&gt;&lt;p data-block-key="bj4gs"&gt;La solution réside dans une approche automatisée, collaborative et orchestrée. Notre &lt;b&gt;ResearchOrchestratorAgent&lt;/b&gt; crée dynamiquement un mini-pipeline pour chaque entreprise et les exécute tous en parallèle. Cette exécution parallèle transforme notre processus en une véritable force de frappe analytique, où plusieurs flux de recherche s'exécutent simultanément sous la supervision experte d'un &lt;i&gt;SequentialAgent&lt;/i&gt; unique qui garantit la cohérence et la qualité des résultats.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;#From:LeadGenerationResearch/LeadGenerationResearch/sub_agents/pattern_discovery/agent.py\r\n\r\npattern_discovery_agent = SequentialAgent(\r\n    name=&amp;quot;PatternDiscoveryAgent&amp;quot;,\r\n    sub_agents=[\r\n        company_finder_agent,\r\n        company_formatter_agent,\r\n        research_orchestrator_agent,  # Manages parallel execution\r\n        synthesizer_orchestrator_agent,\r\n        pattern_synthesizer_agent,\r\n    ],\r\n    description=&amp;quot;Orchestrates the multi-step process of discovering investment patterns.&amp;quot;\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da73a3070&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Les agents clés de cette séquence sont :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="n325"&gt;&lt;b&gt;CompanyFinderAgent&lt;/b&gt; (le radar) : exécute des recherches pour établir une première liste d’entreprises en fonction du secteur et du pays spécifiés par l’utilisateur.&lt;/li&gt;&lt;li data-block-key="edeg3"&gt;&lt;b&gt;CompanyFormatterAgent&lt;/b&gt; (le nettoyeur) : prend la sortie brute du &lt;i&gt;FinderAgent&lt;/i&gt; et la convertit en un format standardisé, garantissant que les données soient propres et prêtes pour les étapes suivantes.&lt;/li&gt;&lt;li data-block-key="3gq05"&gt;&lt;b&gt;ResearchOrchestratorAgent&lt;/b&gt; (le chef d’orchestre) : gère l’exécution parallèle de la phase de recherche. Pour chaque entreprise identifiée, il exécute dynamiquement un pipeline de validation (s’appuyant sur le &lt;i&gt;ValidatorAgent&lt;/i&gt;) afin d’évaluer la société selon des critères rigoureux.&lt;/li&gt;&lt;li data-block-key="eivcs"&gt;&lt;b&gt;SynthesizerOrchestratorAgent&lt;/b&gt; (le consolideur) : collecte et consolide toutes les données validées issues des pipelines parallèles, pour préparer un jeu de données unifié en vue de l’analyse finale.&lt;/li&gt;&lt;li data-block-key="4p5av"&gt;&lt;b&gt;PatternSynthesizerAgent&lt;/b&gt; (l’analyste) : exploite les données agrégées par &lt;i&gt;SynthesizerOrchestratorAgent&lt;/i&gt;. Sa mission principale est d’identifier les tendances communes et de les synthétiser dans un rapport clair, fondé sur des preuves, en citant les sources pour chaque pattern détecté.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="7128d"&gt;Étape 4 : Mécanismes de contrôle et gestion des états&lt;/h3&gt;&lt;p data-block-key="f8h9v"&gt;Pour permettre à l’agent racine de gérer ces workflows complexes tout en maintenant une conversation cohérente, l’ADK met à votre disposition deux super-pouvoirs.&lt;/p&gt;&lt;p data-block-key="e6fb0"&gt;&lt;b&gt;1 - AgentTool pour la délégation&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="ds1fd"&gt;Les orchestrateurs &lt;b&gt;SequentialAgent&lt;/b&gt; sont encapsulés dans un &lt;b&gt;AgentTool&lt;/b&gt; unique. Cela permet à l’agent racine d’invoquer un workflow multi-étapes complet comme s’il s’agissait d’un simple appel de fonction.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# In tools/agent_tools.py, create the toolset.\r\nfrom google.adk.tools import AgentTool\r\nfrom ..sub_agents.pattern_discovery.agent import pattern_discovery_agent\r\nfrom ..sub_agents.lead_generation.agent import lead_generation_agent\r\n\r\nagent_tools = [\r\n    AgentTool(agent=pattern_discovery_agent),\r\n    AgentTool(agent=lead_generation_agent),\r\n]&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da73a3c70&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ol&gt;&lt;li data-block-key="gxhjp"&gt;&lt;b&gt;Callbacks pour la gestion des états&lt;/b&gt;&lt;br/&gt;Pour que l’agent racine garde le cap dans une discussion à plusieurs étapes, les callbacks jouent le rôle de chef d’orchestre invisible. Ils assurent la continuité et la mise à jour de l’état conversationnel.&lt;/li&gt;&lt;/ol&gt;&lt;ul&gt;&lt;li data-block-key="3ft8u"&gt;&lt;b&gt;before_agent_run&lt;/b&gt; : S’exécute avant chaque tour d’agent pour initialiser ou mettre à jour l’état de la session.&lt;/li&gt;&lt;li data-block-key="8tb9q"&gt;&lt;b&gt;after_tool_run&lt;/b&gt; : S’exécute après l’exécution d’un outil. Il traite la sortie de ce dernier et met à jour une variable d’étape dans l’état de la session, ce qui est crucial pour orienter la prochaine décision de l’agent racine.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="djtac"&gt;Étape 5 : Le workflow de génération de leads&lt;/h3&gt;&lt;p data-block-key="5j2t8"&gt;Une fois les patterns de réussite identifiés et validés, l’&lt;i&gt;InteractiveLeadGenerator&lt;/i&gt; déploie le second workflow majeur (celui de la génération de leads). Ce second processus reprend la structure de la phase de découverte, en transformant les enseignements en actions concrètes et en mettant l’accent sur la cohérence et la réutilisabilité.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;# In sub_agents/lead_generation/agent.py\r\nlead_generation_agent = SequentialAgent(\r\n    name=&amp;quot;LeadGenerationAgent&amp;quot;,\r\n    sub_agents=[\r\n        lead_finder_agent,\r\n        lead_formatter_agent,\r\n        lead_research_orchestrator_agent, # Handles parallel validation and analysis\r\n        report_orchestrator_agent,\r\n        report_compiler_agent,\r\n    ],\r\n    description=&amp;quot;Uses pre-discovered success patterns to find potential leads...&amp;quot;,\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da73a3fa0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="gxhjp"&gt;Les agents clés de cette séquence sont :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bl6ii"&gt;&lt;b&gt;LeadFinderAgent&lt;/b&gt; (le chasseur) : utilise les patterns précédemment synthétisés comme nouvelle requête de recherche afin d’identifier des entreprises présentant des caractéristiques similaires.&lt;/li&gt;&lt;li data-block-key="3r8c8"&gt;&lt;b&gt;LeadFormatterAgent&lt;/b&gt; (le cartographe) : standardise et structure les données brutes issues du LeadFinderAgent pour permettre un traitement parallèle ultérieur.&lt;/li&gt;&lt;li data-block-key="omen"&gt;&lt;b&gt;LeadResearchOrchestratorAgent&lt;/b&gt; (le stratège) : gère l’exécution parallèle des tâches d’analyse principales. Pour chaque prospect potentiel, cet agent exécute simultanément deux sous-agents: le &lt;b&gt;ValidatorAgent&lt;/b&gt; (vérifie la pertinence et la fiabilité du lead) et le &lt;b&gt;LeadSignalAnalyzerAgent&lt;/b&gt; (détecte les signaux exploitables).&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="ekpr3"&gt;Pour bien démarrer&lt;/h3&gt;&lt;p data-block-key="e3v10"&gt;Prêt à vous lancer ? Voici les ressources officielles et l’intégralité ducode source pour vous accompagner dans votre parcours.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="38h4i"&gt;&lt;b&gt;Google Agent Development Kit&lt;/b&gt; (ADK) : Consultez &lt;a href="https://github.com/google/adk-python" target="_blank"&gt;GitHub&lt;/a&gt; pour découvrir toutes les fonctionnalités, outils et configurations proposés par l’ADK.&lt;/li&gt;&lt;li data-block-key="5db2h"&gt;&lt;b&gt;Code source du projet sur GitHub&lt;/b&gt; : Accédez &lt;a href="https://github.com/MagnIeeT/leadGenerationAgentADK" target="_blank"&gt;au code complet et fonctionnel&lt;/a&gt; de cet agent. Clonez le dépôt et utilisez-le comme base pour vos propres créations.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Fri, 03 Oct 2025 05:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Bâtir un agent de recherche intelligent avec l’ADK de Google pour booster la génération de prospects</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/batir-un-agent-de-recherche-intelligent-avec-ladk-de-google-pour-booster-la-generation-de-prospects/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ashwini Kumar</name><title>Solution Acceleration Architect</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Neeraj Agrawal</name><title>Solution Acceleration Architect</title><department></department><company></company></author></item><item><title>Vertex AI s'enrichit d’une nouvelle génération de modèles IA génératif multimédia</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;Vertex AI franchit une nouvelle étape en &lt;a href="https://blog.google/technology/ai/generative-media-models-io-2025/" target="_blank"&gt;accueillant&lt;/a&gt; une nouvelle génération de modèles d’IA générative multimédia : Imagen 4, Veo 3 et Lyria 2.&lt;/p&gt;&lt;p data-block-key="26qhp"&gt;Avec &lt;a href="https://deepmind.google/technologies/imagen-3/" target="_blank"&gt;Imagen 3&lt;/a&gt;, notre modèle de génération d’images, nos clients créent déjà des visuels photoréalistes impressionnants, avant de les transformer en vidéos et contenus de haute qualité avec &lt;a href="https://deepmind.google/models/veo/" target="_blank"&gt;Veo 2&lt;/a&gt;. Certains vont même plus loin, enrichissant leurs réalisations avec des bandes-son professionnelles composées par &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/expanding-generative-media-for-enterprise-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;Lyria&lt;/a&gt;, notre modèle avancé de génération de musiques par l’IA. Il est déjà l’heure pourtant de découvrir la nouvelle génération de ces modèles et de réaliser des créations plus spectaculaires encore !&lt;/p&gt;&lt;p data-block-key="7t4em"&gt;L'IA générative multimédia connaît un essor fulgurant dans le marketing, les médias et bien d'autres secteurs, rendant la création de contenus narratifs plus accessible que jamais. Plus réactives, les équipes créent des campagnes en un temps record et repoussent les limites de la créativité. À travers cet article, nous vous proposons de découvrir les nouvelles moutures de chacun de ces modèles et comment vous pouvez commencer à les utiliser dès aujourd'hui pour booster votre efficacité opérationnelle.&lt;/p&gt;&lt;h3 data-block-key="5lhq8"&gt;Imagen 4 : générer des images de qualité inégalée&lt;/h3&gt;&lt;p data-block-key="91f3v"&gt;Imagen 4, c’est la nouvelle version de notre modèle de génération d’images à partir de prompt textuel, désormais disponible en version préliminaire publique sur Vertex AI. Modèle de référence de Google en matière de génération d’images, Imagen 4 se distingue par :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="d3edo"&gt;Un rendu de texte exceptionnel et une fidélité remarquable aux instructions (prompts) ;&lt;/li&gt;&lt;li data-block-key="8p6lj"&gt;Une qualité d'image supérieure, quel que soit le style visuel ;&lt;/li&gt;&lt;li data-block-key="3ekka"&gt;La &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/image/generate-images#prompt-language"&gt;prise en charge&lt;/a&gt; des instructions (prompts) multilingues pour permettre aux créateurs du monde entier de libérer leur créativité.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_FnBCxdG.max-2000x2000.png"
        
          alt="Vertex AI1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un gros plan intimiste baigné par une lumière dorée et douce de fin d'après-midi qui filtre dans une cuisine typique des années 1960. Le sujet central est un charmant paquet vintage de farine tout usage, posé de manière accueillante sur un plan de travail en Formica moucheté. L'emballage lui-même évoque une pure nostalgie : un papier épais aux textures légères dans un ton crème chaleureux, orné d'une typographie simple et audacieuse (une police sérif conviviale ou manuscrite) en rouge et bleu classique pour « FARINE », avec une illustration plaisante, comme un épi de blé stylisé ou un personnage de boulanger souriant. En bas du paquet, en petits caractères gras : NET 2.27kg. Concentre-toi sur les détails du paquet : les bords légèrement arrondis du sac en papier, la texture de l'impression vintage, le texte accrocheur «FARINE ». Des indices subtils de la cuisine des années 1960 encadrent la scène : le rebord chromé du plan de travail qui brille doucement, un aperçu flou d’une crédence en carrelage jaune pastel, ou le coin d'un ensemble de boîtes métalliques vintage légèrement hors focus. La faible profondeur de champ maintient l'attention sur ce paquet magnifiquement conçu, créant une esthétique riche en chaleur, authenticité et charme nostalgique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_tf1CrD0.max-2000x2000.png"
        
          alt="Vertex AI 2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un gros plan intimiste baigné par une lumière dorée et douce de fin d'après-midi qui filtre dans une cuisine typique des années 1960. Le sujet central est un charmant paquet vintage de farine tout usage, posé de manière accueillante sur un plan de travail en Formica moucheté. L'emballage lui-même évoque une pure nostalgie : un papier épais aux textures légères dans un ton crème chaleureux, orné d'une typographie simple et audacieuse (une police sérif conviviale ou manuscrite) en rouge et bleu classique pour « ALL-PURPOSE FLOUR », avec une illustration plaisante, comme un épi de blé stylisé ou un personnage de boulanger souriant. En bas du paquet, en petits caractères gras : «NET WT 5 LBS (80 OZ) 2.27kg ». Concentre-toi sur les détails du paquet : les bords légèrement arrondis du sac en papier, la texture de l'impression vintage, le texte accrocheur « All-Purpose Flour ». Des indices subtils de la cuisine des années 1960 encadrent la scène : le rebord chromé du plan de travail qui brille doucement, un aperçu flou d’une crédence en carrelage jaune pastel, ou le coin d'un ensemble de boîtes métalliques vintage légèrement hors focus. La faible profondeur de champ maintient l'attention sur ce paquet magnifiquement conçu, créant une esthétique riche en chaleur, authenticité et charme nostalgique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_CAwwq6O.max-2000x2000.png"
        
          alt="Vertex AI 3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée une bande dessinée de quatre vignettes dans un style reconnaissable volontairement pixelisé, rappelant les jeux vidéo 8-bit classiques, avec des formes simples et une palette de couleurs vives et limitée, dominée par les verts, bleus, bruns, et le gris/noir emblématique du dinosaure. Le décor est une plage stylisée en pixels. La première case montre le célèbre dinosaure T-Rex de Google Chrome dans sa forme pixelisée caractéristique, portant de minuscules lunettes de soleil pixelisées et se prélassant sur une serviette de plage pixelisée sous un soleil jaune carré. Des palmiers pixelisés se balancent doucement en arrière-plan, sous un ciel bleu pixelisé. Une bulle de texte en police pixelisée indique : « Even error messages need a vacation »&lt;/i&gt; (NDLR : Même les messages d'erreur ont besoin de vacances). &lt;i&gt;La seconde case&lt;/i&gt; &lt;i&gt;présente un gros plan du T-Rex tentant de construire un château de sable pixelisé. Il tapote maladroitement un monticule de pixels bruns avec ses petits bras pixelisés, l'air concentré. De petits coquillages pixelisés parsèment le sable autour de lui.La troisième vignette montre le T-Rex sautant joyeusement par-dessus une série de cactus pixelisés plantés près de la plage, sous forme de clin d’œil au mini-jeu du dinosaure de Google Chrome où il doit éviter les obstacles. L’onomatopée « Boing! Boing! » s’affiche dans une police carrée au-dessus de chaque saut. Un crabe pixelisé observe sur le côté, levant sa pince pixelisée. La dernière case présente le T-Rex flottant paisiblement sur le dos dans l'eau bleue pixelisée, lunettes de soleil toujours sur le nez, avec une expression satisfaite. Une petite bulle de pensée au-dessus de lui contient des « Zzz... » pixelisés indiquant la détente.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from google import genai\r\n\r\n# TODO(developer): Update and un-comment below lines\r\n# project_id = &amp;quot;PROJECT_ID&amp;quot;\r\nclient = genai.Client(vertexai=True, project=project_id, location=&amp;quot;us-central1&amp;quot;)\r\n\r\nprompt = &amp;quot;&amp;quot;&amp;quot;\r\nA white wall with two Art Deco travel posters mounted. First poster has the text: &amp;quot;NEPTUNE&amp;quot;, tagline: &amp;quot;The jewel of the solar system!\&amp;#x27; Second poster has the text: &amp;quot;JUPITER&amp;quot;, tagline: &amp;quot;Travel with the giants!\r\n&amp;quot;&amp;quot;&amp;quot;\r\n\r\nimage = client.models.generate_images(\r\n   model=&amp;quot;imagen-4.0-generate-preview-05-20&amp;quot;,\r\n   prompt=prompt,\r\n)\r\n\r\n# OPTIONAL: View the generated image in a notebook\r\n# image.generated_images[0].image.show()&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0daa1c21f0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt :&lt;/i&gt;&lt;/b&gt; &lt;i&gt;Filmée de manière cinématographique depuis le siège du conducteur, offrant une vue de profil nette sur une jeune passagère à l’avant, aux cheveux rouges éclatants. Son regard est rivé droit devant elle, concentré sur la route poussiéreuse et déserte visible à travers la vitre latérale, qui laisse apercevoir une étendue floue de terre aride et, peut-être, des montagnes lointaines dans la brume. Son bras repose sur le rebord de la fenêtre ou sur le volant. Le cadre inclut une partie de l’intérieur vieilli du camion autour d’elle : le panneau de la porte et peut-être un aperçu du tissu usé du siège. L’éclairage évoque une fin d’après-midi, avec des ombres allongées et des reflets de lumière chaude sur son visage et dans l’habitacle du camion. Cet angle met en valeur sa présence singulière et son état contemplatif au cœur de ce paysage vaste et désert.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="9e9nl"&gt;Pour commencer à utiliser Imagen 4 en version préliminaire publique sur Vertex AI, vous pouvez passer par &lt;a href="https://console.cloud.google.com/"&gt;Media Studio&lt;/a&gt;, Vertex AI Studio ou exécuter l’exemple de code ci-dessous, basé sur le SDK Google Gen AI pour Python.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from google import genai\r\n\r\n# TODO(developer): Update and un-comment below lines\r\n# project_id = &amp;quot;PROJECT_ID&amp;quot;\r\nclient = genai.Client(vertexai=True, project=project_id, location=&amp;quot;us-central1&amp;quot;)\r\n\r\nprompt = &amp;quot;&amp;quot;&amp;quot;\r\nA white wall with two Art Deco travel posters mounted. First poster has the text: &amp;quot;NEPTUNE&amp;quot;, tagline: &amp;quot;The jewel of the solar system!\&amp;#x27; Second poster has the text: &amp;quot;JUPITER&amp;quot;, tagline: &amp;quot;Travel with the giants!\r\n&amp;quot;&amp;quot;&amp;quot;\r\n\r\nimage = client.models.generate_images(\r\n   model=&amp;quot;imagen-4.0-generate-preview-05-20&amp;quot;,\r\n   prompt=prompt,\r\n)\r\n\r\n# OPTIONAL: View the generated image in a notebook\r\n# image.generated_images[0].image.show()&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-py&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0daa1c2c70&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;Google a également lancé récemment « Imagen 4 Ultra » pour Vertex AI Studio. Cette version destinée aux professionnels gagne encore en photoréalisme, en vitesse d’exécution mais également en fiabilité de génération de textes sur l’image.&lt;/p&gt;&lt;h3 data-block-key="4eets"&gt;Veo 3 : générer des vidéos de haute qualité avec voix, musique et bruitages&lt;/h3&gt;&lt;p data-block-key="aqv84"&gt;À la pointe de l'innovation, Veo 3 est notre dernier modèle de génération vidéo, développé par Google DeepMind. Avec Veo 3, vous pouvez créer des vidéos :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="8i276"&gt;de très haute qualité, que ce soit à partir de prompts textuels ou visuels ;&lt;/li&gt;&lt;li data-block-key="2430k"&gt;qui intègrent la voix (dialogues, voix off, etc.) ;&lt;/li&gt;&lt;li data-block-key="b6avq"&gt;et accompagnées de bandes-son complètes : musique ou des effets sonores ;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="bs7o0"&gt;Voici ce que nos clients disent des gains de productivité et de créativité obtenus avec nos précédentes versions Veo et Veo 2 :&lt;/p&gt;&lt;p data-block-key="cioch"&gt;&lt;b&gt;Klarna&lt;/b&gt;, un des leaders du paiement numérique, exploite Veo et Imagen sur Vertex AI pour optimiser la création de contenus. Des visuels d’illustration aux formats courts pour YouTube, l’entreprise réduit drastiquement ses délais de production.&lt;/p&gt;&lt;p data-block-key="fv605"&gt;&lt;i&gt;« Chez Klarna, nous explorons constamment de nouvelles façons de repousser les limites de l'innovation dans nos efforts marketing, et Veo a révolutionné nos workflows créatifs. Avec Veo et Imagen, nous avons transformé des processus de production autrefois chronophages en tâches rapides et efficaces qui nous permettent de booster notre création de contenu. Qu'il s'agisse de produire des images d'illustration engageantes, de concevoir des vidéos pour YouTube accrocheuses, ou de développer des animations dynamiques pour les réseaux sociaux, ces outils ont rendu nos équipes plus réactives et créatives. Les résultats parlent d'eux-mêmes : hausse de l'engagement et amélioration des performances de nos contenus. Avec Google Cloud&lt;/i&gt; &lt;i&gt;nous façonnons l'avenir du commerce tout en réinventant la façon de faire vivre notre marque ».&lt;/i&gt; – David Sandström, Directeur Marketing, Klarna.&lt;/p&gt;&lt;p data-block-key="cte7r"&gt;&lt;b&gt;Jellyfish&lt;/b&gt;, agence de marketing digital de référence au sein du groupe The Brandtech, a intégré Veo à sa plateforme IA marketing la plus performante, Pencil, et s'est associée à Japan Airlines pour proposer des divertissements en vol générés par IA.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=2s2mEu12BDY"
      data-glue-modal-trigger="uni-modal-2s2mEu12BDY-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/2s2mEu12BDY/maxresdefault.jpg"
             alt="Japan Airlines transforms in-flight entertainment with Google&amp;#x27;s latest GenAI models - Jellyfish"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-2s2mEu12BDY-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="2s2mEu12BDY"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=2s2mEu12BDY"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;i&gt;« L’intégration de Veo 2 à Pencil s’inscrit dans notre volonté de doter les marketeurs d’outils d’IA toujours plus performants, pour des campagnes à la fois plus efficaces, plus rapides et plus créatives. Nos projets pilotes ont donné des résultats remarquables, avec en moyenne 50 % de réduction des coûts et des délais de mise sur le marché. Cette évolution majeure en termes de contrôle et de qualité transforme des idées auparavant irréalisables en contenu marketing concret en quelques minutes. Japan Airlines montre la voie en appliquant l’IA générative au secteur du voyage, et nous avons hâte de voir d'autres marques suivre cette dynamique ».&lt;/i&gt; – David Jones, Fondateur et PDG, Brandtech.&lt;/p&gt;&lt;p data-block-key="bbm6"&gt;La plateforme Tastemaker de &lt;b&gt;Kraft Heinz&lt;/b&gt; permet aux équipes de la société d’accéder à Imagen et Veo, accélérant de façon spectaculaire les processus de création et de développement de campagnes.&lt;/p&gt;&lt;p data-block-key="2pnqj"&gt;« &lt;i&gt;Avec Veo et Imagen sur Vertex AI, intégrés à notre plateforme Tastemaker, Kraft Heinz a atteint un niveau de rapidité et d’efficacité inédit dans ses workflows créatifs. Ce qui nous prenait auparavant huit semaines ne demande plus que huit heures, ce qui se traduit par des économies substantielles &lt;/i&gt;».&lt;br/&gt;— Justin Thomas, Head of Digital Experience &amp;amp; Growth.&lt;/p&gt;&lt;p data-block-key="9joet"&gt;&lt;b&gt;Envato&lt;/b&gt;, un des leaders mondiaux de ressources créatives (images, vidéos, musiques, voix, etc.) et de modèles pour le web, a jusqu’ici utilisé Veo 2 pour développer sa nouvelle fonctionnalité de génération vidéo, VideoGen. Elle permet de transformer du texte ou des images en contenus vidéo hyperréalistes et cinématographiques.&lt;/p&gt;&lt;p data-block-key="87iou"&gt;&lt;i&gt;« Nous avons testé plusieurs des meilleurs modèles vidéo du marché, et Veo 2 s’est révélé le plus performant en termes de rapidité et de qualité, même avec une grande diversité de textes et d’images en entrée. Dès les premiers jours du lancement de notre nouvelle fonctionnalité, des dizaines de milliers d'abonnés Envato utilisaient déjà VideoGen, et près de 60 % des vidéos générées étaient téléchargées pour leurs projets. Depuis mars, l’utilisation de VideoGen a connu une croissance de plus de 100 % chaque mois. Travailler avec Google Cloud pour donner vie à VideoGen grâce à Veo a été une expérience très enrichissante ».&lt;/i&gt; — Aaron Rutley, Directeur Produit IA chez Envato.&lt;/p&gt;&lt;p data-block-key="6v3kb"&gt;Veo 3 en action :&lt;/p&gt;&lt;p data-block-key="c3df8"&gt;Ce que nos partenaires et clients réalisent déjà avec Veo 2 est spectaculaire. Avec Veo 3, leur imaginaire va encore se libérer un peu plus. Car ce nouveau modèle excelle dans le traitement de prompts complexes et détaillés, comme l'illustrent les exemples suivants.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=iCD8QjfBYBs"
      data-glue-modal-trigger="uni-modal-iCD8QjfBYBs-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/iCD8QjfBYBs/maxresdefault.jpg"
             alt="Created with Veo: Lost Island"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-iCD8QjfBYBs-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="iCD8QjfBYBs"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=iCD8QjfBYBs"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un plan moyen, ambiance d’aventure historique : une lumière chaude de lampe éclaire un cartographe dans son bureau encombré, penché sur une carte ancienne et imposante étalée sur une grande table. Le cartographe dit : « D'après cette vieille carte marine, l'île perdue n'est pas un mythe ! Nous devons préparer une expédition immédiatement ! ».&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=io89iig6q4U"
      data-glue-modal-trigger="uni-modal-io89iig6q4U-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/io89iig6q4U/maxresdefault.jpg"
             alt="Created with Veo: Purple Door"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-io89iig6q4U-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="io89iig6q4U"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=io89iig6q4U"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Crée un plan en contre-plongée montrant une porte ouverte, dans des tons lavande clair, qui s’ouvre d’une pièce aux murs lavande clair et au sol gris sur un extérieur éclatant. De l'herbe verte luxuriante et des fleurs sauvages débordent du seuil et s’étendent sur le sol à l’intérieur, créant une transition féerique entre les espaces. Au-delà de la porte, des collines verdoyantes parsemées de fleurs sauvages s'étendent vers un ciel lumineux et dégagé. Un arbre solitaire se dresse majestueusement au premier plan du paysage extérieur, son feuillage apportant de la profondeur à la scène. La lumière du soleil et les éléments naturels contrastent avec la simplicité de l'espace intérieur, insufflant une sensation d'émerveillement et d'évasion.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="dafns"&gt;&lt;b&gt;Veo 3&lt;/b&gt; est désormais disponible en préversion publique sur Vertex AI. Une version « Veo 3 Fast » est également disponible. Dérivant de Veo 3, &lt;b&gt;Veo 3 Fast&lt;/b&gt; est un modèle conçu pour la vitesse et l’itération rapide. Il s’agit d’un moyen plus rapide de transformer du texte en vidéo, qu’il s’agisse de démonstrations de produits commentées ou de courts métrages.&lt;/p&gt;&lt;h3 data-block-key="ed64d"&gt;Lyria 2 : contrôle créatif renforcé pour la génération musicale&lt;/h3&gt;&lt;p data-block-key="673fc"&gt;Lors de Google Cloud Next 2025, &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/expanding-generative-media-for-enterprise-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;nous avons présenté Lyria sur Vertex AI&lt;/a&gt;, le modèle de génération musicale à partir de texte (text-to-music) de Google. Aujourd'hui, nous annonçons que Lyria 2 est désormais disponible pour tous sur Vertex AI. Dernier-né des modèles de génération musicale de Google, Lyria 2 permet de produire des musiques haute-fidélité dans une grande variété de styles. Véritable partenaire créatif, Lyria 2 propose:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7rpkr"&gt;Une création audio de haute qualité à partir de prompts textuels&lt;/li&gt;&lt;li data-block-key="flmg9"&gt;Un contrôle créatif accru sur les instruments, le tempo (BPM) et sur d’autres caractéristiques&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7hc9v"&gt;Lyria 2 est désormais en « General Availability » Sur Vertex AI. Pour commencer à créer du contenu avec Lyria 2, rendez-vous sur &lt;a href="https://console.cloud.google.com/vertex-ai/studio/media/generate;tab=music?inv=1&amp;amp;invt=Ab417w"&gt;Media Studio&lt;/a&gt; dans Vertex AI. Vous pourrez générer de la musique à partir de prompts textuels ou accéder à l’API du modèle via Vertex AI. Pour vous inspirer, voici quelques exemples de morceaux générés, accompagnés de leurs prompts.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=kSmy1iPmaC8"
      data-glue-modal-trigger="uni-modal-kSmy1iPmaC8-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/kSmy1iPmaC8/maxresdefault.jpg"
             alt="Créer de la musique avec Lyria 2 : Cumbia psychédélique"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-kSmy1iPmaC8-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="kSmy1iPmaC8"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=kSmy1iPmaC8"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Compose une cumbia péruvienne entraînante et rythmée avec une touche psychédélique, en live à Los Angeles lors d’un festival de musique latine. Intègre des guitares électriques, une basse, et une section de percussions mettant en avant les timbales, pour une ambiance puissante et dansante. Le résultat doit être vibrant et énergique.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Dza25xkWEYc"
      data-glue-modal-trigger="uni-modal-Dza25xkWEYc-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Dza25xkWEYc/maxresdefault.jpg"
             alt="Creating music with Lyria 2: Epic Orchestral"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Dza25xkWEYc-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Dza25xkWEYc"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Dza25xkWEYc"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ywitc"&gt;&lt;b&gt;&lt;i&gt;Prompt&lt;/i&gt;&lt;/b&gt;&lt;i&gt; : Compose une partition orchestrale de type cinématographique grandiose, enregistrée dans un studio londonien avec un orchestre de 100 musiciens. L'ensemble doit être majestueux et profond, mêlant des mélodies planantes, des changements harmoniques dramatiques et des parties de percussions puissantes. Utilise des instruments comme des cors français, des cordes et des timbales dans une approche thématique sophistiquée, avec des orchestrations complexes, une large amplitude dynamique et une profondeur émotionnelle qui évoquent une atmosphère cinématographique saisissante.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="1tbjo"&gt;Voici ce que nos clients disent de Lyria 2 :&lt;/p&gt;&lt;p data-block-key="8h5dj"&gt;&lt;b&gt;Captions&lt;/b&gt; est un outil de création vidéo à l’aide de l’IA qui permet de réaliser rapidement et facilement des vidéos de qualité professionnelle. Lyria 2 a été intégré à la fonctionnalité Mirage Edit de l’outil, offrant ainsi aux utilisateurs la possibilité de générer en quelques instants des vidéos complètes avec une bande-son personnalisée.&lt;/p&gt;&lt;p data-block-key="3chtl"&gt;&lt;i&gt;« Chez Captions, notre fonction Mirage Edit permet déjà à nos abonnés de passer d’un simple prompt à une vidéo entièrement montée par l’IA : images, plans d’illustration, voix-off et transitions sont générées automatiquement. Désormais, nous ajoutons un élément clé : la musique adaptative, générée par Lyria 2 de Google. En un prompt, Lyria compose une bande-son qui s’ajuste au script, au rythme et à chaque moment d’émotion, permettant à nos clients de publier des vidéos courtes de qualité cinématographiques sans quitter Captions ni avoir à fouiller dans des banques de musiques libres de droits ». — Dwight Churchill, Co-fondateur et COO, Captions.ai.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="fbok0"&gt;Dashverse, entreprise proposant des plateformes de contenus numériques telles que Dashtoon et DashReels, exploite Lyria 2 de Google sur Vertex AI pour offrir des capacités avancées de génération musicale à la nouvelle génération de créateurs qui recourent nativement à l’IA pour générer leurs contenus. Cette intégration permet aux utilisateurs de composer des bandes-son dynamiques et émotionnellement adaptées, qui s’ajustent parfaitement au récit et au rythme de leurs contenus sur des plateformes comme DashReels.&lt;/p&gt;&lt;p data-block-key="91sl6"&gt;«&lt;i&gt; Chez Dashverse, nous avons toujours eu à cœur de donner du pouvoir à tous les créateurs– qu’il s’agisse de réaliser des bandes dessinées avec Dashtoon ou des courts-métrages sur DashReels. Pour accompagner notre passage à une narration dynamique et émotionnellement riche sur DashReels, il nous fallait un moteur musical aussi expressif et réactif. Lyria 2 sur Vertex AI répond parfaitement à ce besoin. Il offre à nos utilisateurs un contrôle de niveau professionnel sur la musique — s'adaptant aux émotions, aux scènes et au rythme — sans la complexité technique. Ce n'est pas juste un générateur de bande-son, c’est un véritable amplificateur narratif. Nous sommes très enthousiastes quant aux perspectives qu’offre cette technologie à la nouvelle génération de créateurs qui utilisent nativement l’IA pour générer leurs contenus&lt;/i&gt; ». — Soumyadeep Mukherjee, CTO, Dashverse.&lt;/p&gt;&lt;h3 data-block-key="7usgc"&gt;Créez en toute sécurité, partagez de manière responsable&lt;/h3&gt;&lt;p data-block-key="2lsj5"&gt;La sécurité et la fiabilité des contenus générés par l’IA sont essentielles. C’est pourquoi ces modèles intègrent des protections natives, vous permettant de vous concentrer pleinement sur votre travail créatif. Veo 3, Imagen 4 et Lyria 2 ont tous été conçus avec la sécurité comme principe fondamental, en partenariat avec Google DeepMind.&lt;/p&gt;&lt;p data-block-key="1ev3i"&gt;&lt;b&gt;Filigrane numérique&lt;/b&gt; : Par défaut, toutes les créations générées avec Veo, Imagen et Lyria intègrent SynthID, une technologie qui appose un filigrane invisible directement dans les contenus produits. Ce marquage permet d’identifier les médias issus de l’IA, garantissant ainsi la transparence.&lt;/p&gt;&lt;p data-block-key="d1ktt"&gt;&lt;b&gt;Filtres de sécurité&lt;/b&gt; : Les prompts en entrée comme les contenus générés par tous les modèles d’IA générative multimédia sont contrôlés à l’aide de filtres de sécurité. En configurant le niveau de filtrage souhaité, vous pouvez vous assurer que les contenus produits respectent les valeurs de votre marque. Pour les contenus visuels, vous disposez également d’un contrôle sur la génération de personnages.&lt;/p&gt;&lt;h3 data-block-key="26vrh"&gt;Pour en savoir plus &lt;/h3&gt;&lt;ul&gt;&lt;li data-block-key="mek1"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/image/overview"&gt;Imagen documentation&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="8jucr"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/video/generate-videos"&gt;Veo documentation&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="4qqqv"&gt;&lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/music/generate-music"&gt;Lyria documentation&lt;/a&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Wed, 24 Sep 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</guid><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Expanding_Vertex_AI.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Vertex AI s'enrichit d’une nouvelle génération de modèles IA génératif multimédia</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Expanding_Vertex_AI.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/vertex-ai-senrichit-dune-nouvelle-generation-de-modeles-ia-generatif-multimedia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Katie Nguyen</name><title>Developer Relations Engineer</title><department></department><company></company></author></item><item><title>À quel point votre IA est-elle performante ? Guide d’évaluation de l’IA générative étape par étape</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Progressivement, l’IA est passée du stade d’expérimentation prometteuse à celui de levier stratégique pour l’entreprise. Cette évolution modifie la nature des enjeux : la vraie question aujourd’hui n’est plus « &lt;i&gt;Que peut-elle faire ?&lt;/i&gt; », mais « &lt;i&gt;À quel point est-elle efficace dans ce qu’elle fait ?&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="8c5nu"&gt;Garantir la qualité, la fiabilité et la sécurité de vos applications IA est devenu un impératif stratégique. Pour y parvenir, l’évaluation continue doit devenir un réflexe et s’imposer comme une pratique structurante, capable de guider vos décisions à chaque étape du cycle de développement. De la formulation du « bon » prompt au choix du « bon » modèle, du « tuning » à l’analyse des agents, seule une évaluation rigoureuse permet d’y voir clair et de faire les bons choix.&lt;/p&gt;&lt;p data-block-key="frf8u"&gt;Il y a un an, nous avons lancé &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-overview"&gt;Gen AI Evaluation Service&lt;/a&gt;, solution permettant de mesurer la performance de différents types de modèles, à commencer par celle des modèles fondation de Google mais aussi des modèles open source, des modèles fondation propriétaires ou encore des modèles personnalisés. Ce service proposait jusqu’ici des modes d’évaluation en ligne, basés sur des critères individuels (pointwise) et comparatifs (pairwise), en utilisant des calculs automatisés et un évaluateur intelligent « Autorater ».&lt;/p&gt;&lt;p data-block-key="efn9n"&gt;Depuis, nous avons attentivement écouté vos retours et concentré nos efforts sur vos priorités en matière d’évaluation. C’est pourquoi nous sommes ravis de présenter aujourd’hui les nouvelles fonctionnalités dans &lt;b&gt;&lt;i&gt;Gen AI Evaluation Service&lt;/i&gt;&lt;/b&gt;, conçues pour vous aider à passer à l’échelle, évaluer et personnaliser votre « Autorater » avec des rubriques et grilles de scoring, et mesurer l’efficacité de vos agents en conditions réelles.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_evaluation_Framework.max-1000x1000.png"
        
          alt="AI evaluation Framework"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="o71qz"&gt;1. Évaluez l’IA générative à grande échelle avec le mode batch&lt;/h3&gt;&lt;p data-block-key="3l7q0"&gt;En matière d’IA, les développeurs se posent régulièrement la question suivante : &lt;i&gt;« Comment évaluer à grande échelle ? ».&lt;/i&gt; Jusqu’à présent, la mise en œuvre de ce genre d’évaluation supposait un gros travail d’ingénierie avec des infrastructures lourdes à maintenir et donc une explosion des coûts. Il fallait souvent &lt;a href="https://medium.com/google-cloud/vqa-3-how-to-evaluate-generated-answers-from-rag-at-scale-on-vertex-ai-70bc397cb33d" target="_blank"&gt;construire sa propre architecture pour gérer les traitements batch&lt;/a&gt; en combinant plusieurs services Google Cloud.&lt;/p&gt;&lt;p data-block-key="ajfjj"&gt;Notre nouvelle fonctionnalité &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/run-evaluation?hl=fr#batch-eval"&gt;d’évaluation en mode batch&lt;/a&gt; simplifie radicalement ce processus. Elle propose une API unique pour traiter efficacement des jeux de données volumineux, tout en exploitant l’ensemble des méthodes et métriques proposées par le service &lt;b&gt;&lt;i&gt;Gen AI Evaluation Service&lt;/i&gt;&lt;/b&gt; de Vertex AI. Le tout, avec des performances optimisées et un coût réduit par rapport aux approches précédentes.&lt;/p&gt;&lt;p data-block-key="4vk4n"&gt;Vous pouvez en savoir plus sur l’évaluation batch avec l’API Gemini dans Vertex AI en consultant &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/intro_batch_evaluation.ipynb" target="_blank"&gt;ce tutoriel&lt;/a&gt;.&lt;/p&gt;&lt;h3 data-block-key="c2rnu"&gt;2. Examinez votre “Autorater” à la loupe et construisez la confiance&lt;/h3&gt;&lt;p data-block-key="7ju2j"&gt;Autre question récurrente - et fondamentale - que se posent les développeurs : &lt;i&gt;« Comment personnaliser et évaluer réellement mon “Autorater” ? ».&lt;/i&gt; Utiliser un LLM pour évaluer une application basée sur un autre LLM permet de gagner en efficacité et de rapidement passer à l’échelle. C’est le principe même de l’Autorater. Mais cela soulève aussi des interrogations légitimes autour des limites de la solution, de sa robustesse ou encore des biais que cette approche peut introduire. Dès lors, la question centrale devient celle de la fiabilité des résultats produits.&lt;/p&gt;&lt;p data-block-key="f0b0i"&gt;Cette confiance ne se décrète pas : elle se construit, par la transparence et le contrôle. Forts de cette conviction, nous avons prévu de nouveaux outils qui permettent d’analyser en profondeur votre Autorater et de l’améliorer. Ils reposent sur deux fonctionnalités clés :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="46i5j"&gt;&lt;b&gt;Evaluation de la qualité de votre Autorater.&lt;/b&gt; Tout d’abord, en constituant un jeu de données de référence annoté par des humains, vous pouvez comparer directement les évaluations de l’Autorater à votre « vérité de terrain ». Cela vous permet de calibrer ses performances, de mesurer son alignement avec vos attentes et d’identifier précisément les axes d’amélioration.&lt;br/&gt;&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="ai1ui"&gt;&lt;b&gt;Amélioration de l’alignement de votre Autorater.&lt;/b&gt; Dans un second temps, vous pouvez personnaliser son comportement en utilisant différentes approches : affiner le prompt en y intégrant des critères précis, un raisonnement en chaîne de pensée (&lt;i&gt;chain-of-thought reasoning&lt;/i&gt;) ou encore des grilles de scoring détaillées ; exploiter des réglages avancés ; importer vos propres jeux de données de référence afin d’entraîner ou d’ajuster l’Autorater. Et ainsi vous vous assurez qu’il s’adapte réellement à vos besoins et couvre tous les cas d’usage, y compris les plus spécifiques.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="4tv6p"&gt;Les nouvelles options de personnalisation d’Autorater ouvrent la voie à des analyses sur mesure. Voici un aperçu du type d’analyse que vous pouvez désormais construire grâce à ces fonctionnalités évoluées :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/demo.gif"
        
          alt="AI"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Pour en savoir plus sur ce sujet, consultez notre série sur la personnalisation avancée des modèles de notation, « &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluate-judge-model"&gt;Advanced judge model customization series&lt;/a&gt; », dans la documentation officielle : vous y découvrirez en détail comment évaluer et configurer votre modèle d’évaluation (Autorater). Pour un exemple concret, ce &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/open-models/evaluation/vertex_ai_tgi_evaluate_llm_with_open_judge.ipynb" target="_blank"&gt;tutoriel&lt;/a&gt; montre comment personnaliser vos évaluations à l’aide d’un Autorater en open source pour Vertex AI Gen AI Evaluation.&lt;/p&gt;&lt;h3 data-block-key="1j35o"&gt;3. Evaluer avec une grille de notation (scoring)&lt;/h3&gt;&lt;p data-block-key="95fi1"&gt;Évaluer des applications d’IA complexes peut vite devenir frustrant : comment appliquer un ensemble de critères fixes quand chaque entrée est différente ? Dès que l’on traite des cas multimodaux sophistiqués, comme la compréhension d’images, une simple liste de critères génériques s’avère insuffisante pour saisir toutes les subtilités. Pour dépasser ce problème, notre fonctionnalité &lt;b&gt;d’évaluation pilotée par « grille de scoring »&lt;/b&gt; décompose le processus en deux étapes :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="6b3jp"&gt;&lt;b&gt;Étape 1 — Génération de grilles de scoring sur mesure&lt;/b&gt;&lt;br/&gt;Au lieu d’obliger l’utilisateur à fournir une liste figée de critères, le système se comporte comme un concepteur de tests personnalisés. Pour &lt;i&gt;chaque point de données&lt;/i&gt; de votre jeu d’évaluation, il produit automatiquement une grille de scoring unique : des critères précis et mesurables adaptés au contenu concerné. Vous pouvez ensuite vérifier ces grilles et les ajuster si besoin.&lt;br/&gt;&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="3c4r"&gt;&lt;b&gt;Étape 2 — Évaluation ciblée par l’Autorater&lt;/b&gt;&lt;br/&gt;L’Autorater applique ensuite ces grilles personnalisées pour évaluer la réponse de l’IA : il agit un peu comme un enseignant qui adapte l’énoncé à chaque élève selon le sujet de sa dissertation, plutôt que de poser les mêmes questions génériques à toute la classe.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="aer4l"&gt;Ce processus garantit que chaque évaluation reste contextualisée et apporte des enseignements pertinents. Il renforce l’interprétabilité : chaque score est relié à des critères directement adaptés à la tâche, ce qui vous permet d’obtenir une mesure beaucoup plus fidèle de la performance réelle de votre modèle.&lt;/p&gt;&lt;p data-block-key="h8op"&gt;Voici, ci-dessous, un aperçu concret du type d’évaluation comparative et structurée que vous pourrez orchestrer, en vous appuyant sur une grille de critères, grâce au service d’évaluation Gen AI intégré à Vertex AI.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_PZiRidd.max-800x800.png"
        
          alt="AI2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="o71qz"&gt;Pour aller plus loin, n’hésitez pas à consulter nos exemples d’évaluations basées sur une grille de scoring appliquées au &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/rubric_based_eval.ipynb" target="_blank"&gt;suivi d’instructions&lt;/a&gt;, aux scénarios multimodaux et à la qualité du texte. Par ailleurs, nous avons collaboré avec notre équipe de recherche afin de déployer un Autorater piloté par grille de scoring pour les cas &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/evaluate_images_with_gecko.ipynb" target="_blank"&gt;&lt;i&gt;text-to-image&lt;/i&gt;&lt;/a&gt; (du texte à l’image) et &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/evaluate_videos_with_gecko.ipynb" target="_blank"&gt;&lt;i&gt;text-to-video&lt;/i&gt;&lt;/a&gt; (du texte à la vidéo).&lt;/p&gt;&lt;h3 data-block-key="32mv4"&gt;4. Évaluer vos agents&lt;/h3&gt;&lt;p data-block-key="4mkk5"&gt;Nous entrons dans l’ère agentique avec des agents IA capables de raisonner, de planifier et d’utiliser des outils pour exécuter des tâches complexes en toute autonomie. Leur évaluation soulève de nouveaux défis. Il ne suffit plus d’examiner la réponse finale, il faut valider l’ensemble du processus décisionnel. L’agent a-t-il choisi le bon outil ? A-t-il suivi une séquence logique d’étapes ? A-t-il stocké et exploité les informations de façon efficace pour proposer une réponse personnalisée ? Ces questions clés déterminent la fiabilité d’un agent.&lt;/p&gt;&lt;p data-block-key="ab7gb"&gt;Pour relever ces défis, Gen AI Evaluation Service dans Vertex AI propose de nouvelles fonctionnalités dédiées à l’évaluation d’agents. Vous pouvez non seulement analyser la réponse finale de l’agent, mais aussi examiner sa « trajectoire », autrement dit la succession d’actions et d’appels d’outils qu’il utilise. Avec des métriques spécialisées sur cette trajectoire, vous pouvez évaluer la pertinence de son raisonnement.&lt;/p&gt;&lt;p data-block-key="d3nli"&gt;Que vous travailliez avec Agent Development Kit, LangGraph, CrewAI ou tout autre framework, hébergé localement ou sur  &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/agent-engine/overview"&gt;Vertex AI Agent Engine&lt;/a&gt;, vous pouvez vérifier si les actions de l’agent sont logiques et si les bons outils sont mobilisés au bon moment. Tous les résultats sont intégrés à &lt;a href="https://cloud.google.com/vertex-ai/docs/experiments/intro-vertex-ai-experiments"&gt;Vertex AI Experiments&lt;/a&gt;, système robuste pour suivre, comparer et visualiser les performances, afin de concevoir des agents IA toujours plus fiables et efficaces.&lt;/p&gt;&lt;p data-block-key="20ebs"&gt;En suivant ce &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-agents?hl=fr"&gt;lien&lt;/a&gt;, vous trouverez une documentation détaillée avec plusieurs exemples d’évaluation d’agents réalisés avec Gen AI Evaluation Service sur Vertex AI.&lt;/p&gt;&lt;p data-block-key="eatt6"&gt;Enfin, nous sommes tout à fait conscients que l’évaluation demeure un terrain de recherche encore largement inexploré. Pour relever ces nouveaux défis, la collaboration est essentielle. C’est pourquoi nous travaillons avec des partenaires tels que &lt;a href="https://wandb.ai/site/" target="_blank"&gt;Weights &amp;amp; Biases&lt;/a&gt;, &lt;a href="https://arize.com/" target="_blank"&gt;Arize&lt;/a&gt; et &lt;a href="https://www.getmaxim.ai/" target="_blank"&gt;Maxim AI&lt;/a&gt;. Ensemble, nous cherchons à résoudre des défis, tels que le problème du &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/tree/main/gemini/evaluation/synthetic-data-evals" target="_blank"&gt;&lt;i&gt;cold-start data&lt;/i&gt;&lt;/a&gt; (difficulté à évaluer ou entraîner un modèle avec peu ou pas de données initiales), l’évaluation &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/evaluation/multi_agent_evals_with_arize_and_crewai.ipynb" target="_blank"&gt;multi-agents&lt;/a&gt; (comment évaluer des systèmes où plusieurs agents interagissent entre eux) ou encore la validation par la simulation d’agents en conditions réelles (créer des environnements réalistes pour tester les agents IA comme s’ils étaient en production).&lt;/p&gt;&lt;h3 data-block-key="et134"&gt;Passez à l’action dès aujourd’hui&lt;/h3&gt;&lt;p data-block-key="2ga18"&gt;Prêt à déployer des applications LLM fiables et parées pour une mise en production sur Vertex AI ? Gen AI Evaluation Service répond aux besoins les plus fréquemment exprimés par les utilisateurs et propose une suite complète et puissante pour évaluer votre application IA. En vous permettant de passer vos évaluations à l’échelle, de renforcer la confiance dans votre Autorater et d’analyser des cas d’usage multimodaux ou pilotés par des agents, nous voulons renforcer la confiance et l’efficacité — afin que vos applications basées sur des LLM atteignent le niveau de performance attendu en production.&lt;/p&gt;&lt;p data-block-key="blcia"&gt;Consultez la &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/models/evaluation-overview?hl=fr"&gt;documentation détaillée&lt;/a&gt; ainsi que les &lt;a href="https://github.com/GoogleCloudPlatform/generative-ai/tree/main/gemini/evaluation" target="_blank"&gt;exemples de code&lt;/a&gt; pour tirer pleinement parti de Gen AI Evaluation Service.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 18 Aug 2025 08:45:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>À quel point votre IA est-elle performante ? Guide d’évaluation de l’IA générative étape par étape</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/a-quel-point-votre-ia-est-elle-performante-guide-devaluation-de-lia-generative-etape-par-etape/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ivan Nardini</name><title>Developer Relations Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Irina Sigler</name><title>Product Manager, Cloud AI</title><department></department><company></company></author></item><item><title>Lancement de Gemma 3 sur Vertex AI</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/lancement-de-gemma-3-sur-vertex-ai/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Le &lt;a href="https://developers.googleblog.com/en/introducing-gemma3/" target="_blank"&gt;nouveau modèle&lt;/a&gt; &lt;a href="https://developers.googleblog.com/en/introducing-gemma3/" target="_blank"&gt;Gemma 3&lt;/a&gt; est désormais disponible dans le « &lt;a href="https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemma3"&gt;Model Garden&lt;/a&gt; » de Vertex AI. Vous pouvez donc dès maintenant le personnaliser et le déployer. Grâce aux conteneurs préconfigurés et aux outils de déploiement intégrés à Vertex AI, vous pouvez rapidement adapter Gemma 3 à vos cas d’usage spécifiques.&lt;/p&gt;&lt;p data-block-key="4c6jc"&gt;Dans cet article, nous vous proposons de découvrir comment affiner Gemma 3 avec Vertex AI, puis le déployer facilement en production.&lt;/p&gt;&lt;h3 data-block-key="d06dk"&gt;Gemma 3 sur Vertex AI : PEFT et déploiement avec vLLM&lt;/h3&gt;&lt;p data-block-key="dddvo"&gt;L'entraînement et le déploiement de LLM peuvent s’avérer coûteux en ressources et en temps. C’est pourquoi nous sommes ravis d’annoncer que Gemma 3 prend en charge la technique PEFT (Parameter-Efficient Fine-Tuning) et qu’il peut être déployé de manière optimisée via vLLM dans le Model Garden de Vertex AI.&lt;/p&gt;&lt;p data-block-key="errpj"&gt;Le fine-tuning PEFT de Gemma 3 permet d’obtenir d’importants gains de précision et de performances tout en mobilisant bien moins de ressources informatiques qu’un entraînement complet. Le déploiement via vLLM est à la fois rapide et simple à mettre en œuvre. Grâce à son moteur d’inférence optimisé, vLLM maximise le débit tout en réduisant la latence, garantissant à vos applications IA un accès réactif et hautement évolutif à votre modèle personnalisé.&lt;/p&gt;&lt;p data-block-key="d24in"&gt;Voyons maintenant comment affiner et déployer votre modèle Gemma 3 sur Vertex AI.&lt;/p&gt;&lt;h3 data-block-key="bgdkv"&gt;Fine-tuning de Gemma 3 sur Vertex AI&lt;/h3&gt;&lt;p data-block-key="ar9ej"&gt;Dans le Model Garden (jardin de modèles) de Vertex AI, vous pouvez affiner et déployer Gemma 3 en utilisant la méthode &lt;a href="https://github.com/huggingface/peft" target="_blank"&gt;PEFT (LoRA)&lt;/a&gt; de Hugging Face, en seulement quelques étapes.&lt;br/&gt;Avant d’exécuter le &lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-samples/blob/main/notebooks/community/model_garden/model_garden_gemma3_finetuning_on_vertex.ipynb" target="_blank"&gt;notebook&lt;/a&gt;, assurez-vous d’avoir bien suivi toutes les étapes préliminaires indiquées dans celui-ci.&lt;/p&gt;&lt;p data-block-key="6kve"&gt;Pour adapter Gemma 3 à votre cas d’usage, vous aurez besoin d’un jeu de données personnalisé. Le format recommandé est un fichier &lt;a href="https://jsonlines.org/" target="_blank"&gt;JSONL&lt;/a&gt;, dans lequel chaque ligne correspond à une chaîne JSON valide. Voici un exemple inspiré du jeu de données &lt;a href="https://huggingface.co/datasets/timdettmers/openassistant-guanaco" target="_blank"&gt;timdettmers/openassistant-guanaco&lt;/a&gt; :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;{&amp;quot;text&amp;quot;: &amp;quot;### Human: Hola### Assistant: \\u00a1Hola! \\u00bfEn qu\\u00e9 puedo ayudarte hoy?&amp;quot;}&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9597310&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Chaque objet JSON doit contenir une clé &lt;b&gt;text&lt;/b&gt;, qui doit correspondre au paramètre &lt;b&gt;train_column&lt;/b&gt;. Sa valeur doit être une entrée d’entraînement unique, typiquement une chaîne de caractères. Vous pouvez importer votre jeu de données dans &lt;a href="https://cloud.google.com/storage"&gt;Google Cloud Storage&lt;/a&gt; (option recommandée) ou dans les &lt;a href="https://huggingface.co/datasets" target="_blank"&gt;datasets de Hugging Face&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="7p2s4"&gt;Choisissez ensuite la variante de Gemma 3 la mieux adaptée à vos besoins. Par exemple, pour utiliser le modèle avec 1 milliard de paramètres :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;pretrained_model_id = &amp;quot;google/gemma-3-1b-pt&amp;quot;&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9597b50&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Vous pouvez personnaliser les paramètres du modèle ainsi que les paramètres du « job » (batch). Passons en revue quelques réglages clés.&lt;br/&gt;LoRA (Low-Rank Adaptation) est une technique PEFT qui permet de réduire considérablement le nombre de paramètres à entraîner. Les paramètres suivants contrôlent le comportement de LoRA :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="4c6vn"&gt;lora_rank : définit la &lt;b&gt;dimension des matrices de mise à jour&lt;/b&gt; (un rang plus faible = moins de paramètres),&lt;/li&gt;&lt;li data-block-key="1q6v6"&gt;lora_alpha : applique un &lt;b&gt;facteur d’échelle&lt;/b&gt; aux mises à jour LoRA,&lt;/li&gt;&lt;li data-block-key="f99qj"&gt;lora_dropout : ajoute une &lt;b&gt;régularisation&lt;/b&gt; pour éviter le surapprentissage.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="f8m4s"&gt;Les valeurs ci-dessous constituent une bonne base pour commencer :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;lora_rank = 16\r\nlora_alpha = 32\r\nlora_dropout = 0.05&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9597100&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Lors du fine-tuning de modèles de langage de grande taille (LLM), la précision est un facteur clé, qui influence à la fois la consommation mémoire et les performances. Un fine-tuning en basse précision, comme la quantification en 4 bits, permet de réduire l’empreinte mémoire du modèle final. En revanche, cela peut entraîner une légère perte de précision dans les contenus générés par rapport à des quantifications 8 bits ou float16.&lt;br/&gt; Le paramètre &lt;b&gt;train_precision&lt;/b&gt; permet de définir la précision numérique utilisée pendant le processus même d’entraînement.&lt;br/&gt;Le choix de la bonne précision dépend de l’équilibre souhaité entre les contraintes en ressources et le niveau de précision attendu du modèle.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;finetuning_precision_mode = &amp;quot;4bit&amp;quot;\r\ntrain_precision = &amp;quot;bfloat16&amp;quot;&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da95971f0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;&lt;b&gt;L’optimisation des performances du modèle&lt;/b&gt; repose sur l’ajustement de plusieurs paramètres d’entraînement ayant un impact sur la vitesse, la stabilité et les capacités du modèle. Voici quelques-uns des paramètres essentiels à prendre en compte :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="1h3tk"&gt;&lt;b&gt;per_device_train_batch_size&lt;/b&gt; : définit la taille des batchs par GPU — des valeurs plus élevées accélèrent l’entraînement, mais nécessitent davantage de mémoire.&lt;/li&gt;&lt;li data-block-key="69cjg"&gt;&lt;b&gt;gradient_accumulation_steps&lt;/b&gt; : permet de simuler des batchs plus larges en accumulant les gradients sur plusieurs batchs plus petits — une solution plus économe en mémoire, au prix d’un temps d’entraînement plus long.&lt;/li&gt;&lt;li data-block-key="2prn0"&gt;&lt;b&gt;learning_rate&lt;/b&gt; : contrôle la taille des étapes d’optimisation — une valeur trop élevée peut provoquer une divergence du modèle, tandis qu’une valeur trop faible ralentit la convergence.&lt;/li&gt;&lt;li data-block-key="1f2km"&gt;&lt;b&gt;lr_scheduler_type&lt;/b&gt; : ajuste dynamiquement le taux d’apprentissage au cours de l’entraînement (par exemple via une décroissance linéaire), ce qui favorise une meilleure convergence et une plus grande précision.&lt;/li&gt;&lt;li data-block-key="aq05b"&gt;La durée totale de l’entraînement peut être définie via &lt;b&gt;max_steps&lt;/b&gt; (nombre total d’étapes d’entraînement) ou &lt;b&gt;num_train_epochs&lt;/b&gt; (nombre d’époques). Si vous définissez à la fois &lt;b&gt;max_steps&lt;/b&gt; et &lt;b&gt;num_train_epochs&lt;/b&gt;, c’est la valeur de &lt;b&gt;max_steps&lt;/b&gt; qui sera prioritaire : l’entraînement s’arrêtera une fois ce nombre d’étapes atteint, même si toutes les époques ne sont pas encore complètes.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="ak4f8"&gt;Vous trouverez ci-dessous la configuration complète de l’entraînement, telle qu’elle apparaît dans le notebook officiel.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;train_job_args = [\r\n   &amp;quot;--config_file=vertex_vision_model_garden_peft/deepspeed_zero2_8gpu.yaml&amp;quot;,\r\n   &amp;quot;--task=instruct-lora&amp;quot;,\r\n   &amp;quot;--input_masking=True&amp;quot;,\r\n   f&amp;quot;--pretrained_model_name_or_path={pretrained_model_id}&amp;quot;,\r\n   f&amp;quot;--train_dataset={train_dataset}&amp;quot;,\r\n   f&amp;quot;--train_split={train_split}&amp;quot;,\r\n   f&amp;quot;--train_column={train_column}&amp;quot;,\r\n   f&amp;quot;--output_dir={lora_output_dir}&amp;quot;,\r\n   f&amp;quot;--merge_base_and_lora_output_dir={merged_model_output_dir}&amp;quot;,\r\n   f&amp;quot;--per_device_train_batch_size={per_device_train_batch_size}&amp;quot;,\r\n   f&amp;quot;--gradient_accumulation_steps={gradient_accumulation_steps}&amp;quot;,\r\n   f&amp;quot;--lora_rank={lora_rank}&amp;quot;,\r\n   f&amp;quot;--lora_alpha={lora_alpha}&amp;quot;,\r\n   f&amp;quot;--lora_dropout={lora_dropout}&amp;quot;,\r\n   f&amp;quot;--max_steps={max_steps}&amp;quot;,\r\n   f&amp;quot;--max_seq_length={max_seq_length}&amp;quot;,\r\n   f&amp;quot;--learning_rate={learning_rate}&amp;quot;,\r\n   f&amp;quot;--lr_scheduler_type={lr_scheduler_type}&amp;quot;,\r\n   f&amp;quot;--precision_mode={finetuning_precision_mode}&amp;quot;,\r\n   f&amp;quot;--train_precision={train_precision}&amp;quot;,\r\n   f&amp;quot;--gradient_checkpointing={gradient_checkpointing}&amp;quot;,\r\n   f&amp;quot;--num_train_epochs={num_train_epochs}&amp;quot;,\r\n   f&amp;quot;--attn_implementation={attn_implementation}&amp;quot;,\r\n   f&amp;quot;--optimizer={optimizer}&amp;quot;,\r\n   f&amp;quot;--warmup_ratio={warmup_ratio}&amp;quot;,\r\n   f&amp;quot;--report_to={report_to}&amp;quot;,\r\n   f&amp;quot;--logging_output_dir={base_output_dir}&amp;quot;,\r\n   f&amp;quot;--save_steps={save_steps}&amp;quot;,\r\n   f&amp;quot;--logging_steps={logging_steps}&amp;quot;,\r\n   f&amp;quot;--train_template={template}&amp;quot;,\r\n   f&amp;quot;--huggingface_access_token={HF_TOKEN}&amp;quot;,\r\n]&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9597640&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Créez et exécutez ensuite un &lt;b&gt;CustomContainerTrainingJob&lt;/b&gt; pour lancer le job de fine-tuning.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;train_job = aiplatform.CustomContainerTrainingJob(\r\n    display_name=job_name,\r\n    container_uri=TRAIN_DOCKER_URI,\r\n    labels=labels,\r\n)\r\n\r\ntrain_job.run(\r\n    args=train_job_args,\r\n    replica_count=replica_count,\r\n    machine_type=training_machine_type,\r\n    accelerator_type=training_accelerator_type,\r\n    accelerator_count=per_node_accelerator_count,\r\n    boot_disk_size_gb=500,\r\n    service_account=SERVICE_ACCOUNT,\r\n    base_output_dir=base_output_dir,\r\n    sync=False,\r\n    **dws_kwargs,\r\n)\r\n\r\ntrain_job.wait_for_resource_creation()&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da95979d0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Vous pouvez suivre la progression du fine-tuning via &lt;a href="https://cloud.google.com/vertex-ai/docs/experiments/tensorboard-introduction"&gt;Tensorboard&lt;/a&gt;. Une fois le travail terminé, vous pouvez importer le modèle affiné dans le registre de modèles Vertex AI, puis le déployer sous forme de point d’accès d’inférence. Ce point d’accès – ou « endpoint » – sera utilisé par vos applications IA pour accéder à votre modèle personnalisé, Vertex AI se chargeant d’assurer la réactivité et la montée en charge de l’inférence pour assurer le bon fonctionnement de vos applications.&lt;/p&gt;&lt;h3 data-block-key="6s746"&gt;Déploiement de Gemma 3 sur Vertex AI&lt;/h3&gt;&lt;p data-block-key="bnmb5"&gt;Le déploiement de Gemma 3 sur Vertex AI se fait en trois étapes seulement, en suivant la procédure décrite dans le &lt;a href="https://github.com/GoogleCloudPlatform/vertex-ai-samples/blob/main/notebooks/community/model_garden/model_garden_gemma3_deployment_on_vertex.ipynb" target="_blank"&gt;notebook&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="16fkj"&gt;La première consiste à provisionner un endpoint dédié pour votre modèle Gemma 3. Cela vous permet de bénéficier d’un environnement managé et évolutif pour l’hébergement de votre modèle.&lt;br/&gt;Utilisez la fonction &lt;b&gt;create()&lt;/b&gt; pour définir le nom du endpoint (&lt;b&gt;display_name&lt;/b&gt;) et allouez des ressources dédiées au modèle (&lt;b&gt;dedicated_endpoint_enabled&lt;/b&gt;).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;from google.cloud import aiplatform as vertex_ai\r\nendpoint = vertex_ai.Endpoint.create(\r\n        display_name=&amp;quot;gemma3-endpoint&amp;quot;, \r\n        dedicated_endpoint_enabled=True,\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da84fe0a0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Ensuite, enregistrez le modèle Gemma 3 dans le registre de modèles de Vertex AI.&lt;br/&gt;Considérez ce registre comme un point central de gestion de vos modèles : il permet de suivre les différentes versions de votre modèle Gemma 3 (utile si vous l'améliorez par la suite) et constitue le point de départ pour tous vos déploiements.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;vllm_serving_image_uri = &amp;quot;us-docker.pkg.dev/vertex-ai/vertex-vision-model-garden-dockers/pytorch-vllm-serve:20250312_0916_RC01&amp;quot;\r\n\r\nenv_vars = {\r\n    &amp;quot;MODEL_ID&amp;quot;: &amp;quot;google/gemma-3-1b-it&amp;quot;,\r\n    &amp;quot;DEPLOY_SOURCE&amp;quot;: &amp;quot;notebook&amp;quot;,\r\n    &amp;quot;HF_TOKEN&amp;quot;: &amp;quot;your-hf-token&amp;quot;\r\n}\r\n\r\nvllm_args = [\r\n    &amp;quot;python&amp;quot;,\r\n    &amp;quot;-m&amp;quot;,\r\n    &amp;quot;vllm.entrypoints.api_server&amp;quot;,\r\n    &amp;quot;--host=0.0.0.0&amp;quot;,\r\n    &amp;quot;--port=8080&amp;quot;,\r\n    &amp;quot;--model=\&amp;#x27;gs://vertex-model-garden-restricted-us/gemma3/gemma-3-1b-it\&amp;#x27;&amp;quot;,\r\n    &amp;quot;--tensor-parallel-size=1&amp;quot;,\r\n    &amp;quot;--swap-space=16&amp;quot;,\r\n    &amp;quot;--gpu-memory-utilization=0.95&amp;quot;,\r\n    &amp;quot;--max-model-len=32768&amp;quot;,\r\n    &amp;quot;--dtype=&amp;quot;auto&amp;quot;,\r\n    &amp;quot;--max-loras=1&amp;quot;,\r\n    &amp;quot;--max-cpu-loras=8&amp;quot;,\r\n    &amp;quot;--max-num-seqs=256&amp;quot;,\r\n    &amp;quot;--disable-log-stats&amp;quot;,\r\n    &amp;quot;--trust-remote-code&amp;quot;,\r\n    &amp;quot;--enforce-eager&amp;quot;,\r\n    &amp;quot;--enable-lora&amp;quot;,\r\n    &amp;quot;--enable-chunked-prefill&amp;quot;,\r\n    &amp;quot;--enable-prefix-caching&amp;quot;\r\n]\r\n\r\nmodel = aiplatform.Model.upload(\r\n    display_name=&amp;quot;gemma-3-1b&amp;quot;,\r\n    serving_container_image_uri=vllm_serving_image_uri,\r\n    serving_container_args=vllm_args,\r\n    serving_container_ports=[8080],\r\n    serving_container_predict_route=&amp;quot;/generate&amp;quot;,\r\n    serving_container_health_route=&amp;quot;/ping&amp;quot;,\r\n    serving_container_environment_variables=env_vars,\r\n    serving_container_shared_memory_size_mb=(16 * 1024),\r\n    serving_container_deployment_timeout=7200,\r\n    model_garden_source_model_name=&amp;quot;publishers/google/models/gemma3&amp;quot;,\r\n)&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da84fe670&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Cette étape comprend plusieurs paramètres de configuration importants, notamment la configuration du conteneur pour le déploiement de Gemma 3.&lt;/p&gt;&lt;p data-block-key="13a3q"&gt;Pour mettre Gemma 3 à disposition sur Vertex AI, utilisez l’image Docker préconfigurée du &lt;a href="https://github.com/vllm-project/vllm" target="_blank"&gt;vLLM&lt;/a&gt; (présente dans le Model Garden), qui permet une exécution rapide et efficace du modèle pour l’inférence. La configuration vLLM (&lt;i&gt;vLLM recipe&lt;/i&gt;) permet de définir le comportement du serveur vLLM Gemma 3, à travers plusieurs paramètres :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="b9meb"&gt;&lt;b&gt;tensor-parallel-size&lt;/b&gt; : permet de répartir le modèle sur plusieurs GPU si vous avez besoin de ressources de calcul supplémentaires,&lt;/li&gt;&lt;li data-block-key="5h323"&gt;&lt;b&gt;gpu-memory-utilization&lt;/b&gt; : contrôle la quantité de mémoire GPU que vous souhaitez utiliser,&lt;/li&gt;&lt;li data-block-key="1vjnj"&gt;&lt;b&gt;max-model-len&lt;/b&gt; : définit la longueur maximale de&lt;b&gt; texte&lt;/b&gt; que le modèle peut traiter en une seule fois.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="4dkke"&gt;Des options avancées comme --&lt;b&gt;enable-chunked-prefill&lt;/b&gt; et --&lt;b&gt;enable-prefix-caching&lt;/b&gt; permettent d’optimiser les performances, notamment pour le traitement de textes longs.&lt;/p&gt;&lt;p data-block-key="3itoe"&gt;D'autres paramètres de configuration requis par Vertex AI doivent également être définis pour le déploiement, tels que :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="f73ir"&gt;le port d’écoute du conteneur (8080 dans notre cas),&lt;/li&gt;&lt;li data-block-key="fcqr6"&gt;le chemin d’URL pour les requêtes de prédiction (ex. : "/generate"),&lt;/li&gt;&lt;li data-block-key="hvsa"&gt;le chemin d’URL pour les vérifications d’état (ex. : "/ping"), ce qui permet à Vertex AI de surveiller l’état du modèle en temps réel.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="pf4b"&gt;Enfin, utilisez &lt;b&gt;upload()&lt;/b&gt; pour regrouper cette configuration — le conteneur vLLM, les paramètres spécifiques au modèle et les instructions d’exécution — en une unité unique et centralisée au sein du registre de modèles Vertex AI. Cela facilitera grandement le déploiement et la gestion des versions.&lt;/p&gt;&lt;p data-block-key="71aq8"&gt;Vous êtes maintenant prêt à déployer le modèle. Pour déployer le modèle enregistré sur le point d’accès, utilisez la méthode &lt;b&gt;deploy()&lt;/b&gt; comme indiqué ci-dessous.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;model.deploy(\r\n        endpoint=endpoint,\r\n        machine_type=&amp;quot;a3-highgpu-2g&amp;quot;,\r\n        accelerator_type=&amp;quot;NVIDIA_L4&amp;quot;, \r\n        accelerator_count=1,\r\n        deploy_request_timeout=1800,\r\n    )&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da84fe100&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Arrivé à cette étape, vous devez définir la configuration de calcul pour le déploiement, dont :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="dk5g9"&gt;le type de machine virtuelle (par exemple "a3-highgpu-2g", via le paramètre &lt;b&gt;machine_type&lt;/b&gt;) ;&lt;/li&gt;&lt;li data-block-key="5pvno"&gt;le type d’accélérateur (comme les GPU "NVIDIA_L4", via &lt;b&gt;accelerator_type&lt;/b&gt;) ;&lt;/li&gt;&lt;li data-block-key="a1e5s"&gt;le nombre d’accélérateurs à allouer, défini par &lt;b&gt;accelerator_count&lt;/b&gt;.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="2j2er"&gt;Le déploiement du modèle peut prendre quelques minutes : vous pouvez en suivre l’état d’avancement en temps réel via Cloud Logging. Une fois le point d’accès opérationnel, le modèle peut être appelé via l’API ChatCompletion et intégré à vos applications comme indiqué ci-dessous.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;import google.auth\r\nimport openai\r\n\r\ncreds, project = google.auth.default()\r\nauth_req = google.auth.transport.requests.Request()\r\ncreds.refresh(auth_req)\r\n\r\nuser_message = &amp;quot;How is your day going?&amp;quot;  \r\nmax_tokens = 50  \r\ntemperature = 1.0  \r\nstream = False\r\n\r\nBASE_URL = f&amp;quot;https://{your-dedicated-endpoint}/v1beta1/{your-endpoint-name}&amp;quot;\r\n\r\nclient = openai.OpenAI(base_url=BASE_URL, api_key=creds.token)\r\n\r\nmodel_response = client.chat.completions.create(\r\n    model=&amp;quot;&amp;quot;,\r\n    messages=[{&amp;quot;role&amp;quot;: &amp;quot;user&amp;quot;, &amp;quot;content&amp;quot;: user_message}],\r\n    temperature=temperature,\r\n    max_tokens=max_tokens,\r\n    stream=stream,\r\n)\r\n\r\nprint(model_response)\r\n# I\&amp;#x27;m doing well, thanks for asking!...&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da84fe850&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="sl5a9"&gt;Selon la version de Gemma que vous déployez, l’API ChatCompletion permet également d’interroger le modèle avec des entrées multimodales (par exemple des images). Pour plus de détails, consultez la section « Deploy Gemma 3 4B, 12B and 27B multimodal models with vLLM on GPU » dans le notebook de la fiche du modèle (model card).&lt;/p&gt;&lt;h3 data-block-key="7sfcs"&gt;Prêt à vous lancer ?&lt;/h3&gt;&lt;p data-block-key="2gpdm"&gt;Consultez dès maintenant la documentation &lt;a href="https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemma3"&gt;Gemma 3 model card&lt;/a&gt; dans le Model Garden de Vertex AI pour commencer à l’utiliser.&lt;br/&gt;Pour approfondir votre compréhension de l’architecture et des performances du modèle, référez-vous au &lt;a href="https://developers.googleblog.com/en/introducing-gemma3/" target="_blank"&gt;guide développeur dédié à Gemma 3.&lt;/a&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 27 Jun 2025 09:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/lancement-de-gemma-3-sur-vertex-ai/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Lancement de Gemma 3 sur Vertex AI</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/lancement-de-gemma-3-sur-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Erwin Huizenga</name><title>AI engineering and evangelism manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ivan Nardini</name><title>Developer Relations Engineer</title><department></department><company></company></author></item><item><title>Cinq trucs et astuces pour optimiser vos workloads IA</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/cinq-trucs-et-astuces-pour-optimiser-vos-workloads-ia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="0mjsy"&gt;L’information ne vous a probablement pas échappé. Mais, au cas où, Google a récemment annoncé l’arrivée d’une version sans frais à usage individuel de &lt;a href="https://blog.google/technology/developers/gemini-code-assist-free/" target="_blank"&gt;Gemini Code Assist&lt;/a&gt;, notre assistant IA d’aide au codage. Cette technologie jusqu’ici réservée aux plus grandes entreprises devient ainsi accessible au plus grand nombre et notamment aux start-ups et aux développeurs indépendants.&lt;br/&gt; De même, les infrastructures techniques nécessaires aux projets IA/ML — GPU ultra performants, TPU spécialisés et systèmes de stockage ultra-rapides — ne sont désormais plus réservées aux grands groupes : elles sont aujourd’hui accessibles à tous.&lt;/p&gt;&lt;p data-block-key="a7jlq"&gt;Malgré cette tendance vers une plus grande accessibilité, les entreprises doivent continuer d’optimiser leurs gros workloads IA, les ressources nécessaires pouvant encore se révéler assez coûteuses. Dès lors, l’optimisation des workloads est non seulement une tâche pertinente mais aussi essentielle pour maîtriser les dépenses.&lt;/p&gt;&lt;p data-block-key="6eonp"&gt;Dans cet article, nous vous proposons cinq conseils concrets pour optimiser vos workflows IA sur Google Cloud Platform.&lt;/p&gt;&lt;p data-block-key="93tik"&gt;&lt;b&gt;&lt;i&gt;À noter : toutes les suggestions présentées dans cet article ne s’appliquent pas forcément à tous les cas d’usage. Il ne s’agit pas de recommandations officielles.&lt;/i&gt;&lt;/b&gt;&lt;/p&gt;&lt;h3 data-block-key="frit2"&gt;1. Comparez les différentes plateformes pour entraîner et déployer vos modèles&lt;/h3&gt;&lt;p data-block-key="4trai"&gt;Il y a encore quelques années, entraîner, affiner ou déployer un modèle IA impliquait de configurer manuellement un cluster de machines équipées de GPU ou de TPU, d’orchestrer l’ensemble du pipeline d’apprentissage et de gérer avec précision toutes les ressources mobilisées par le processus. Avec Kubernetes, vous pouviez alléger un peu la charge de travail mais, globalement, les services permettant de simplifier cette mise en œuvre étaient rares et peu accessibles. Conséquence : les coûts additionnels étaient importants, en raison du matériel monopolisé qu’il fallait financer mais aussi du temps consacré à la gestion de toute cette infrastructure.&lt;/p&gt;&lt;p data-block-key="6m24h"&gt;Mais ce temps est révolu ! Google Cloud propose aujourd’hui un large éventail de solutions, allant d’environnements entièrement managés à des plateformes entièrement personnalisables. À vous de choisir l’approche la plus adaptée à vos besoins.&lt;br/&gt; Voici un aperçu rapide des possibilités mises à votre disposition :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5efne"&gt;&lt;a href="https://cloud.google.com/vertex-ai?hl=fr"&gt;&lt;b&gt;Vertex AI&lt;/b&gt; est une plateforme unifiée et entièrement managée&lt;/a&gt; pour le développement de solutions IA. Entraînement, personnalisation, inférence : vous pouvez tout faire depuis une interface web simple et intuitive. Vous gagnez un temps précieux en déléguant à Google la gestion de l’infrastructure nécessaire à vos workloads IA. Et surtout, vous ne payez que ce que vous consommez — fini les GPU monopolisés à vide en attendant la prochaine tâche.&lt;/li&gt;&lt;li data-block-key="d18jd"&gt;Avec &lt;a href="https://cloud.google.com/run"&gt;&lt;b&gt;Cloud Run&lt;/b&gt;&lt;/a&gt;, vous pouvez désormais &lt;a href="https://cloud.google.com/run/docs/configuring/services/gpu?hl=fr"&gt;exécuter vos conteneurs sur des machines équipées de GPU&lt;/a&gt;. C’est la solution idéale pour déployer un service d’inférence scalable et entièrement managé, sans avoir à se familiariser avec de nouvelles plateformes.&lt;/li&gt;&lt;li data-block-key="5t64f"&gt;&lt;a href="https://cloud.google.com/batch/docs/create-run-job-gpus"&gt;&lt;b&gt;Cloud Batch&lt;/b&gt; permet également d’accéder à des GPU&lt;/a&gt; — une option particulièrement bien adaptée aux tâches longues, comme l’entraînement ou l’optimisation de modèles. Cloud Batch se charge automatiquement de provisionner l’infrastructure nécessaire, &lt;a href="https://cloud.google.com/batch/docs/automate-task-retries?hl=fr"&gt;de relancer les jobs&lt;/a&gt; en cas d’erreur et de libérer les ressources une fois la tâche terminée. Combinée aux &lt;a href="https://cloud.google.com/compute/docs/instances/spot"&gt;Spot Instances&lt;/a&gt;, la fonction de relance automatique des jobs peut entraîner une réduction significative des coûts.&lt;/li&gt;&lt;li data-block-key="80pf"&gt;&lt;a href="https://cloud.google.com/kubernetes-engine?e=48754805&amp;amp;hl=pl"&gt;Google Kubernetes Engine (GKE)&lt;/a&gt; vous permet de conserver le contrôle sur l’infrastructure, tout en bénéficiant des avantages de l’automatisation sur le provisioning, la configuration et la gestion des ressources&lt;b&gt;.&lt;/b&gt; C’est une solution particulièrement adaptée aux organisations qui utilisent déjà Kubernetes pour développer et exécuter leurs workloads IA et qui disposent de l’expertise nécessaire pour tirer pleinement parti du niveau de contrôle offert.&lt;/li&gt;&lt;li data-block-key="8j22n"&gt;&lt;a href="https://cloud.google.com/products/compute"&gt;&lt;b&gt;Google Compute Engine (GCE)&lt;/b&gt;&lt;/a&gt; se situe à l’opposé de Vertex AI en matière de gestion automatisée. En accédant directement à des machines virtuelles équipées de GPU ou de TPU, vous gardez le contrôle total sur tous les aspects de vos workflows, de l’infrastructure aux paramètres d’exécution.&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_-_hands-off-on-scale.jpg"
        
          alt="1 - hands-off-on-scale"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0mjsy"&gt;2. Optimisez le temps de démarrage de vos conteneurs d’inférence&lt;/h3&gt;&lt;p data-block-key="1o62u"&gt;Lorsque vous utilisez GKE ou Cloud Run, évitez d’intégrer directement vos modèles dans vos conteneurs. Minimiser la taille de vos conteneurs en externalisant le stockage des modèles sur des solutions telles  &lt;a href="https://cloud.google.com/storage/docs/introduction"&gt;Cloud Storage&lt;/a&gt; (&lt;a href="https://cloud.google.com/storage/docs/cloud-storage-fuse/overview"&gt;with FUSE&lt;/a&gt;),  &lt;a href="https://cloud.google.com/filestore"&gt;Filestore&lt;/a&gt; ou des &lt;a href="https://cloud.google.com/compute/docs/disks/sharing-disks-between-vms"&gt;disques persistants en lecture seule&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="cal81"&gt;Pourquoi ? Parce que des conteneurs trop volumineux, embarquant les modèles, ralentissent considérablement la montée en charge. Avant de pouvoir exécuter quoi que ce soit, les nœuds doivent télécharger ces images de conteneurs souvent très lourdes. Ce qui surcharge également le stockage local des nœuds, qui n’est pas conçu pour un très haut débit. En externalisant les modèles, vous les découplez du conteneur, ce qui accélère les temps de démarrage, facilite le scaling automatique et évite les points de contention sur les ressources locales.&lt;/p&gt;&lt;p data-block-key="e7jum"&gt;&lt;b&gt;Gardez à l’esprit&lt;/b&gt; que les conteneurs sont faits pour être temporaires et légers, et ne doivent contenir que l’essentiel. À l’inverse, les modèles sont volumineux et doivent être stockés sur le long terme. En les séparant et en optant pour un stockage externe, vous mettez en place un déploiement plus rapide, plus fluide, plus scalable et plus efficace.&lt;/p&gt;&lt;p data-block-key="fma0t"&gt;Si vous ne pouvez pas modifier les conteneurs avec lesquels vous travaillez, GKE propose une option de &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/data-container-image-preloading?hl=fr"&gt;disque de démarrage secondaire&lt;/a&gt; pour accélérer le lancement des nouveaux nœuds. Ces derniers démarrent alors avec un disque supplémentaire contenant déjà certaines images de conteneur préchargées. Et puisque l’on parle d’optimisation des temps de démarrage, jetez un œil à la fonctionnalité &lt;a href="https://cloud.google.com/kubernetes-engine/docs/how-to/image-streaming"&gt;Image streaming&lt;/a&gt; de GKE, qui permet d’accélérer le lancement de n’importe quel workload — et pas uniquement ceux liés à l’IA.&lt;/p&gt;&lt;h3 data-block-key="1dh2p"&gt;3. Stocker n’est pas aussi simple qu’il y paraît&lt;/h3&gt;&lt;p data-block-key="1ie3t"&gt;Les projets de machine learning nécessitent généralement d’énormes volumes de données — allant de plusieurs centaines de téraoctets à plusieurs pétaoctets — pour produire des résultats pertinents, en particulier lorsqu’ils impliquent des données non textuelles ou des modèles multimodaux. Maximiser l’utilisation des GPU/TPU lors de l’entraînement, du checkpointing (sauvegarde périodique de l’état des modèles en cours d’entraînement) ou de l’inférence est essentiel, mais la tâche est rarement triviale.&lt;/p&gt;&lt;p data-block-key="7k1ds"&gt;Pour des workloads IA plus modestes, avec quelques nœuds et quelques téraoctets de données, notre service &lt;a href="https://cloud.google.com/filestore"&gt;Filestore&lt;/a&gt; offre une solution NFS simple et efficace.&lt;/p&gt;&lt;p data-block-key="d6qjn"&gt;&lt;b&gt;Pour les entreprises dont les workloads IA ont été développés&lt;/b&gt; pour consommer directement du stockage objet, &lt;a href="https://cloud.google.com/storage/docs/introduction"&gt;&lt;b&gt;Cloud Storage&lt;/b&gt;&lt;/a&gt; est un service entièrement managé, capable de gérer des workloads IA/ML à très grande échelle. Toutefois, de nombreux cas d’usage IA requièrent une interface de type système de fichiers. &lt;a href="https://cloud.google.com/storage/docs/cloud-storage-fuse/overview"&gt;&lt;b&gt;Cloud Storage FUSE&lt;/b&gt;&lt;/a&gt; permet de monter des buckets Cloud Storage comme un système de fichiers local. Attention : Cloud Storage FUSE n’est pas entièrement conforme à la norme POSIX (Portable Operating System Interface), ce qui implique &lt;a href="https://cloud.google.com/storage/docs/cloud-storage-fuse/overview?hl=fr#expandable-1"&gt;des limitations par rapport à un système de fichiers classique&lt;/a&gt; qu’il convient de bien comprendre. Cloud Storage FUSE permet néanmoins d’accéder aux données d’entraînement, aux modèles et aux checkpoints avec la scalabilité, les performances et les coûts optimisés de Cloud Storage.&lt;/p&gt;&lt;p data-block-key="d02aa"&gt;&lt;b&gt;Pour les workloads nécessitant&lt;/b&gt; &lt;b&gt;une latence très faible&lt;/b&gt; &lt;b&gt;et utilisant des&lt;/b&gt; &lt;b&gt;fichiers de petite taille&lt;/b&gt;, &lt;a href="https://cloud.google.com/parallelstore/docs/overview"&gt;&lt;b&gt;Parallelstore&lt;/b&gt;&lt;/a&gt; est un système de fichiers parallèle temporaire, entièrement managé sur Google Cloud. C’est la solution idéale pour les charges IA/ML ayant besoin d’un accès en dessous de la milliseconde, avec un débit élevé et &lt;a href="https://en.wikipedia.org/wiki/IOPS" target="_blank"&gt;un grand nombre d’opérations d’E/S par seconde (IOPS)&lt;/a&gt;. Vous pouvez consulter l’architecture de référence pour faciliter sa mise en œuvre en suivant ce &lt;a href="https://cloud.google.com/architecture/optimize-ai-ml-workloads-parallelstore?hl=fr"&gt;lien&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="4so2"&gt;Enfin, selon vos besoins en matière de mise en production, &lt;a href="https://cloud.google.com/compute/docs/disks/hyperdisks?hl=fr#when-to-use"&gt;Hyperdisk ML&lt;/a&gt; est une solution de stockage haute performance, particulièrement adaptée aux tâches nécessitant un très haut débit agrégé (~1 To/s), avec un support jusqu’à 2 500 machines virtuelles en parallèle.&lt;/p&gt;&lt;h3 data-block-key="1ioqp"&gt;4- Exploitez DWS et/ou Future Reservations pour garantir l’accès aux ressources dont vous avez besoin&lt;/h3&gt;&lt;p data-block-key="e8bvt"&gt;Ne pas disposer des ressources nécessaires pour exécuter des workloads intensifs peut rapidement entraîner des surcoûts. Vous avez tout préparé : les données sont prêtes, le pipeline est en place… mais il n’y a pas assez de GPU disponibles. Ce type d’imprévu ne génère pas toujours un coût direct immédiat, mais le temps perdu à réorganiser votre planning et à chercher les ressources manquantes ralentit votre projet — et le temps, c’est de l’argent. Pour éviter ce genre de problèmes, Google Cloud propose deux solutions : &lt;a href="https://cloud.google.com/blog/products/compute/introducing-dynamic-workload-scheduler"&gt;Dynamic Workload Scheduler&lt;/a&gt; et &lt;a href="https://cloud.google.com/compute/docs/instances/future-reservations-overview"&gt;Future Reservations&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="67v2b"&gt;&lt;b&gt;Future Reservations&lt;/b&gt; (réservations anticipées) fonctionne comme son nom l’indique : cette solution permet de réserver à l’avance des ressources cloud (GPU, TPU, etc.) que vous prévoyez d’utiliser ultérieurement. Une fois la réservation confirmée par le système, vous avez la garantie que les ressources seront disponibles au moment prévu. Elles vous sont allouées exclusivement, et vous pouvez les utiliser comme bon vous semble, tant que la réservation est active. Attention : ces ressources vous seront facturées, qu’elles soient utilisées ou non !&lt;/p&gt;&lt;p data-block-key="finea"&gt;&lt;b&gt;Dynamic Workload Scheduler (DWS)&lt;/b&gt; est une plateforme backend utilisée par plusieurs produits Google Cloud, conçue pour faciliter l’accès à du matériel très demandé. Grâce à ses modes Flex et Calendar, DWS vous évite de perdre du temps à attendre que des GPU se libèrent au compte-gouttes, au fur et à mesure qu’ils ne sont plus utilisés par d’autres clients. C’est un moyen efficace d’optimiser votre temps et vos coûts. Pour en savoir plus sur le fonctionnement de DWS et son intégration dans l’écosystème Google Cloud, vous pouvez consulter cette &lt;a href="https://www.youtube.com/watch?reload=9&amp;amp;v=uWiO00RVQP4" target="_blank"&gt;vidéo&lt;/a&gt;.&lt;/p&gt;&lt;h3 data-block-key="bifvg"&gt;5- Utilisez des images disque personnalisées pour accélérer vos déploiements&lt;/h3&gt;&lt;p data-block-key="2j3ie"&gt;Exécuter des workloads IA sur des machines virtuelles nécessite souvent une phase de configuration lourde. Il faut un système d’exploitation à jour, les bons pilotes GPU, ainsi que les frameworks IA comme JAX, PyTorch ou TensorFlow, installés et configurés correctement. Si vous partez d’une image système « propre », la mise en place complète de cette configuration peut facilement prendre jusqu’à une heure, — selon la version du système d’exploitation utilisé et les outils que vous choisissez d’installer. Autant dire qu’il serait bien plus logique de ne faire cette configuration qu’une seule fois, non ?&lt;/p&gt;&lt;p data-block-key="9t4r6"&gt;C’est précisément l’intérêt des images disque personnalisées. Une fois votre VM correctement configurée avec tous les logiciels nécessaires, vous pouvez l’arrêter, créer une image disque à partir de ce système, et ainsi lancer en quelques secondes de nouvelles instances prêtes à l’emploi à partir de cette image disque personnalisée.&lt;/p&gt;&lt;p data-block-key="e7h42"&gt;Pour simplifier encore plus votre quotidien, vous pouvez utiliser nos services &lt;a href="https://cloud.google.com/compute/docs/images/image-families-best-practices#custom-families"&gt;image families&lt;/a&gt; et &lt;a href="https://cloud.google.com/compute/docs/instance-groups/working-with-managed-instances"&gt;managed instance groups&lt;/a&gt;. Google Cloud gérera alors automatiquement les mises à jour progressives de votre environnement de travail.&lt;/p&gt;&lt;h3 data-block-key="16ol2"&gt;Pour aller plus loin&lt;/h3&gt;&lt;p data-block-key="166md"&gt;Pour rester informé des dernières actualités et évolutions de Google Cloud, voici quelques ressources utiles :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bsiuj"&gt;Abonnez-vous à notre &lt;a href="https://www.youtube.com/@googlecloudtech" target="_blank"&gt;chaîne YouTube&lt;/a&gt; (&lt;a href="https://www.youtube.com/@googlecloud" target="_blank"&gt;ou à notre chaîne destinée à un public moins technique&lt;/a&gt;)&lt;/li&gt;&lt;li data-block-key="dpv6k"&gt;Suivez notre &lt;a href="https://cloud.google.com/blog?hl=en"&gt;blog&lt;/a&gt; ( ou via flux &lt;a href="https://cloudblog.withgoogle.com/rss/" target="_blank"&gt;RSS&lt;/a&gt;)&lt;/li&gt;&lt;li data-block-key="6cd1g"&gt;Inscrivez-vous à notre &lt;a href="https://cloud.google.com/newsletter?hl=fr"&gt;newsletter&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="95tg0"&gt;Rejoignez &lt;a href="https://cloud.google.com/innovators?hl=fr"&gt;le programme Google Cloud Innovators&lt;/a&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Wed, 25 Jun 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/cinq-trucs-et-astuces-pour-optimiser-vos-workloads-ia/</guid><category>Developers &amp; Practitioners</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Cinq trucs et astuces pour optimiser vos workloads IA</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/cinq-trucs-et-astuces-pour-optimiser-vos-workloads-ia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sean Derrington</name><title>Group Product Manager, Storage</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Maciej Strzelczyk</name><title>Developer Programs Engineer</title><department></department><company></company></author></item><item><title>Comment déployer une IA serverless avec Gemma 3 sur Cloud Run</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/comment-deployer-une-ia-serverless-avec-gemma-3-sur-cloud-run/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="81dy7"&gt;&lt;a href="https://blog.google/technology/developers/gemma-3/" target="_blank"&gt;Google vient de lancer Gemma 3&lt;/a&gt;, une nouvelle famille de modèles légers et open source, conçus avec les mêmes technologies de pointe que Gemini 2.0. Pensés pour être rapides et facilement portables, les modèles Gemma 3 permettent aux développeurs de créer des applications IA robustes et déployables à grande échelle. Couplés à Cloud Run, ils rendent le déploiement de workloads IA en mode serverless plus simple que jamais.&lt;/p&gt;&lt;p data-block-key="2kjkd"&gt;Dans cet article, nous vous proposons de découvrir les fonctionnalités de Gemma 3 et la manière de déployer cette nouvelle famille de modèles sur &lt;a href="http://cloud.run/" target="_blank"&gt;Cloud Run&lt;/a&gt;. &lt;/p&gt;&lt;h3 data-block-key="c271u"&gt;Gemma 3 : puissance et efficacité pour des déploiements cloud&lt;/h3&gt;&lt;p data-block-key="3f0lf"&gt;Gemma 3 est optimisé pour offrir des performances exceptionnelles tout en minimisant son empreinte mémoire, permettant ainsi de déployer des workloads d'inférence à moindre coût. Cette nouvelle génération de modèles se démarque par :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5e3al"&gt;&lt;b&gt;Le meilleur modèle mono-accélérateur actuel :&lt;/b&gt; Gemma 3 offre des performances optimales pour sa taille, surpassant Llama-405B, DeepSeek-V3 et o3-mini dans les évaluations humaines préliminaires publiées sur le &lt;a href="https://storage.googleapis.com/deepmind-media/gemma/Gemma3Report.pdf" target="_blank"&gt;leaderboard de LMArena&lt;/a&gt;. Autrement dit, il permet de créer des expériences utilisateurs de qualité, tout en s’exécutant sur un seul GPU ou TPU.&lt;/li&gt;&lt;li data-block-key="54cks"&gt;&lt;b&gt;Des capacités de raisonnement avancées en texte, image et vidéo :&lt;/b&gt; avec Gemma 3, vous pouvez concevoir facilement des applications capables d’analyser du texte, des images ou de vidéos courtes, enrichissant ainsi considérablement le potentiel de développement de solutions interactives.&lt;/li&gt;&lt;li data-block-key="21mq"&gt;&lt;b&gt;Une fenêtre contextuelle étendue pour pouvoir gérer des taches complexes &lt;/b&gt;: avec sa fenêtre de 128 000 tokens, Gemma 3 peut gérer des tâches complexes sans difficulté et permet à vos applications de traiter et comprendre de grandes quantités d’information (y compris des romans dans leur intégralité)&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="576ke"&gt;Déployer une inférence serverless avec Gemma 3 et Cloud Run&lt;/h3&gt;&lt;p data-block-key="4ofe8"&gt;Gemma 3 est parfaitement adapté aux workloads d'inférence sur Cloud Run utilisant des GPU Nvidia L4. Cloud Run est la plateforme serverless entièrement managée de Google Cloud, permettant aux développeurs d’exécuter des conteneurs sans se soucier de l'infrastructure sous-jacente. Dans cet environnement, les modèles se mettent automatiquement en pause lorsqu’ils ne sont pas utilisés et redémarrent automatiquement pour s'adapter à la demande. Dès lors, cette configuration vous permet d’optimiser les performances et de réduire les coûts tout en garantissant une facturation basée sur l’usage réel.&lt;/p&gt;&lt;p data-block-key="bhhkr"&gt;Par exemple, rien ne vous empêche d’héberger un LLM sur une instance Cloud Run et un agent conversationnel sur une autre. Chaque composant peut alors évoluer indépendamment, selon la charge. Grâce à l’accélération GPU, un service Cloud Run peut livrer les premiers résultats d'une inférence IA &lt;a href="https://cloud.google.com/blog/products/application-development/run-your-ai-inference-applications-on-cloud-run-with-nvidia-gpus?hl=en"&gt;en moins de 30 secondes, avec un démarrage d’instance en à peine 5 secondes&lt;/a&gt;. Ce déploiement ultra-rapide permet à vos applications de rester réactives et fluides. Cerise sur le gâteau : le prix des GPU sur Cloud Run est désormais encore plus accessible à environ 0,6 $/heure. Et, comme toujours sur Cloud Run, si aucune requête n’arrive, le service s’éteint automatiquement pour réduire vos dépenses.&lt;/p&gt;&lt;h3 data-block-key="3lmul"&gt;&lt;b&gt;Lancez-vous dès aujourd’hui&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="67off"&gt;Ensemble, Cloud Run et Gemma 3 forment une solution puissante, économique et facilement scalable pour déployer des applications d’IA avancées. Gemma 3 est compatible avec de nombreux outils et frameworks populaires, comme &lt;a href="https://huggingface.co/" target="_blank"&gt;Hugging Face Transformers&lt;/a&gt;, &lt;a href="https://ollama.com/" target="_blank"&gt;Ollama&lt;/a&gt;, ou encore &lt;a href="https://docs.vllm.ai/" target="_blank"&gt;vLLM&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="dfkk1"&gt;Pour commencer à déployer vos propres solutions , vous pouvez suivre ce &lt;a href="https://cloud.google.com/run/docs/tutorials/gpu-gemma-with-ollama?hl=fr"&gt;guide&lt;/a&gt; qui vous accompagne pas à pas dans la création d’un service avec Gemma 3 sur Cloud Run en utilisant Ollama.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 22 Apr 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/comment-deployer-une-ia-serverless-avec-gemma-3-sur-cloud-run/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Comment déployer une IA serverless avec Gemma 3 sur Cloud Run</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/comment-deployer-une-ia-serverless-avec-gemma-3-sur-cloud-run/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Vlad Kolesnikov</name><title>Developer Relations Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>James Ma</name><title>Sr. Product Manager</title><department></department><company></company></author></item><item><title>La révolution silencieuse d'Eiffage : quand le BTP s'empare de l'IA générative</title><link>https://cloud.google.com/blog/fr/topics/clients/la-revolution-silencieuse-deiffage-quand-le-btp-sempare-de-lia-generative/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="betx6"&gt;Signe des temps, lorsque l'un des leaders européen du BTP se transforme par l'intelligence artificielle, il ne fait pas les choses à moitié. Eiffage, groupe de construction et de concessions qui emploie plus de 52 000 collaborateurs en France (près de 84 000 dans le monde), a initié une transformation numérique ambitieuse en s'associant à Google Cloud pour démocratiser l'IA générative au sein de ses métiers. L'approche pragmatique et décentralisée adoptée par le groupe témoigne d'une vision claire : créer des IA populaires, c'est-à-dire des outils du quotidien au service du plus grand nombre, porté par les métiers eux-mêmes, de façon sécurisée et maîtrisée.&lt;/p&gt;&lt;h3 data-block-key="eopi9"&gt;&lt;b&gt;L'IA au quotidien plutôt que l'IA spectacle&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="10vo"&gt;Pour Jean-Philippe Faure, DSI d'Eiffage, la philosophie est claire : « &lt;i&gt;Notre approche de l'IA vise à transformer concrètement le quotidien des collaborateurs. Nous déployons des technologies de pointe qui répondent précisément aux besoins opérationnels tout en apportant une véritable productivité&lt;/i&gt; ». Cette vision, alliant pragmatisme et innovation, a guidé la stratégie d'implémentation du groupe depuis la signature de son accord avec Google Cloud en décembre 2023.&lt;/p&gt;&lt;p data-block-key="6hlvt"&gt;Contrairement à certaines approches visant à multiplier les cas d'usage sans vision d'ensemble, Eiffage a délibérément limité son périmètre initial. « &lt;i&gt;Dès le départ, nous avons restreint le nombre de ‘use cases’ à 15, chiffre arrêté en fonction du nombre de projets que nous pensions être capables de gérer en un an&lt;/i&gt; », explique Jean-Philippe Faure. « &lt;i&gt;Les projets ont été sélectionnés en fonction de leur portée : nous voulions des projets IA qui servent au plus grand nombre de collaborateurs au sein du Groupe car je suis convaincu que la rentabilité d'un projet IA se mesure avant tout par son taux d'adoption&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="ajo87"&gt;Pour y parvenir, la DSI s'est appuyée sur un réseau de pionniers identifiés au sein des branches du groupe, qui ont sélectionné des cas d'usage communs et prioritaires. Cette approche terrain a permis de développer des solutions qui répondent à des besoins réels tout en améliorant la productivité et le bien-être des collaborateurs.&lt;/p&gt;&lt;h3 data-block-key="be17o"&gt;&lt;b&gt;Une réponse sécurisée face à l'usage croissant des IA publiques&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="ecsln"&gt;La démarche d'Eiffage répond également à un enjeu majeur de sécurité informatique, comme l'explique Jean-Philippe Faure : « &lt;i&gt;Eiffage regorge de collaborateurs curieux, passionnés par l'innovation. Assez naturellement, le recours aux IA publiques s'est rapidement généralisé, souvent de manière invisible. Mais cela pose un risque majeur : lorsqu'un collaborateur saisit des données de l’entreprise sans anonymisation dans un prompt, ces informations peuvent faire l’objet de fuite ou tomber dans l’espace publique . C'est une brèche de sécurité invisible, mais bien réelle. Interdire ces IA publiques de manière frontale aurait été inefficace et contre-productif. Nous avons donc choisi de proposer une alternative interne, sécurisée et performante. Notre plateforme d'IA générative, déployée sur Google Cloud, est accessible à tous nos collaborateurs, à condition de suivre au préalable une formation au prompt. Elle garantit la confidentialité des données, centralise les bonnes pratiques et favorise un usage maîtrisé. Résultat : l'usage des IA publiques recule, preuve que notre approche répond aux besoins tout en protégeant l'entreprise&lt;/i&gt; ».&lt;/p&gt;&lt;h3 data-block-key="9d43j"&gt;&lt;b&gt;Google Cloud : un écosystème IA complet pour transformer rapidement les idées métiers en solutions industrielles&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="f53tb"&gt;Pour concrétiser sa vision, Eiffage s'est appuyé sur Vertex AI et un ensemble de modèles, allant de Gemini à Imagen, en passant par des modèles tiers tels que ceux d’Anthropic (Claude AI) et de Mistral AI. « &lt;i&gt;Vertex AI facilite l'intégration de multiples modèles. Nous avons développé une plateforme no-code sur GCP appelée Workflow Builder qui permet de 'muscler' les prompts et de les rendre plus robustes pour un passage à l'échelle efficace. Dit autrement, GCP nous apporte bien plus que des modèles : l'infrastructure Google Cloud couvre tous nos besoins pour tester et rapidement mettre en œuvre nos idées. Cette agilité est d'autant plus essentielle que notre souhait est de rester à la pointe de ce qui se fait en IA. Or, la vitesse d'innovation chez Google Cloud est impressionnante : de nouvelles fonctionnalités apparaissent toutes les semaines. Avec les outils fournis, nous pouvons non seulement les tester mais aussi concrétiser nos projets et les passer à l'échelle&lt;/i&gt; », précise Jean-Philippe Faure.&lt;/p&gt;&lt;p data-block-key="1u4fi"&gt;Le développement des projets IA a réellement débuté en mai 2024. Moins d'un an plus tard, plusieurs cas d'usage ont déjà été industrialisés, grâce à cette méthodologie qui combine impact de l’IA, implication des branches métiers et outils qui permettent d'aller vite.&lt;br/&gt; Parmi les cas d'usage « emblématiques », l’analyse des dossiers de consultation d'entreprises (DCE) est passée de deux jours à 20 minutes grâce à l'IA. « &lt;i&gt;C'est un collaborateur opérationnel qui a conçu les prompts, à partir de son expérience terrain, puis la DSI l’a passé à l'échelle&lt;/i&gt; », précise le DSI d’Eiffage.&lt;/p&gt;&lt;p data-block-key="aq1cg"&gt;Pour renforcer sa politique de prévention des risques sur les chantiers, Eiffage s'appuie également sur Imagen : l'IA analyse automatiquement des photos prises sur les chantiers en les comparant à plusieurs référentiels (internes et réglementaires) pour détecter rapidement les écarts de sécurité. Objectif : aider les chefs de chantier à prendre les bonnes décisions en termes de prévention&lt;/p&gt;&lt;p data-block-key="2astr"&gt;D'autres cas ont suivi : automatisation des comptes rendus de réunions, aide à la priorisation des appels d'offres selon les chances de succès prédites, ou encore traduction multilingue automatique de présentations. Chaque idée pertinente émergeant des branches est testée et, si les résultats sont positifs, passée à l'échelle avec l'appui technique de la DSI.&lt;/p&gt;&lt;h3 data-block-key="aftc0"&gt;&lt;b&gt;De l'initiative IT au projet d'entreprise : une réussite collective portée par les métiers&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="3dsh3"&gt;L'approche d'Eiffage en matière d'IA générative repose sur une conviction forte : pour qu'elle soit utile, l’IA doit être accessible au plus grand nombre, ce qui suppose de maîtriser l'art du prompt. Dans cette perspective, le Groupe a développé un parcours d'apprentissage de 80 minutes, prérequis indispensable pour que les collaborateurs puissent accéder aux solutions IA développées par le groupe.&lt;/p&gt;&lt;p data-block-key="1e9pn"&gt;Cette stratégie porte ses fruits : depuis le lancement de la formation en février 2025, plus de 2 500 collaborateurs ont demandé à y participer, 2 000 l'ont terminée, et environ 1 600 utilisent activement les solutions IA. « &lt;i&gt;Ce suivi précis de l'utilisation nous permet de mesurer l'impact réel des outils déployés, et donc le succès de notre démarche&lt;/i&gt; », précise Jean-Philippe Faure. « &lt;i&gt;Ce qui était au départ une initiative de la DSI est désormais un projet porté par l'ensemble des branches. Quand les patrons de branches métiers écrivent eux-mêmes à leurs équipes pour encourager l'adoption de l'IA, je sais que notre démarche fait sens. Cette appropriation par les métiers est clairement la clef du succès&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="8ncu5"&gt;Aujourd'hui, la DSI agit comme facilitateur : elle s'assure de la sécurité, de la robustesse technique, de la gouvernance, et accompagne la mise à l'échelle. « &lt;i&gt;L'IA est un projet des métiers, pour les métiers. C'est pour ça que ça fonctionne. Ce n'est pas une affaire de technophiles : pour créer de la valeur avec l'IA, il faut avant tout connaître le métier. L'IA générative change la donne : on n'a plus besoin de savoir coder, il faut savoir s'exprimer clairement, poser un problème de manière pertinente, et comprendre les enjeux du terrain. Ce sont les gens du métier qui détiennent cette compétence, pas ceux qui maîtrisent le langage informatique&lt;/i&gt; », souligne Jean-Philippe Faure.&lt;/p&gt;&lt;h3 data-block-key="66u8l"&gt;&lt;b&gt;Cap sur les agents IA pour anticiper la prochaine révolution&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="eg6r"&gt;Fort de cette réussite, Jean-Philippe Faure regarde déjà vers l'avenir. « &lt;i&gt;La prochaine révolution, ce sont les agents IA&lt;/i&gt; », anticipe le DSI. « &lt;i&gt;Nous passerons alors de l'assistant ‘qui aide’ à l'agent ‘qui travaille à vos côtés ’&lt;/i&gt; ». Cette évolution s'inscrit parfaitement dans sa vision stratégique : utiliser l'IA pour libérer les collaborateurs des tâches chronophages mais à faible impact.. « &lt;i&gt;L'objectif est de déléguer aux agents IA les tâches, souvent rébarbatives ou répétitives, pour que nos équipes puissent se concentrer sur ce qui crée véritablement de la valeur ajoutée&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="1gf9u"&gt;Ce qui fascine particulièrement le DSI d'Eiffage, c'est la façon dont l'IA générative redéfinit l'accès à la technologie. « &lt;i&gt;Avant, il fallait savoir coder pour faire de l'informatique. Aujourd'hui, il suffit de savoir s'exprimer clairement. Et des gens qui savent parler de leur métier, il y en a beaucoup&lt;/i&gt; ». Cette démocratisation apportée par l’IA abolit des frontières qui semblaient auparavant infranchissables, qu'elles soient technologiques ou même linguistiques, permettant aux experts métiers de tous les pays où le groupe opère de contribuer pleinement à l'innovation.&lt;/p&gt;&lt;p data-block-key="abkkn"&gt;Si la transformation numérique d'Eiffage est encore en cours, l'impact de l'IA générative est déjà visible et reconnu à tous les niveaux de l'organisation. À la question de savoir si l'IA va transformer les activités du groupe, la réponse du DSI est sans équivoque : « &lt;i&gt;Est-ce que l'IA, et notamment les agents IA, vont impacter nos business ? La réponse est clairement oui, même si je suis bien incapable aujourd’hui de vous dire comment et à quel point&lt;/i&gt; », conclut Jean-Philippe.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 09 Apr 2025 12:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/la-revolution-silencieuse-deiffage-quand-le-btp-sempare-de-lia-generative/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>La révolution silencieuse d'Eiffage : quand le BTP s'empare de l'IA générative</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/la-revolution-silencieuse-deiffage-quand-le-btp-sempare-de-lia-generative/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Créez et éditez votre podcast audio avec Gemini  1.5 Pro</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/creez-et-editez-votre-podcast-audio-avec-gemini-15-pro/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2wm78"&gt;L'IA générative révolutionne notre façon de consommer les contenus audio, des podcasts aux résumés vocaux. Prenons l'exemple de la dernière fonctionnalité &lt;a href="https://blog.google/technology/ai/notebooklm-audio-overviews/" target="_blank"&gt;Audio Overview&lt;/a&gt; de NotebookLM, plébiscitée par les utilisateurs. Celle-ci transforme les documents textuels en fichiers audio. En un seul clic, deux présentateurs virtuels peuvent entreprendre une discussion approfondie et dynamique basée sur des informations sources que vous leur fournissez. Ils résument votre contenu, établissent des liens entre les différents sujets et échangent leurs points de vue.&lt;/p&gt;&lt;p data-block-key="clr1v"&gt;Toutefois, bien que NotebookLM excelle dans l’analyse et le traitement d’informations complexes, certains utilisateurs souhaitent pouvoir contrôler davantage leurs productions audio, notamment pour concevoir leurs propres podcasts. Or, les podcasts connaissent un succès grandissant auprès des créateurs, des dirigeants d'entreprise et des utilisateurs en quête de contenus sur leurs centres d’intérêt. Dans cet article, nous vous proposons de découvrir comment Gemini 1.5 Pro et &lt;a href="https://cloud.google.com/text-to-speech?e=48754805&amp;amp;hl=en"&gt;l'API Text-to-Speech&lt;/a&gt; de Google Cloud vous permettent de créer des échanges audio en utilisant des voix variées et de générer des scripts de podcast à l’aide de prompts personnalisés.&lt;/p&gt;&lt;h3 data-block-key="eq5gb"&gt;Objectif : développer son impact et son audience en capitalisant sur un large éventail de formats audio&lt;/h3&gt;&lt;p data-block-key="akrkv"&gt;Un podcast réussi commence par un contenu audio accessible. Les fonctionnalités multimodales de Gemini, combinées à notre API Text-to-Speech haute-fidélité, vous donnent accès à plus de 380 voix dans plus de 50 langues, ainsi qu'à la création de voix personnalisées. En vous permettant de réinventer l’expérience utilisateur et d'accroître votre impact à travers une multitude de formats audio, ce large éventail de possibilités vous ouvre de nouveaux horizons.&lt;/p&gt;&lt;p data-block-key="akkml"&gt;Cette approche dopée à l’IA peut aider les créateurs de contenu à élargir leur public tout en optimisant le processus de création, notamment à travers :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="f0gtn"&gt;&lt;b&gt;Une audience étendue&lt;/b&gt; : connectez-vous avec les segments d'audience qui privilégient les contenus audios.&lt;/li&gt;&lt;li data-block-key="8gph5"&gt;&lt;b&gt;Un engagement renforcé&lt;/b&gt; : créez des liens privilégiés avec votre audience grâce à des contenus audio personnalisés.&lt;/li&gt;&lt;li data-block-key="5o5t0"&gt;&lt;b&gt;Une revalorisation des contenus&lt;/b&gt; : maximisez la valeur de vos contenus écrits existants en les convertissant dans un nouveau format – vocal – afin de toucher une audience plus large sans avoir à repartir de zéro.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="6iqer"&gt;Nous vous proposons de découvrir dans la suite de cet article la méthode détaillée pour atteindre ces objectifs.&lt;/p&gt;&lt;h3 data-block-key="dvqr0"&gt;L'architecture : Gemini 1.5 Pro et Text-to-Speech&lt;/h3&gt;&lt;p data-block-key="18ps5"&gt;Comme nous l’avons évoqué plus haut, notre architecture de création de contenus audio s'appuie sur deux puissants services de Google Cloud :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="36ljh"&gt;&lt;b&gt;Gemini 1.5 Pro&lt;/b&gt; : ce modèle d'IA générative avancé excelle dans la compréhension et la génération de textes naturels. Nous utiliserons Gemini 1.5 Pro pour :&lt;ul&gt;&lt;li data-block-key="dfipl"&gt;&lt;b&gt;Générer des scripts engageants&lt;/b&gt; : indiquez la trame de votre podcast à Gemini 1.5 Pro afin qu’il génère ensuite des scripts convaincants, incluant introductions, transitions et « appels à l'action ».&lt;/li&gt;&lt;li data-block-key="1hj79"&gt;&lt;b&gt;Adapter un contenu au format audio&lt;/b&gt; : L’expression écrite et l’expression vocale sont différentes. Gemini 1.5 Pro peut optimiser les contenus écrits pour le format audio afin de garantir un flux naturel et une expérience d'écoute engageante. Il peut également ajuster le ton et le style pour l'adapter à différents formats, tel un podcast.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;li data-block-key="a1nqc"&gt;&lt;b&gt;API Text-to-Speech&lt;/b&gt; : cette API transpose vos textes en audio avec des voix réalistes. Vous pouvez choisir parmi une large palette de voix et langues afin d’aligner l’identité sonore sur votre marque et votre audience.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="4bpfp"&gt;Comment créer un podcast captivant étape par étape&lt;/h3&gt;&lt;ul&gt;&lt;li data-block-key="7ik95"&gt;&lt;b&gt;Préparation du contenu&lt;/b&gt; : préparez la structure de votre podcast. Veillez à disposer d’une organisation logique et cohérente et assurez-vous que le contenu est clair et compréhensible. Pour une durée d'écoute optimale, fractionnez les contenus longs en plusieurs épisodes.&lt;/li&gt;&lt;li data-block-key="fndf5"&gt;&lt;b&gt;Intégration de Gemini 1.5 Pro&lt;/b&gt; : Utilisez Gemini 1.5 Pro pour générer un script à partir de de la structure de votre podcast. Expérimentez différents prompts pour affiner le résultat et obtenir le style et le ton souhaités. Exemple de prompt : « &lt;i&gt;Génère un script audio engageant à partir de cette structure de podcast, incluant une introduction, des transitions et un appel à l'action. Le public cible comprend des développeurs, ingénieurs et architectes cloud&lt;/i&gt; ».&lt;/li&gt;&lt;li data-block-key="a9tq6"&gt;&lt;b&gt;Découpage en sections&lt;/b&gt; : pour les podcasts complexes ou longs, vous pouvez utiliser Gemini 1.5 Pro pour extraire les sections et sous-sections clés au format JSON, permettant une approche plus structurée dans la génération du script.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="lg6m"&gt;Le processus de création de podcast repose sur une fonction Python des plus simples :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;def extract_sections_and_subsections(document1: Part, project=&amp;quot;&amp;lt;your-project-id&amp;gt;&amp;quot;, location = &amp;quot;us-central1&amp;quot;) -&amp;gt; str:\r\n   &amp;quot;&amp;quot;&amp;quot;\r\n   Extracts hierarchical sections and subsections from a Google Cloud blog post\r\n   provided as a PDF document.\r\n\r\n\r\n   This function uses the Gemini 1.5 Pro language model to analyze the structure\r\n   of a blog post and identify its key sections and subsections. The extracted\r\n   information is returned in JSON format for easy parsing and use in\r\n   various applications.\r\n\r\n\r\n   This is particularly useful for:\r\n\r\n\r\n   * **Large documents:**  Breaking down content into manageable chunks for\r\n     efficient processing and analysis.\r\n   * **Podcast creation:** Generating multi-episode series where each episode\r\n     focuses on a specific section of the blog post.\r\n\r\n\r\n   Args:\r\n       document1 (Part): A Part object representing the PDF document,\r\n                         typically obtained using `Part.from_uri()`.\r\n                         For example:\r\n                         ```python\r\n                         document1 = Part.from_uri(\r\n                             mime_type=&amp;quot;application/pdf&amp;quot;,\r\n                             uri=&amp;quot;gs://your-bucket/your-pdf.pdf&amp;quot;\r\n                         )\r\n                         ```\r\n       location: The region of your Google Cloud project. Defaults to &amp;quot;us-central1&amp;quot;.\r\n       project: The ID of your Google Cloud project. Defaults to &amp;quot;&amp;lt;your-project-id&amp;gt;&amp;quot;.\r\n\r\n\r\n\r\n\r\n   Returns:\r\n       str: A JSON string representing the extracted sections and subsections.\r\n            Returns an empty string if there are issues with processing or\r\n            the model output.\r\n   &amp;quot;&amp;quot;&amp;quot;\r\n\r\n\r\n   vertexai.init(project=project, location=location)  # Initialize Vertex AI\r\n   model = GenerativeModel(&amp;quot;gemini-1.5-pro-002&amp;quot;)\r\n\r\n\r\n   prompt = &amp;quot;&amp;quot;&amp;quot;Analyze the following blog post and extract its sections and subsections. Represent this information in JSON format using the following structure:\r\n   [\r\n     {\r\n       &amp;quot;section&amp;quot;: &amp;quot;Section Title&amp;quot;,\r\n       &amp;quot;subsections&amp;quot;: [\r\n         &amp;quot;Subsection 1&amp;quot;,\r\n         &amp;quot;Subsection 2&amp;quot;,\r\n         // ...\r\n       ]\r\n     },\r\n     // ... more sections\r\n   ]&amp;quot;&amp;quot;&amp;quot;\r\n\r\n\r\n   try:\r\n       responses = model.generate_content(\r\n           [&amp;quot;&amp;quot;&amp;quot;The pdf file contains a Google Cloud blog post required for podcast-style analysis:&amp;quot;&amp;quot;&amp;quot;, document1, prompt],\r\n           generation_config=generation_config,\r\n           safety_settings=safety_settings,\r\n           stream=True,  # Stream results for better performance with large documents\r\n       )\r\n\r\n\r\n       response_text = &amp;quot;&amp;quot;\r\n       for response in responses:\r\n           response_text += response.text\r\n\r\n\r\n       return response_text\r\n\r\n\r\n   except Exception as e:\r\n       print(f&amp;quot;Error during section extraction: {e}&amp;quot;)\r\n       return &amp;quot;&amp;quot;&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9450550&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2wm78"&gt;Utilisez ensuite Gemini 1.5 Pro pour générer le script de chaque section. Dans vos prompts, précisez le public visé, le ton désiré et la durée approximative souhaitée pour chaque l'épisode.&lt;/p&gt;&lt;p data-block-key="eaot5"&gt;Pour chaque section et sous-section, vous pouvez utiliser une fonction similaire à celle-ci pour générer le script :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;def generate_podcast_content(section, subsection, document1:Part, targetaudience, guestname, hostname, project=&amp;quot;&amp;lt;your-project-id&amp;gt;&amp;quot;, location=&amp;quot;us-central1&amp;quot;) -&amp;gt; str:\r\n &amp;quot;&amp;quot;&amp;quot;Generates a podcast dialogue in JSON format from a blog post subsection.\r\n\r\n\r\n This function uses the Gemini model in Vertex AI to create a conversation\r\n between a host and a guest, covering the specified subsection content. It uses\r\n a provided PDF as source material and outputs the dialogue in JSON.\r\n\r\n\r\n Args:\r\n   section: The blog post\&amp;#x27;s main section (e.g., &amp;quot;Introduction&amp;quot;).\r\n   subsection: The specific subsection (e.g., &amp;quot;Benefits of Gemini 1.5&amp;quot;).\r\n   document1: A `Part` object representing the source PDF (created using\r\n              `Part.from_uri(mime_type=&amp;quot;application/pdf&amp;quot;, uri=&amp;quot;gs://your-bucket/your-pdf.pdf&amp;quot;)`).\r\n   targetaudience: The intended audience for the podcast.\r\n   guestname: The name of the podcast guest.\r\n   project: Your Google Cloud project ID.\r\n   location: Your Google Cloud project location.\r\n\r\n\r\n Returns:\r\n   A JSON string representing the generated podcast dialogue.\r\n &amp;quot;&amp;quot;&amp;quot;\r\n print(f&amp;quot;Processing section: {section} and subsection: {subsection}&amp;quot;)\r\n\r\n\r\n prompt = f&amp;quot;&amp;quot;&amp;quot;Create a podcast dialogue in JSON format based on a provided subsection of a Google Cloud blog post (found in the attached PDF).\r\n The dialogue should be a lively back-and-forth between a host (R) and a guest (S), presented as a series of turns.\r\n The host should guide the conversation by asking questions, while the guest provides informative and accessible answers.\r\n The script must fully cover all points within the given subsection.\r\n Use clear explanations and relatable analogies.\r\n Maintain a consistently positive and enthusiastic tone (e.g., &amp;quot;Movies, I love them. They\&amp;#x27;re like time machines...&amp;quot;).\r\n Include only one introductory host greeting (e.g., &amp;quot;Welcome to our next episode...&amp;quot;).  No music, sound effects, or production directions.\r\n\r\n\r\n JSON structure:\r\n {{\r\n   &amp;quot;multiSpeakerMarkup&amp;quot;: {{\r\n     &amp;quot;turns&amp;quot;: [\r\n       {{&amp;quot;text&amp;quot;: &amp;quot;Podcast script content here...&amp;quot;, &amp;quot;speaker&amp;quot;: &amp;quot;R&amp;quot;}}, // R for host, S for guest\r\n       // ... more turns\r\n     ]\r\n   }}\r\n }}\r\n\r\n\r\n Input Data:\r\n Section: &amp;quot;{section}&amp;quot;\r\n Subsections to cover in the podcast: &amp;quot;{subsection}&amp;quot;\r\n Target Audience: &amp;quot;{targetaudience}&amp;quot;\r\n Guest name: &amp;quot;{guestname}&amp;quot;\r\n Host name: &amp;quot;{hostname}&amp;quot;\r\n &amp;quot;&amp;quot;&amp;quot;\r\n\r\n\r\n vertexai.init(project=project, location=location)\r\n model = GenerativeModel(&amp;quot;gemini-1.5-pro-002&amp;quot;)\r\n\r\n\r\n responses = model.generate_content(\r\n     [&amp;quot;&amp;quot;&amp;quot;The pdf file contains a Google Cloud blog post required for podcast-style analysis:&amp;quot;&amp;quot;&amp;quot;, document1, prompt],\r\n     generation_config=generation_config, # Assuming these are defined already\r\n     safety_settings=safety_settings,      # Assuming these are defined already\r\n     stream=True,\r\n )\r\n\r\n\r\n response_text = &amp;quot;&amp;quot;\r\n for response in responses:\r\n   response_text += response.text\r\n\r\n\r\n return response_text&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da94508b0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2wm78"&gt;Envoyez ensuite le script Gemini vers l'API Text-to-Speech en sélectionnant une voix et une langue qui correspondent à votre cible et votre contenu. Pour générer un contenu audio de qualité professionnelle à partir du texte, utilisez cette fonction basée sur l'API Text-to-Speech avancée de Google Cloud :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;def generate_audio_from_text(input_json):\r\n   &amp;quot;&amp;quot;&amp;quot;Generates audio using Google Text-to-Speech API.\r\n\r\n\r\n   Args:\r\n       input_json: A dictionary containing the \&amp;#x27;multiSpeakerMarkup\&amp;#x27; for the TTS API. This is generated by the Gemini 1.5 Pro model in the buildPodCastContent() function. \r\n\r\n\r\n   Returns:\r\n       The audio data in bytes (MP3 format) if successful, None otherwise.\r\n   &amp;quot;&amp;quot;&amp;quot;\r\n\r\n\r\n   try:\r\n       # Build the Text-to-Speech service\r\n       service = build(\&amp;#x27;texttospeech\&amp;#x27;, \&amp;#x27;v1beta1\&amp;#x27;)\r\n\r\n\r\n       # Prepare synthesis input\r\n       synthesis_input = {\r\n           \&amp;#x27;multiSpeakerMarkup\&amp;#x27;: input_json[\&amp;#x27;multiSpeakerMarkup\&amp;#x27;]\r\n       }\r\n\r\n\r\n       # Configure voice and audio settings\r\n       voice = {\r\n           \&amp;#x27;languageCode\&amp;#x27;: \&amp;#x27;en-US\&amp;#x27;,\r\n           \&amp;#x27;name\&amp;#x27;: \&amp;#x27;en-US-Studio-MultiSpeaker\&amp;#x27;\r\n       }\r\n\r\n\r\n       audio_config = {\r\n           \&amp;#x27;audioEncoding\&amp;#x27;: \&amp;#x27;MP3\&amp;#x27;,\r\n           \&amp;#x27;pitch\&amp;#x27;: 0,\r\n           \&amp;#x27;speakingRate\&amp;#x27;: 0,\r\n           \&amp;#x27;effectsProfileId\&amp;#x27;: [\&amp;#x27;small-bluetooth-speaker-class-device\&amp;#x27;]\r\n       }\r\n\r\n\r\n       # Make the API request\r\n       response = service.text().synthesize(\r\n           body={\r\n               \&amp;#x27;input\&amp;#x27;: synthesis_input,\r\n               \&amp;#x27;voice\&amp;#x27;: voice,\r\n               \&amp;#x27;audioConfig\&amp;#x27;: audio_config\r\n           }\r\n       ).execute()\r\n\r\n\r\n       # Extract and return audio content\r\n       audio_content = response[\&amp;#x27;audioContent\&amp;#x27;]\r\n       return audio_content\r\n\r\n\r\n   except Exception as e:\r\n       print(f&amp;quot;Error: {e}&amp;quot;)  # More informative error message\r\n       return None&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f0da9450190&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2wm78"&gt;Pour finaliser le processus, vous pouvez stocker votre contenu audio encodé en MP3 base64 dans Google Cloud Storage en utilisant la bibliothèque Python &lt;a href="https://pypi.org/project/google-cloud-storage/" target="_blank"&gt;google-cloud-storage&lt;/a&gt;. Elle permet de décoder la chaîne base64 et de télécharger directement les octets résultants vers un bucket désigné, en spécifiant le type de contenu comme 'audio/mp3'.&lt;/p&gt;&lt;h3 data-block-key="6ceso"&gt;La preuve par l'écoute&lt;/h3&gt;&lt;p data-block-key="fbr19"&gt;API Text-to-Speech produit un audio de haute qualité. Mais vous pouvez encore enrichir vos podcasts avec une musique de fond, des effets sonores ou encore à l’aide d’outils d’édition professionnels. Découvrez ce que l’on peut obtenir en téléchargeant &lt;a href="https://github.com/krishchyt/Podcast-blog-asset/raw/refs/heads/main/krischy-podcast-for-blog.wav" target="_blank"&gt;le résultat audio de l’exemple donné dans cet article&lt;/a&gt;, réalisé à l’aide de Gemini 1.5 Pro et l'API Text-to-Speech.&lt;/p&gt;&lt;p data-block-key="8mkl"&gt;Si vous souhaitez commencer à créer vos propres contenus, prenez le temps d’examiner la gamme complète de fonctionnalités de génération audio proposée par Google Cloud, notamment &lt;a href="https://cloud.google.com/text-to-speech?hl=en"&gt;l'API Text-to-Speech&lt;/a&gt; et les &lt;a href="https://cloud.google.com/vertex-ai?hl=en"&gt;modèles Gemini&lt;/a&gt; disponibles en version gratuite. Testez différentes options de prompts, textuels comme visuels, pour explorer toutes les capacités créatives de Gemini.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 31 Mar 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/creez-et-editez-votre-podcast-audio-avec-gemini-15-pro/</guid><category>Developers &amp; Practitioners</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Créez et éditez votre podcast audio avec Gemini  1.5 Pro</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/creez-et-editez-votre-podcast-audio-avec-gemini-15-pro/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Krishna Chytanya Ayyagari</name><title>Generative AI Field Solutions Architect</title><department></department><company></company></author></item><item><title>Le Développeur Augmenté : Quand l’IA et Google Cloud réinventent le développement logiciel</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/le-developpeur-augmente-quand-lia-et-google-cloud-reinventent-le-developpement-logiciel/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="kh3r3"&gt;Le développement logiciel est en constante mutation liée au fait que les développeurs doivent jongler avec des exigences de plus en plus élevées. Productivité accrue, délais de mise sur le marché (TTM) réduits, nombre croissant de releases, réutilisation du code, automatisation des tâches et sécurité renforcée sont autant de défis qui pèsent sur leurs épaules. Face à ces pressions et au stress associé à cette charge de travail, le besoin d'&lt;b&gt;&lt;i&gt;"augmenter"&lt;/i&gt;&lt;/b&gt; le développeur semble indispensable.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Screenshot_2025-03-19_at_19.05.31.max-1000x1000.png"
        
          alt="Developer-Article FR"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="kh3r3"&gt;Au regard de ces problématiques, le développeur est confronté à plusieurs enjeux :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="bpn08"&gt;&lt;b&gt;Maintenir un haut niveau de compétences :&lt;/b&gt; Le développeur doit constamment apprendre et se former pour maîtriser les nouveaux langages ou frameworks, les bonnes pratiques, les normes de développement de son équipe, etc&lt;/li&gt;&lt;li data-block-key="bkd27"&gt;&lt;b&gt;Gérer la complexité :&lt;/b&gt; Les applications modernes sont de plus en plus complexes, intégrant des technologies et des environnements variés (cloud, mobile, IA, Data, etc).&lt;/li&gt;&lt;li data-block-key="ck1cr"&gt;&lt;b&gt;Collaborer efficacement :&lt;/b&gt; Le développement logiciel est un travail d'équipe, et la collaboration est essentielle pour réussir.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7dg5g"&gt;Pour relever ces défis et répondre à ces enjeux, le concept de "développeur augmenté" émerge. Il s'agit de proposer aux développeurs des outils et technologies qui les assistent dans leur travail quotidien. Dans ce contexte, la plateforme Google Cloud propose un ensemble de solutions permettant de:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="8u2iq"&gt;&lt;b&gt;Automatiser les tâches répétitives :&lt;/b&gt; &lt;a href="https://cloud.google.com/deployment-manager/"&gt;Deployment Manager&lt;/a&gt; permet de déployer l'infrastructure Google Cloud Platform GCP (machines virtuelles, réseaux, stockage) de manière automatisée et reproductible à l'aide de modèles déclaratifs. Plus besoin de configurer manuellement chaque élément, Deployment Manager se charge de tout. En combinaison avec &lt;i&gt;Terraform&lt;/i&gt;, nativement intégré, le développeur gère son infrastructure “&lt;b&gt;as code&lt;/b&gt;” !&lt;/li&gt;&lt;li data-block-key="1ok4d"&gt;&lt;b&gt;Disposer d’environnement de travail sécurisé et adapté aux exigences de chaque projet :&lt;/b&gt; &lt;a href="https://cloud.google.com/workstations?hl=fr"&gt;Cloud Workstation&lt;/a&gt; offre aux développeurs un environnement sécurisé, accessible partout, évolutif et personnalisé en fonction des projets permettant ainsi de s’affranchir des problématiques liées aux stations de développement (isolation des environnements, contrôle d'accès, délai d'approvisionnement et de paramétrage, disparité des configurations, obsolescence, perte/vol, coût) qui limitent l'efficacité des équipes de développement.&lt;/li&gt;&lt;li data-block-key="ee3hq"&gt;&lt;b&gt;Générer rapidement du code ou des tests unitaires :&lt;/b&gt; &lt;a href="https://cloud.google.com/products/gemini/code-assist?hl=fr"&gt;Code Assist&lt;/a&gt; est basé sur le modèle de langage Gemini, est capable de gérer diverses tâches, y compris la génération ou l’explication de code, corrections d’erreurs, transformation de code à grande échelle (ajout de fonctionnalités, mise à jour des dépendances, révisions de code, etc). En complément, il permet de personnaliser le code généré en s’appuyant sur les assets de l'entreprise (codebase local), assurant ainsi le respect des standards de développement internes, ou de normes internationales industrielles.&lt;/li&gt;&lt;li data-block-key="6ps2v"&gt;&lt;b&gt;Améliorer la collaboration et le partage des connaissances :&lt;/b&gt; &lt;a href="https://cloud.google.com/source-repositories/"&gt;Cloud Source Repositories&lt;/a&gt; permet aux développeurs de collaborer sur le code source via des fonctionnalités de revue de code, de suivi des modifications et de gestion des branches. Les commentaires et suggestions peuvent être directement intégrés au code, favorisant un échange d'expertise et un apprentissage continu. En complément, &lt;a href="https://cloud.google.com/build?hl=fr"&gt;Cloud Build&lt;/a&gt; facilite le partage des connaissances en permettant aux développeurs de créer et de partager des pipelines de construction et de déploiement automatisés. Ces pipelines peuvent être documentés et réutilisés par d'autres membres de l'équipe, favorisant la standardisation et la diffusion des bonnes pratiques.&lt;/li&gt;&lt;li data-block-key="ajt0i"&gt;&lt;b&gt;Intégrer la sécurité de bout en bout dès la conception :&lt;/b&gt; GCP fournit au développeur augmenté un arsenal pour intégrer la sécurité dès la conception et tout au long du cycle de vie du logiciel. &lt;a href="https://cloud.google.com/secure-source-manager/docs/overview"&gt;Secure Source Manager&lt;/a&gt; offre un environnement sécurisé pour le code source avec contrôle d'accès et chiffrement. &lt;a href="https://cloud.google.com/binary-authorization/"&gt;Binary Authorization&lt;/a&gt; garantit que seuls les logiciels vérifiés et approuvés sont déployés, minimisant les risques liés aux images non fiables. L'intégration de la sécurité dans les pipelines CI/CD (via Cloud Build) permet d'automatiser les tests de sécurité, l'analyse de vulnérabilités et la conformité aux politiques de sécurité. Cette approche "shift-left" renforce la sécurité des applications et réduit les failles potentielles avant même le déploiement.&lt;/li&gt;&lt;li data-block-key="9kt5q"&gt;&lt;b&gt;Exploiter la puissance de l'IA pour améliorer la qualité du code :&lt;/b&gt; graĉe à &lt;a href="https://cloud.google.com/vertex-ai/"&gt;Vertex AI&lt;/a&gt;, le développeur peut entraîner des modèles personnalisés pour détecter des bugs, des failles de sécurité et des anomalies dans le code source, voire suggérer des corrections. Vertex AI permet également de produire la retro-documentation du code, d'automatiser des tâches fastidieuses comme la génération de tests unitaires ou la refactorisation de code.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="1qr26"&gt;Le développeur augmenté, c'est l'alliance du savoir-faire humain et de la puissance de l'Intelligence Artificielle. GCP offre les services nécessaires afin d’accompagner les développeurs pour accélérer les cycles de développement, améliorer la qualité du code et renforcer la sécurité des applications.&lt;/p&gt;&lt;p data-block-key="4ugmf"&gt;Cela constitue une véritable révolution qui permet aux entreprises d'innover plus rapidement et de créer des solutions toujours plus performantes tant en permettant aux développeurs de se concentrer sur la logique métier et l'innovation.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 19 Mar 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/le-developpeur-augmente-quand-lia-et-google-cloud-reinventent-le-developpement-logiciel/</guid><category>Application Development</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Le Développeur Augmenté : Quand l’IA et Google Cloud réinventent le développement logiciel</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/le-developpeur-augmente-quand-lia-et-google-cloud-reinventent-le-developpement-logiciel/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Frederic Duport</name><title>AppMod Practice Lead</title><department></department><company>Google Cloud France</company></author></item><item><title>Créer un logo percutant pour sa marque avec Imagen 3 et Gemini</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/creer-un-logo-percutant-pour-sa-marque-avec-imagen-3-et-gemini/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="q0cep"&gt;&lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/introducing-veo-and-imagen-3-on-vertex-ai?e=48754805&amp;amp;hl=en"&gt;L'an dernier&lt;/a&gt;, nous avons annoncé Imagen 3, notre modèle de génération d'images le plus performant à ce jour. &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/image/generate-images"&gt;Imagen 3&lt;/a&gt; est notamment accessible aux clients de Vertex AI, permettant ainsi aux entreprises de créer des images de haute qualité qui reflètent leur identité visuelle et leurs logos, que ce soit pour le marketing, la publicité ou le design produit.&lt;/p&gt;&lt;p data-block-key="t1ue"&gt;Aujourd'hui, nous allons vous montrer comment développer l'identité visuelle de votre marque en créant un logo à l'aide d'&lt;b&gt;Imagen 3&lt;/b&gt;, de &lt;b&gt;Gemini&lt;/b&gt; et de la bibliothèque Python &lt;b&gt;Pillow&lt;/b&gt;.&lt;/p&gt;&lt;h3 data-block-key="4tu1u"&gt;Commencez par générer des visuels avec Imagen 3&lt;/h3&gt;&lt;p data-block-key="91goh"&gt;Imagen 3 est capable de créer des images extrêmement réalistes et de très haute qualité à partir de simples prompts (instructions textuelles), surpassant les versions précédentes d'Imagen en termes de gestion des détails, d'éclairage et d’artefacts (imperfections). La dernière évolution du modèle Imagen 3 (002) repousse encore les limites avec des rendus visuels plus séduisants, une interprétation plus précise des consignes et des rendus visuels globalement supérieurs.&lt;/p&gt;&lt;p data-block-key="5q00j"&gt;En pratique, voici comment fonctionne notre exemple : Imagen 3 génère les images initiales, Gemini sélectionne les plus pertinentes et les affine, tandis que &lt;a href="https://pypi.org/project/pillow/" target="_blank"&gt;Pillow&lt;/a&gt; (une bibliothèque de traitement d’images en Python) permet de la manipuler de façon précise et de l’intégrer à vos workflows. En combinant ces outils, vous pouvez développer votre identité de marque de manière à la fois personnalisée, optimisée et automatisée.&lt;/p&gt;&lt;p data-block-key="d3530"&gt;Imagen 3 s’appuie sur une interrogation en langage naturel (NLP) et transforme les instructions textuelles en images de haute qualité. Mais &lt;b&gt;le véritable secret d’une image parfaite réside dans le couplage d'Imagen avec le processus de sélection de Gemini&lt;/b&gt;.&lt;/p&gt;&lt;p data-block-key="bsbpu"&gt;Voici comment s’enchaînent les modèles pour optimiser la création et la sélection du meilleur visuel :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_fEHruBh.max-1000x1000.png"
        
          alt="Imagen1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="q0cep"&gt;Prenons un exemple concret pour illustrer la démarche : imaginons que vous ouvriez un café nommé « Layo Cafe ». Vous souhaitez créer un visuel qui incarne l'esthétique moderne et accueillante de votre marque.&lt;/p&gt;&lt;p data-block-key="2n56u"&gt;Voici comment combiner Imagen et Gemini :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="jnho"&gt;&lt;b&gt;Décrivez votre vision de la marque&lt;/b&gt; en fournissant à Imagen une première description. Exemple de description : « &lt;i&gt;Créer une image pour la campagne d'un nouveau café&lt;/i&gt; ». Gemini reformulera votre demande pour générer une description plus pertinente, comme : « &lt;i&gt;Image photoréaliste d'un intérieur de café moderne et lumineux, mettant en scène une tasse de café fumante sur une table minimaliste, baignée dans une lumière naturelle et chaleureuse. L'accent est mis sur le café et l'ambiance accueillante&lt;/i&gt; ».&lt;/li&gt;&lt;li data-block-key="bghc1"&gt;&lt;b&gt;Générez différentes options&lt;/b&gt; : Imagen va produire plusieurs propositions différentes à partir de la description fournie.&lt;/li&gt;&lt;li data-block-key="3kq6n"&gt;&lt;b&gt;Sélection par Gemini&lt;/b&gt; : Gemini, le LLM multimodal de nouvelle génération de Google, analyse chaque image, prenant en compte des critères comme l'esthétique, la lisibilité et la cohérence avec l'identité de marque pour ensuite sélectionner l'option la plus appropriée.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="54mg3"&gt;Dans cet exemple, Gemini a généré 4 images :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_eFlWYrV.max-900x900.png"
        
          alt="Imagen2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="q0cep"&gt;Lorsqu'on demande à Gemini quelle image répond mieux aux objectifs, il répond la première. Pourquoi ? Selon les critères définis, elle offre le meilleur équilibre : on y voit une tasse de café avec un latte art fumant, dans un cadre moderne et lumineux, baigné de la lumière naturelle et chaleureuse qui filtre à travers de grandes fenêtres. L'arrière-plan délicatement flouté maintient l'attention sur le café. L'esthétique générale est accueillante et séduisante, susceptible d'attirer la clientèle. Dans les autres images, il manque soit le latte fumant (essentiel pour mettre en valeur les créations du café), soit la lumière chaleureuse et accueillante.&lt;/p&gt;&lt;p data-block-key="egfa2"&gt;Vous pouvez ajuster ou compléter les instructions données à Gemini en fonction du résultat escompté afin de sélectionner la meilleure image en fonction de vos attentes et du cas d’usage spécifique.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_L8QaOFO.max-1100x1100.png"
        
          alt="Imagen3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="q0cep"&gt;Passez à l’étape de l’intégration de votre logo&lt;/h3&gt;&lt;p data-block-key="1o5mb"&gt;Maintenant que vous possédez une image adaptée, il est temps de l'intégrer à vos supports marketing. Pour concrétiser cette étape, nous allons combiner nos deux modèles IA Gemini et Imagen avec la bibliothèque Pillow.&lt;/p&gt;&lt;p data-block-key="6ggba"&gt;Voici, visuellement, comment s’enchaînent les étapes et l’utilisation des outils :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_Z78cWqn.max-1100x1100.png"
        
          alt="Imagen4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="q0cep"&gt;Reprenons maintenant les étapes précédentes et ajoutons-y les intégrations évoquées :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="82qtj"&gt;&lt;b&gt;Plantez le décor&lt;/b&gt; : fournissez à Imagen une description de l'image souhaitée, par exemple, « &lt;i&gt;Créer une image pour la campagne d'un nouveau café&lt;/i&gt; ». Gemini reformulera votre demande pour générer un prompt plus efficace, comme : « &lt;i&gt;Image photoréaliste d'un intérieur de café moderne et lumineux, présentant une tasse de café fumante sur une table minimaliste, baignée dans une lumière naturelle et chaleureuse. L'accent est mis sur le café et l'ambiance accueillante&lt;/i&gt; ».&lt;/li&gt;&lt;li data-block-key="et2ib"&gt;&lt;b&gt;Demandez à Gemini de sélectionner la meilleure image en fonction des objectifs de votre marque&lt;/b&gt; : Gemini analyse les images générées et sélectionne celle qui représente le mieux votre marque tout en respectant l'esthétique recherchée.&lt;/li&gt;&lt;li data-block-key="6da3c"&gt;&lt;b&gt;Répétez le processus (étape 1 et 2) pour créer un nouveau logo&lt;/b&gt; ou, si vous en avez déjà un, passez à l'étape suivante.&lt;/li&gt;&lt;li data-block-key="1oup3"&gt;&lt;b&gt;Intégrez avec Pillow&lt;/b&gt; : la bibliothèque Pillow permet d'ajouter votre logo Layo Cafe à l'image préalablement sélectionnée. Gemini est d’abord interrogé afin d’optimiser automatiquement le placement et la taille du logo pour un impact visuel maximal. Les informations fournies par Gemini sont ensuite récupérées pour intégrer le logo dans l’image préalablement sélectionnée à travers quelques lignes de code Python très simples et l’utilisation de la bibliothèque Pillow.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="2eth0"&gt;Dans ce cas, voici la meilleure option de logo retenue :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_LBWuSDB.max-1300x1300.png"
        
          alt="Imagen 5"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="q0cep"&gt;Et pour finir, captez l'attention avec un message&lt;/h3&gt;&lt;p data-block-key="dkd1j"&gt;Enrichissez vos visuels en y intégrant un message. L’ajout d’une accroche mémorable ou d’une promotion attractive, intégrée à vos images générées par IA, est toujours un moyen efficace pour mieux capter votre audience.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ol&gt;&lt;li data-block-key="q0cep"&gt;&lt;b&gt;Rédigez votre message&lt;/b&gt; : choisissez le texte à ajouter à votre image. Par exemple, « &lt;i&gt;Layo Café : Votre dose quotidienne d'inspiration&lt;/i&gt; ».&lt;/li&gt;&lt;li data-block-key="fg9ou"&gt;&lt;b&gt;Appliquez le texte sur l’image avec Pillow&lt;/b&gt; : cette bibliothèque de traitement d'images Python agit comme un pinceau d'artiste, intégrant le texte à l'image selon les recommandations de Gemini (qui à travers un prompt peut indiquer à Pillow où et comment placer au mieux l’accroche textuelle). Avec Pillow, le texte s’intègre de manière naturelle, permettant d'obtenir un résultat final très soigné.&lt;/li&gt;&lt;li data-block-key="6t5v0"&gt;&lt;b&gt;Ciblez des audiences partout dans le monde&lt;/b&gt; : l’un des grands avantages de ce processus de pouvoir ajouter du texte dans n'importe quelle langue sur vos images. Il suffit de demander à Gemini de traduire le texte d’origine dans les différentes langues ciblées. Cette prise en charge multilingue élargit vos horizons créatifs : vous pouvez adresser différents publics à l’international avec des messages adaptés.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="8smhk"&gt;Assemblons les différents éléments du projet. Voici le logo et le texte, intégrés à la meilleure image générée par Imagen.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/7_BYV5LPl.max-1100x1100.png"
        
          alt="Imagen6"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="q0cep"&gt;Passez à l'action dès aujourd'hui !&lt;/h3&gt;&lt;p data-block-key="17jrf"&gt;En combinant les capacités créatives d'Imagen avec les fonctionnalités intelligentes de sélection et de design de Gemini, vous pouvez créer un logo, développer des supports marketing personnalisés et enrichir votre storytelling visuel. Si vous souhaitez consulter le code de notre projet et obtenir davantage d’exemples, vous pouvez les retrouver sur &lt;a href="https://github.com/LUJ20/Blog/blob/main/Imagen_text_logo_add.ipynb" target="_blank"&gt;GitHub&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 10 Mar 2025 12:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/creer-un-logo-percutant-pour-sa-marque-avec-imagen-3-et-gemini/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Créer un logo percutant pour sa marque avec Imagen 3 et Gemini</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/creer-un-logo-percutant-pour-sa-marque-avec-imagen-3-et-gemini/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Layolin Jesudhass</name><title>Customer Engineer - Data &amp; Analytics, Google</title><department></department><company></company></author></item><item><title>Quand l’IA métamorphose la productivité du développeur dans tous les domaines</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/quand-lia-metamorphose-la-productivite-du-developpeur-dans-tous-les-domaines/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4v5ih"&gt;L’environnement du développement logiciel est en constante évolution et des objectifs trop ambitieux, des technologies complexes ou encore des priorités changeantes peuvent engendrer beaucoup de frustration chez les développeurs. D’autant qu’ils subissent aussi une pression toujours croissante pour livrer plus rapidement, travailler de façon plus efficace tout en garantissant une sécurité robuste. Et si un moyen existait pour dépasser tous ces obstacles ? Une façon d'insuffler une nouvelle dynamique à vos projets, d'inspirer vos équipes et de simplifier le chemin vers le succès ?&lt;/p&gt;&lt;p data-block-key="e31ph"&gt;En plein essor, l'IA générative change la donne et s’impose comme un catalyseur fondamental de productivité dans tous les aspects du développement. Dans cet article, nous vous proposons de découvrir quelques exemples mettant en évidence le rôle capital désormais joué par l'IA dans la transformation des tâches et des rôles dans le développement logiciel.&lt;/p&gt;&lt;h3 data-block-key="2bj3i"&gt;L'impact « full-stack » de l'IA&lt;/h3&gt;&lt;p data-block-key="1t59f"&gt;Le développement logiciel englobe diverses disciplines d'ingénierie, toutes axées sur la création de solutions appréciées des utilisateurs. Ces disciplines incluent le développement d'applications, le DevOps, la fiabilité des sites, le Machine Learning, les données, la sécurité, l'assurance qualité et l'architecture logicielle. Imaginez une technologie capable de stimuler la productivité dans tous ces domaines. L'IA révolutionne la façon dont les développeurs construisent, exploitent et sécurisent les logiciels : adopter cette technologie peut propulser l'innovation à des sommets jamais atteints dans votre organisation.&lt;/p&gt;&lt;h3 data-block-key="9a7r9"&gt;Au-delà du code : la révolution du développement logiciel&lt;/h3&gt;&lt;p data-block-key="6ccb"&gt;Avec leur capacité à créer du code standard, à suggérer des complétions de code et même à générer des fonctions ou des classes entières, &lt;a href="https://cloud.google.com/blog/products/application-development/gen-ai-and-app-development-tools-and-partnerships?e=48754805&amp;amp;hl=en"&gt;les solutions de génération de code&lt;/a&gt; sont au cœur de toutes les conférences technologiques d’aujourd’hui. Elles libèrent les développeurs, qui peuvent ainsi se concentrer sur le design et la logique de haut niveau. Mais les avantages vont au-delà de la simple génération de code.&lt;/p&gt;&lt;p data-block-key="71dtf"&gt;&lt;b&gt;Conception : une innovation accélérée&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="2b056"&gt;L'IA joue aujourd’hui un rôle crucial dans &lt;a href="https://research.google/pubs/ai-powered-patching-the-future-of-automated-vulnerability-fixes/" target="_blank"&gt;la détection, la prévention et la correction des bugs&lt;/a&gt;, ainsi que dans les tests automatisés. Elle aide à identifier les bugs potentiels plus tôt dans le processus de développement, réduisant ainsi considérablement le temps passé sur le débogage tout en améliorant l'expérience des développeurs.&lt;br/&gt; Des entreprises comme &lt;a href="https://cloud.google.com/customers/mabl"&gt;mabl&lt;/a&gt; ont conçu des logiciels d'automatisation de tests en s’appuyant sur Google Cloud et le ML. Les outils de génération de tests, d'exécution et d'analyse statique pilotés par l'IA contribuent à des cycles de livraisons plus rapides et à des logiciels plus fiables.&lt;/li&gt;&lt;li data-block-key="27m5m"&gt;Lorsque les data ingénieurs et les analystes peuvent se concentrer sur l'extraction d’informations, leur satisfaction au travail augmente. &lt;a href="https://cloud.google.com/gemini/docs/bigquery/overview?hl=fr"&gt;Gemini dans BigQuery&lt;/a&gt; accélère les tâches complexes, comme l'exploration de données, les transformations et la compréhension de requêtes, permettant ainsi aux data ingénieurs et aux analystes de consacrer leur temps à des tâches plus stratégiques. L'IA peut aussi aider les ingénieurs ML à identifier les caractéristiques pertinentes pour les modèles, favorisant ainsi de meilleures performances.&lt;/li&gt;&lt;li data-block-key="2e5hi"&gt;Les administrateurs de bases de données peuvent directement améliorer l'expérience utilisateur en s’appuyant sur &lt;a href="https://cloud.google.com/products/gemini/databases?hl=fr"&gt;Gemini dans les bases de données&lt;/a&gt; afin d’analyser les requêtes et suggérer des optimisations qui améliorent in fine les performances des applications.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="dpbiv"&gt;&lt;b&gt;Exploitation : de l’efficacité et de la résilience&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="esi2c"&gt;Une expérience utilisateur de qualité ne s'arrête pas à la conception de la solution. En réalité, elle commence dès que le développeur soumet son code. Si une application est insuffisamment testée ou si elle fonctionne lentement ou se révèle instable en production, c’est toute l’expérience utilisateur qui s’en trouve ruinée. L'IA peut révolutionner ce processus. Elle peut optimiser les pipelines CI/CD, en automatisant des tâches comme le déploiement de code, les tests et la supervision. Résultat, les livraisons sont plus rapides et plus fiables.&lt;/p&gt;&lt;p data-block-key="ft5gj"&gt;Pour garantir la résilience des solutions, les opérationnels sont souvent confrontés à une immense pression : lorsqu’un problème survient, le niveau d’urgence pour le résoudre est généralement bien supérieur à celui d’un développeur devant gérer un problème. Des assistants IA comme &lt;a href="https://cloud.google.com/products/gemini/cloud-assist?e=48754805&amp;amp;hl=en#common-uses"&gt;Gemini Cloud Assist&lt;/a&gt; apportent une aide inestimable dans ces situations, analysant les journaux système et les données de performance pour identifier rapidement la source des incidents, ce qui réduit les délais d’interruption de service et améliore la fiabilité globale des systèmes. De plus, l'IA permet aux SRE de prévoir l'utilisation des ressources, favorisant ainsi l’optimisation de l'infrastructure tout en garantissant une capacité optimale pour répondre à la demande.&lt;/p&gt;&lt;p data-block-key="8b9tt"&gt;&lt;b&gt;Sécurité : une approche proactive&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="ac8ml"&gt;À l'ère du DevSecOps, la sécurité devient véritablement la responsabilité de tous. L'IA permet aux responsables de la sécurité d'analyser plus efficacement les journaux et le trafic réseau : elle identifie les menaces potentielles et automatise les réactions, réduisant ainsi le risque de violations. &lt;a href="https://cloud.google.com/chronicle/docs/secops/gemini-chronicle?hl=fr"&gt;Gemini dans Google SecOps&lt;/a&gt; simplifie la recherche, l'analyse de données complexes et la remédiation des menaces dans le cadre de la détection et de la réponse aux attaques.&lt;/p&gt;&lt;p data-block-key="cp04h"&gt;De plus, les outils basés sur l'IA peuvent fournir un retour en temps réel sur la sécurité du code : en aidant les développeurs à écrire un code plus sûr dès le début, ils déplacent efficacement le curseur de la sécurité plus en amont dans le processus de développement.&lt;/p&gt;&lt;p data-block-key="3hm4c"&gt;Le DevSecOps lui-même est une philosophie culturelle et technique qui met l'accent sur la collaboration entre les équipes de développement, d'exploitation et de sécurité. L'IA agit comme le complément idéal du DevSecOps, fournissant des outils et des informations qui permettent à chaque ingénieur de contribuer à la sécurité et à la fiabilité globales du logiciel qu'ils construisent.&lt;/p&gt;&lt;h3 data-block-key="t2pl"&gt;Donnez des ailes à vos futurs développements&lt;/h3&gt;&lt;p data-block-key="begnl"&gt;Exploiter le pouvoir transformateur de l'IA peut donner un réel coup d'accélérateur à l'innovation au sein de votre entreprise. Toutefois, une démarche couronnée de succès avec l’IA qui renforce l’autonomie de vos équipes suppose une approche stratégique. Pour maîtriser les capacités de votre entreprise à construire des applications modernes à l'ère de l'IA, réalisez une &lt;a href="https://partnerdash.google.com/apps/srf-assessment-qa/app/assessment/gsp/bnapps" target="_blank"&gt;évaluation&lt;/a&gt;. Une fois l’évaluation terminée, vous recevrez des recommandations avec un plan d'action.&lt;br/&gt; Contactez &lt;a href="https://cloud.google.com/contact?hl=fr"&gt;votre service commercial Google Cloud&lt;/a&gt; au sujet du programme pilote Gemini Code Assist for Developers qui propose des ateliers guidés, une démarche par étapes avec points de contrôle et des cas d’usage afin d’accroître la productivité et la satisfaction de vos développeurs. Nos experts en solutions peuvent partager des recommandations, des meilleures pratiques et des conseils sur l'intégration de l'IA dans le développement logiciel. Pour plus d'informations sur les solutions, consultez notre &lt;a href="https://cloud.google.com/products/gemini"&gt;documentation&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 31 Jan 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/quand-lia-metamorphose-la-productivite-du-developpeur-dans-tous-les-domaines/</guid><category>Application Development</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Quand l’IA métamorphose la productivité du développeur dans tous les domaines</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/quand-lia-metamorphose-la-productivite-du-developpeur-dans-tous-les-domaines/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Anto Joseph</name><title>Customer Architect</title><department></department><company></company></author></item><item><title>ADEO automatise la création de ses fiches produits avec l’IA générative Gemini Flash</title><link>https://cloud.google.com/blog/fr/topics/clients/adeo-automatise-la-creation-de-ses-fiches-produits-avec-lia-generative-gemini-flash/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="oo9c1"&gt;&lt;b&gt;&lt;i&gt;À propos du groupe ADEO&lt;/i&gt;&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="a3rsd"&gt;&lt;i&gt;ADEO est leader en Europe et le 3e acteur mondial du marché de l’amélioration de l’habitat et du DIY (Do It Yourself). Grâce à son réseau de plus de 1 000 points de vente, de marketplaces et de partenariats avec des acteurs technologiques puissants, ADEO distribue ses produits et services pour un habitat positif dans 23 pays à travers le monde.&lt;/i&gt;&lt;/p&gt;&lt;hr/&gt;&lt;p data-block-key="844ih"&gt;&lt;/p&gt;&lt;p data-block-key="s62s"&gt;Leroy Merlin, Bricoman, Weldom, Saint Maclou… ADEO est peut-être un nom qui ne vous est pas familier. Et pourtant, derrière ce géant se cachent les enseignes les plus appréciées des français en matière de bricolage, de jardinage et de décoration d’intérieur. ADEO est le premier acteur du secteur du bricolage en France et le troisième dans le monde et sert plus de 500 millions de clients en 2023.&lt;/p&gt;&lt;p data-block-key="5pdu3"&gt;Fort de sa présence internationale, ADEO gère un portefeuille de plus de 15 millions de références produits. Dans un marché où la concurrence est féroce et où l'expérience client est devenue un facteur différenciant clé, ADEO a rapidement identifié un enjeu crucial pour ses clients et ses fournisseurs : optimiser la qualité des descriptions produits sur ses marketplaces en s’appuyant sur le potentiel de l’IA.&lt;/p&gt;&lt;h3 data-block-key="8405p"&gt;&lt;b&gt;L’IA générative au service de l’expérience client&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="92gim"&gt;« &lt;i&gt;Dans ce secteur ultra-concurrentiel, où la qualité des services en ligne est cruciale pour capter l’attention des clients et attirer des vendeurs sur les marketplaces, la création de fiches produit précises et attrayantes est une prestation clé&lt;/i&gt; », indique Djamel Mostefa, Head of Data chez ADEO. « &lt;i&gt;Ces fiches sont déterminantes dans l’acte d’achat et influencent aussi la visibilité sur les moteurs de recherche. Avec plus de 15 millions de références, créer des descriptions produits convaincantes était devenu un véritable défi pour nos équipes et les fournisseurs qui proposent leurs articles sur nos marketplaces&lt;/i&gt; ». Jusqu’ici réalisé manuellement, ce travail était non seulement chronophage mais également de qualité variable si on prend en compte les facteurs influençant la productivité de l’homme au quotidien.&lt;/p&gt;&lt;p data-block-key="3tmse"&gt;Face à cette situation, ADEO a recours à une technologie d’intelligence artificielle générative, capable de simplifier et d’accélérer ce travail, tout en optimisant la cohérence et la qualité des descriptions. L'objectif est double : d'une part, simplifier le processus de mise en ligne des produits pour les équipes internes et les fournisseurs et, d'autre part, améliorer l'expérience utilisateur en offrant des descriptions plus précises et qualitatives.&lt;/p&gt;&lt;h3 data-block-key="akg0k"&gt;&lt;b&gt;Innovation efficiente, sécurisée et responsable avec Gemini Flash&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cdf7c"&gt;Après avoir testé plusieurs options, ADEO s’est finalement tourné vers Google Cloud, adoptant à cette occasion Vertex AI et le modèle Gemini Flash. Plusieurs critères expliquent ce choix : Avec plus de 15 millions de références à gérer, la société avait besoin d’une solution capable de gérer de grosses volumétries tout en proposant des performances optimales. Dans le secteur du retail, la différence se joue sur des critères comme les temps de réponse, la moindre latence pouvant entraîner des abandons d’achat.&lt;/p&gt;&lt;p data-block-key="4pams"&gt;Parallèlement, l’apprentissage de Gemini Flash garantissait à ADEO une efficience rapide : l’étendue de son entraînement, basée sur des données globales du web, permet de générer automatiquement des fiches précises et complètes, accélérant ainsi de façon significative le processus de description des produits.&lt;/p&gt;&lt;p data-block-key="1uql8"&gt;Autre critère, particulièrement important pour ADEO, la conformité et la sécurité des données garanties par Google Cloud, ainsi que l’explique Djamel Mostefa : «&lt;i&gt; La protection des données de nos entreprises et celles de nos clients sont la priorité chez ADEO. Notre conviction était d'utiliser une solution sur le marché de l'IA qui n'utilise pas les données clients pour perfectionner son modèle. Google Cloud s’est clairement démarqué dans ce domaine en nous offrant des garanties solides : les données partagées sur leur plateforme ne sont en aucun cas utilisées pour l'entraînement des modèles de GCP. Cette assurance de confidentialité a joué un rôle décisif dans notre décision&lt;/i&gt; ».&lt;/p&gt;&lt;h3 data-block-key="fj9h9"&gt;&lt;b&gt;Une mise en œuvre très rapide&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="3idu5"&gt;Le projet a démarré en juillet 2022. Il comporte deux volets : d’une part la classification des produits avec un modèle développé en interne et entrainé avec les données d’ADEO qui permet, par exemple, de ranger automatiquement une perceuse dans la catégorie outillage et, d’autre part, la génération automatisée de descriptions avec Gemini Flash. Les équipes d’ADEO ont intégré Gemini Flash au Product Information Management System (PIM) de la société. Cette intégration, facilitée par les APIs proposées par Vertex AI, permet à l'IA de générer automatiquement les fiches produit sur la base des données limitées fournies par les partenaires (généralement un titre et une courte description), additionnées aux connaissances de Gemini Flash.&lt;/p&gt;&lt;p data-block-key="f3rcs"&gt;Plus concrètement, les fournisseurs téléchargent un fichier CSV contenant les titres et descriptions sommaires des produits dans le PIM d’ADEO. Chaque produit est ensuite catégorisé par le modèle de classification et Gemini Flash prend ensuite le relais et propose une fiche produit. Le fournisseur valide ou corrige la description avant sa mise en ligne.&lt;/p&gt;&lt;p data-block-key="edbia"&gt;Particulièrement rapide, la mise en œuvre de la solution a été réalisée en moins de cinq mois. Dès novembre 2023, ADEO déployait son projet en Espagne, puis au Portugal, en Italie et plus récemment en Pologne, l’objectif étant de couvrir progressivement les 20 pays dans lesquels l’entreprise est présente.&lt;/p&gt;&lt;h3 data-block-key="29sqq"&gt;&lt;b&gt;Une nouvelle ère où l’IA booste la compétitivité et le time-to-market&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="66gbd"&gt;Fluide, parfaitement intégré et garantissant l’exactitude des informations, « &lt;i&gt;ce processus de génération automatisée des fiches produits&lt;/i&gt; &lt;i&gt;a considérablement réduit le temps nécessaire pour mettre un produit en ligne, ce qui constitue bien entendu un avantage concurrentiel indéniable. À ce stade, nous ne possédons pas encore de métriques précises mais nous sommes convaincus des bénéfices, d’autant que les réactions de nos fournisseurs sont très positives : ils apprécient notamment la facilité d’utilisation et les gains en efficacité&lt;/i&gt; », précise Djamel Mostefa.&lt;/p&gt;&lt;p data-block-key="bscqr"&gt;Si ADEO n’a pas encore pu mesurer l’impact du service sur le taux de conversion ou le panier moyen, la société connaît, en revanche, très précisément l’incidence de l’IA sur la qualité des fiches produits : « &lt;i&gt;La couverture des attributs produits est passée de 27 % à 87 % grâce à l’utilisation de l’IA générative, autrement dit nos fiches sont bien plus précises et complètes&lt;/i&gt; », souligne Djamel Mostefa. &lt;i&gt;« Or, cette précision revêt un enjeu compétitif majeur. Imaginez : un client cherche un produit bleu, nous l'avons en stock, mais notre fiche produit ne le mentionne pas. Résultat ? Une vente perdue sur un simple manque d'information&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="2c699"&gt;ADEO prépare déjà la prochaine étape : « &lt;i&gt;Nous prévoyons d’étendre l'utilisation de l'IA pour améliorer également les descriptions des produits déjà présents dans nos bases. Gemini Flash et Vertex AI nous permettent d'accélérer les développements, sans avoir recours à des expertises spécialisées car les solutions sont très accessibles. Les avantages sont multiples : qualité accrue des fiches produits, processus simplifié pour les fournisseurs et expérience client améliorée. Avec en bonus un référencement des produits optimisé, ce qui augmente notre potentiel commercial&lt;/i&gt; », conclut Djamel Mostefa.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 17 Jan 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/clients/adeo-automatise-la-creation-de-ses-fiches-produits-avec-lia-generative-gemini-flash/</guid><category>AI &amp; Machine Learning</category><category>Customers</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>ADEO automatise la création de ses fiches produits avec l’IA générative Gemini Flash</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/clients/adeo-automatise-la-creation-de-ses-fiches-produits-avec-lia-generative-gemini-flash/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Découvrez comment l'IA générative transforme l'expérience du service client</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-comment-lia-generative-transforme-lexperience-du-service-client/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="8f8lg"&gt;Si au cours de l’année écoulée vous avez eu l’occasion d’échanger avec Gemini, Bard, ou une autre IA générative, vous avez probablement pu constater à quel point ce type de technologie va bouleverser le futur des entreprises. D’autant plus que les fonctionnalités d’IA générative deviennent chaque jour plus accessibles. Dès lors, vous vous demandez probablement comment exploiter ce potentiel au sein de votre organisation. &lt;a href="https://cloud.google.com/blog/transform/the-prompt-choosing-your-first-custom-generative-ai-use-cases?hl=en"&gt;Les cas d’usages générant de la valeur ajoutée ne manquent pas&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="a3tur"&gt;Mais si vous cherchez par où bien commencer, regardez du côté du service client, et plus particulièrement du centre de contact. Ces cas d’usage présentent l’avantage d’engendrer peu de risque avec un retour sur investissement clair et mesurable, notamment en termes d’augmentation du NPS (Net Promoter Score - mesure de fidélité des clients) et du CSAT (Customer Satisfaction), d’accroissement de la productivité des collaborateurs mais aussi d’économies significatives sur l’opérationnel.&lt;/p&gt;&lt;p data-block-key="1ll3e"&gt;La plupart des entreprises ont un centre de contact, ou un service similaire pour gérer la relation avec les clients. Or, les responsables de ces services cherchent en permanence de nouveaux moyens pour améliorer la satisfaction des clients, réduire les coûts, optimiser les délais de traitement des requêtes et identifier les opportunités de vente incitative et/ou croisée. Cette quête d’optimisation est d’autant plus difficile, qu’ils sont souvent confrontés à de nombreux défis liés à l'infrastructure existante, à la rotation du personnel ou encore à la réduction des budgets. Bonne nouvelle ! Le cloud combiné à l’essor de l’IA générative changent la donne, facilitant de manière considérable la modernisation des centres de contacts.&lt;/p&gt;&lt;p data-block-key="3oq7j"&gt;A Next 23, nous avons eu le plaisir d’échanger sur nos solutions d’IA conversationnelles et sur les réalisations de clients tels que &lt;a href="https://youtu.be/h-zFjQKKf0I?t=1633" target="_blank"&gt;Gen Digital&lt;/a&gt;, &lt;a href="https://youtu.be/h-zFjQKKf0I?t=2463" target="_blank"&gt;Wells Fargo&lt;/a&gt;, &lt;a href="https://youtu.be/RpkdsTE4ekA?t=1831" target="_blank"&gt;ING&lt;/a&gt; ou encore &lt;a href="https://youtu.be/RpkdsTE4ekA?t=2301" target="_blank"&gt;Six Flags&lt;/a&gt; qui ont adopté nos offres Google Cloud Vertex AI Conversation et Contact Center AI.&lt;/p&gt;&lt;h3 data-block-key="e6sep"&gt;Assister l’agent en temps réel : première étape évidente&lt;/h3&gt;&lt;p data-block-key="e9shu"&gt;De nombreux DSI et responsables de l’expérience client nous demandent par quel bout aborder le problème. &lt;a href="https://cloud.google.com/agent-assist"&gt;Agent Assist&lt;/a&gt; de Google Cloud est sans aucun doute l’outil le plus adapté pour réaliser un premier pas rapide en prenant un minimum de risques. Facile à déployer et ne nécessitant pratiquement aucune personnalisation, Agent Assist fonctionne en tandem avec l’agent humain dans un environnement parfaitement sécurisé. Il fournit de nombreux indicateurs clés de performance, tels que le temps moyen qu’il faut à un agent pour résoudre une demande client, le CSAT ou encore le NPS. Raison pour laquelle nous considérons qu’Agent Assist est un excellent moyen pour bien commencer la transformation des centres de contact en capitalisant sur le potentiel de l’IA générative.&lt;/p&gt;&lt;p data-block-key="3gaie"&gt;Alimenté par l'IA générative, Agent Assist rend vos agents humains plus rapides, plus précis et globalement plus productifs :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="c1los"&gt;&lt;b&gt;La transcription en temps réel&lt;/b&gt;, capable de prendre en compte les informations sensibles ou personnelles (PII) pour les masquer ou les supprimer, permet à l'agent de se concentrer sur l'appel sans se préoccuper de la prise de notes.&lt;/li&gt;&lt;li data-block-key="1dnl7"&gt;&lt;b&gt;Un bot interne intégré à la console de l'agent&lt;/b&gt; écoute la conversation et lui propose des réponses et des suggestions en temps réel, l'aidant ainsi à apprendre et à répondre plus rapidement aux questions et aux demandes.&lt;/li&gt;&lt;li data-block-key="bk31m"&gt;&lt;b&gt;La fonctionnalité « synthèse »&lt;/b&gt; permet d’obtenir des récapitulatifs de haute qualité, structurés et complets lorsque le client est basculé entre les agents virtuels et humains ainsi que des résumés en fin d’appel. Les agents gagnent ainsi un temps précieux et le taux de satisfaction des clients augmente de façon significative lorsqu’ils rappellent car ils n’ont pas à répéter leur historique. Parallèlement, les responsables des centres de contact disposent de données sur la conformité ainsi que pour réaliser leurs analyses.&lt;/li&gt;&lt;li data-block-key="e2m7u"&gt;&lt;b&gt;La fonction coaching&lt;/b&gt; fournit des recommandations aux agents à la fin d'un appel portant sur leur comportement en général ainsi que des conseils sur les opportunités de vente incitative, de vente croisée et de conformité.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="8vjsh"&gt;Nous avons prévu d’ajouter très prochainement la traduction en temps réel, afin qu'un agent et un client puissent parler ou chatter chacun dans leur propre langue et se comprendre malgré tout grâce à une traduction simultanée et transparente réalisée par l'IA. Nous proposerons également le suivi et le coaching personnalisés en continu pour TOUS les agents, avec des fonctionnalités d’évaluation en temps réel (score cards), ainsi que le coaching et la formation personnalisés après l’appel.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_generative_AI_is_transforming_the_custom.max-1000x1000.png"
        
          alt="1 generative AI is transforming the customer service experience"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="fvkbp"&gt;Grâce à l'IA générative, vous pouvez fournir une assistance en temps réel aux agents humains qui leur permet d’être plus productifs et de proposer un meilleur service.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="8f8lg"&gt;Simplifier la recherche d’informations&lt;/h3&gt;&lt;p data-block-key="bsiiq"&gt;D'après mes échanges avec des clients, au moins 20 à 30 % des appels (souvent beaucoup plus) reçus par les centres d'appels sont des appels de clients qui cherchent des informations sur des sujets pour lesquels les réponses existent déjà. Ces réponses peuvent se trouver sur le site web de l'entreprise, dans un manuel ou dans une FAQ. Mais elles ne sont pas toujours évidentes à trouver et les clients n'ont souvent ni le temps ni la patience de les chercher. Dès lors, la plupart d’entre eux finissent par être dirigés vers un agent humain, même pour des questions relativement simples, parce que programmer les robots conversationnels ou vocaux traditionnels capables de fournir la bonne réponse à toutes les questions potentielles que quelqu'un pourrait poser est souvent trop complexe.&lt;/p&gt;&lt;p data-block-key="5ujk8"&gt;Avec &lt;a href="https://cloud.google.com/generative-ai-app-builder"&gt;Vertex AI Conversation&lt;/a&gt; et &lt;a href="https://cloud.google.com/dialogflow/"&gt;Dialogflow CX&lt;/a&gt;, nous avons simplifié le processus et conçu un agent dopé à l’IA générative, personnalisable et sécurisé, qui peut répondre à toutes ces questions de recherche d'informations à la place de l’agent.&lt;/p&gt;&lt;p data-block-key="8s3sg"&gt;Au lieu d’avoir à écrire des lignes de code pour programmer l’agent, il vous suffit de lui indiquer la source d’information pertinente : nom de domaine, emplacement de stockage… vous pouvez même télécharger des documents. Nous nous occupons du reste : après analyse des informations, nous créons un agent intelligent capable d’exploiter ce contenu pour échanger en langage naturel avec les clients. Cet agent va bien au-delà du simple LLM : il embarque des fonctions de recherche avancées, constamment mises à jour et rafraîchies, de sorte à vous éviter les problèmes des bots LLM « purs », tels que l'hallucination ou l’actualisation des informations.&lt;/p&gt;&lt;p data-block-key="8v7n8"&gt;En utilisant &lt;b&gt;Dialogflow Messaging Client&lt;/b&gt;, vous pouvez facilement intégrer l'agent à votre site web, à vos applications métiers, à votre messagerie ou encore à votre progiciel de centre de contact. Moyennant un investissement relativement faible, vous pouvez ainsi basculer rapidement et facilement un grand nombre d'appels au support vers du « libre-service » tout en augmentant la satisfaction client.&lt;/p&gt;&lt;h3 data-block-key="eq6fd"&gt;Connexion à l’existant pour réaliser des tâches&lt;/h3&gt;&lt;p data-block-key="bqam3"&gt;Répondre aux questions des clients est à la fois indispensable et permet d’obtenir un retour sur investissement très positif. Toutefois, afin d’aller plus loin dans l’automatisation de l’expérience client, vous aurez probablement envie que vos bots soient capables d’effectuer des actions, comme vérifier le statut d'une commande, accéder à une facture, mettre à jour les détails de paiement, planifier un rendez-vous, etc. Grâce aux extensions et connecteurs de Vertex AI, l’intégration du bot aux systèmes existants est d’une simplicité enfantine : il suffit de pointer vers l’application cible.&lt;/p&gt;&lt;p data-block-key="2l2d8"&gt;&lt;b&gt;Les connecteurs data de Vertex AI&lt;/b&gt; permettent d’avoir des applications toujours à jour et d’étendre la base de connaissance grâce à des accès - en lecture seule - aux sources d’informations de l’entreprise et aux applications tierces, telles que Salesforce, JRA ou Confluence. Ces connecteurs permettent de répertorier les informations de vos systèmes, de sorte que les utilisateurs disposent toujours des informations les plus récentes et les plus pertinentes.&lt;/p&gt;&lt;p data-block-key="f11v8"&gt;&lt;b&gt;Les extensions de Vertex AI&lt;/b&gt; permettent de récupérer des informations en temps réel et d’effectuer des actions en appelant les API des solutions Google Cloud ou des applications tierces. Il peut s'agir de tâches telles que la réservation d'un vol sur un site de voyage ou la soumission d'une demande de congés dans le système de gestion des ressources humaines interne. Nous proposons également des extensions pour des applications tierces telles que Gmail, Drive, BigQuery, Docs et des partenaires comme American Express, GitLab et Workday.&lt;/p&gt;&lt;p data-block-key="ali1m"&gt;Les extensions et les connecteurs de nos IA utilisent des standards ouverts, de sorte que les développeurs peuvent également intégrer leurs propres extensions.&lt;/p&gt;&lt;h3 data-block-key="2nfhe"&gt;Automatiser des tâches en quelques jours !&lt;/h3&gt;&lt;p data-block-key="56o5n"&gt;Afin de vous faire gagner du temps et de l’argent, &lt;a href="https://cloud.google.com/solutions/contact-center"&gt;Contact Center AI&lt;/a&gt; de Google Cloud propose en standard un large éventail de tâches courantes, prêtes à l’emploi, telles que s'authentifier, expliquer la facture, vérifier le statut de la commande, effectuer le paiement, etc. Cependant, toutes les entreprises ont également leurs tâches propres et leurs logiques métiers spécifiques. Afin de leur permettre de personnaliser au maximum les interactions et tâches automatisées, nous avons rendu le processus aussi simple et rapide que possible.&lt;/p&gt;&lt;p data-block-key="7ukme"&gt;Le temps où la programmation d’un agent virtuel ou d'un chatbot supposait des ingénieurs hautement experts est désormais révolu ! Aujourd’hui, avec l’IA générative, il suffit de décrire en langage naturel ce que l'on veut obtenir. Grâce à la nouvelle fonction &lt;b&gt;playbook&lt;/b&gt; de Vertex AI Conversation et Dialogflow CX, vous n'avez plus besoin d'experts en IA pour automatiser une tâche.&lt;/p&gt;&lt;p data-block-key="b52sp"&gt;Concrètement, vous expliquez en langage naturel à l’IA comment exécuter des tâches spécifiques et vous créez un agent playbook capable de suivre automatiquement un flux de travail (workflow). Des outils pratiques comme le playbook permettent de créer et déployer des bots conversationnels (vocaux ou tchat) boostés à l’IA en seulement quelques jours, voire en quelques heures, et non plus en quelques semaines ou mois.&lt;/p&gt;&lt;p data-block-key="3pvn3"&gt;Plutôt que de définir des processus pour chaque tâche spécifique, vous pouvez créer ces bots intelligents, animés par l’IA générative, une seule fois et les déployer sur différents canaux, tels que les applications mobiles et les sites web. Dès lors, quelle que soit la préférence de vos clients pour interagir avec votre organisation, ils auront toujours des réponses.&lt;/p&gt;&lt;p data-block-key="5dojv"&gt;Cette approche présente de nombreux avantages : l’expérience client est améliorée et vos agents humains libèrent du temps pour se concentrer sur les appels complexes.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/2_Vertex_AI_Search_and_Conversation.gif"
        
          alt="2 Vertex AI Search and Conversation.gif"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="fvkbp"&gt;La fonction playbook de Vertex AI Conversation (également disponible dans Dialogflow CX) vous permet d'utiliser le langage naturel pour définir les réponses et les actions que vos bots (vocaux et tchat) doivent exécuter, de la même manière que si vous donniez des instructions à un agent humain sur la façon de traiter les tâches.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="8f8lg"&gt;Construire des agents virtuels robustes avec l'IA générative : une approche globale&lt;/h3&gt;&lt;p data-block-key="a609a"&gt;Construire des agents virtuels est désormais une tâche aisée. Il suffit de suivre les trois étapes du processus suivant :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_generative_AI_is_transforming_the_custom.max-1000x1000.png"
        
          alt="3 generative AI is transforming the customer service experience"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="8f8lg"&gt;N'hésitez pas à visionner ce &lt;a href="https://www.youtube.com/watch?v=dUUT_JGfNyo" target="_blank"&gt;webinaire gratuit&lt;/a&gt; pour en savoir plus sur les agents virtuels basés sur l’IA générative.&lt;/p&gt;&lt;h3 data-block-key="9rgc1"&gt;Améliorer le traitement des appels complexes&lt;/h3&gt;&lt;p data-block-key="7utlg"&gt;L’IA générative excelle particulièrement dans le traitement des appels complexes. Grâce aux modèles fondation multimodaux, vos agents virtuels ou chatbots peuvent avoir des échanges qui mixent voix, texte, images et transactions.&lt;/p&gt;&lt;p data-block-key="dt6ge"&gt;Avec la fonction &lt;b&gt;compagnon d'appel&lt;/b&gt; (Call Companion, actuellement en préview) de Dialogflow CX, vous pouvez – durant l’appel vocal au VoiceBot – proposer une interface visuelle interactive directement sur le téléphone du client. Ce dernier peut aussi disposer d’options sur son téléphone pendant qu'il parle à un agent et partager des données sous forme de texte et d’images, comme des noms, des adresses, des adresses email, etc. Les clients peuvent également interagir pendant l’échange vocal via des éléments visuels, tels que des options de menus cliquables.&lt;/p&gt;&lt;p data-block-key="4l2ud"&gt;Des fonctionnalités telles que Call Companion enrichissent les échanges vocaux et permettent aux clients d'obtenir des réponses plus facilement et plus rapidement. La gestion des appels au support et aux services d’assistance s’en trouve accélérée et tout peut être géré par un agent virtuel du début à la fin.&lt;/p&gt;&lt;p data-block-key="b5mvg"&gt;N’hésitez pas à visionner cette &lt;a href="https://youtu.be/RpkdsTE4ekA?t=1609" target="_blank"&gt;démo&lt;/a&gt; effectuée lors de notre session Next '23 pour avoir un aperçu de la gestion d’appel complexe de bout en bout.&lt;/p&gt;&lt;h3 data-block-key="bl7i2"&gt;Générer de la valeur dès le premier jour&lt;/h3&gt;&lt;p data-block-key="bqffl"&gt;Selon les responsables de services clients, les limites imposées par l’infrastructure existante constituent un des principaux freins à la modernisation des centres de contact et des processus de support.&lt;/p&gt;&lt;p data-block-key="3p96e"&gt;L'année dernière, nous avons lancé &lt;a href="https://cloud.google.com/solutions/contact-center-ai-platform"&gt;Contact Center AI Platform&lt;/a&gt; (CCAI), une solution globale cloud-native de centre de contact en mode SaaS (Software as a Service). Axée sur l'utilisateur et sur la valeur ajoutée, la plateforme CCAI est sécurisée, évolutive et repose sur les dernières technologies en matière d'IA.&lt;/p&gt;&lt;p data-block-key="8187c"&gt;Avec la plateforme CCAI, toutes les fonctionnalités d'IA mentionnées ci-dessus sont exploitables dès le premier jour. Nous avons également lancé l’option &lt;a href="https://youtu.be/h-zFjQKKf0I?t=1208" target="_blank"&gt;CCAI-P « Intelligent Virtual Agent only&lt;/a&gt; », qui permet à votre centre de contact existant d'accéder tous nos services d'IA générative sur Google Cloud via un pipeline simple à mettre en place. Cette fonctionnalité permet de travailler avec n'importe quelle infrastructure, que vous soyez sur site ou que vous utilisiez une plateforme CCaaS qui ne fait pas partie du programme de partenariat Google Cloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_generative_AI_is_transforming_the_custom.max-1000x1000.png"
        
          alt="4 generative AI is transforming the customer service experience"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="fvkbp"&gt;La nouvelle plateforme CCAI "IVA-only" combine l’interface Dialogflow, Insights et Summarization (synthétisation des échanges) à l'infrastructure existante de votre centre de contact.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="8f8lg"&gt;Les derniers développements en matière d'IA générative suggèrent que le temps nécessaire à l’implémentation de ces technologies va continuer à s’amenuiser et mon équipe et moi-même nous nous efforçons d'aider les clients à rentabiliser leurs investissements dès le premier jour.&lt;/p&gt;&lt;p data-block-key="am0va"&gt;En collaboration avec les partenaires de Google Cloud, nous avons créé plusieurs packs pour vous aider à démarrer, quelle que soit votre maturité en matière d'IA. Peu importe votre infrastructure existante, vous pouvez bénéficier des dernières innovations du portefeuille Vertex AI. Consultez nos sessions dédiées à Vertex AI Conversation et Contact Center AI afin d'obtenir plus de détails sur toutes les innovations ou contactez votre &lt;a href="https://inthecloud.withgoogle.com/ccai-demo-request/cs-bsm.html?_gl=1*13dcnru*_ga*MTA1NDU3MDUwOC4xNzA1NjU4NDAx*_ga_WH2QY8WWF5*MTcxMTk3MTM3Ni4zNC4xLjE3MTE5NzI3NjkuMC4wLjA.&amp;amp;_ga=2.8371634.-1054570508.1705658401" target="_blank"&gt;équipe commerciale Google Cloud&lt;/a&gt; pour en savoir plus sur la façon dont vous pouvez tirer profit de l'IA générative dès aujourd'hui. Visitez également notre &lt;a href="https://cloud.google.com/conversational-ai?hl=fr"&gt;site Web&lt;/a&gt; pour vous tenir au courant des dernières technologies d'IA conversationnelle de Google Cloud.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 13 Nov 2024 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-comment-lia-generative-transforme-lexperience-du-service-client/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Découvrez comment l'IA générative transforme l'expérience du service client</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/decouvrez-comment-lia-generative-transforme-lexperience-du-service-client/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Yariv Adan</name><title>Sr. Director, Product Management, Google Cloud</title><department></department><company></company></author></item><item><title>Libérez tout le potentiel de l'IA générative avec BigQuery et Vertex AI</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="77lvi"&gt;Quelle organisation n’ambitionne pas aujourd’hui de &lt;a href="https://cloud.google.com/blog/products/databases/bigquery-and-alloydb-hit-major-milestone-with-ai-enabled-updates"&gt;s’ouvrir de nouvelles perspectives et de gagner en efficacité grâce à l’IA&lt;/a&gt; ? Mais pour concrétiser cette volonté, elle doit pouvoir s’appuyer sur une plateforme à même d’agréger toutes les données de l’entreprise, qu’elles soient structurées ou non, de façon simple, sécurisée, gouvernée, en toute transparence.&lt;/p&gt;&lt;p data-block-key="7031b"&gt;Pour les y aider, nous avons fait évoluer &lt;b&gt;BigQuery&lt;/b&gt; et &lt;a href="https://cloud.google.com/vertex-ai"&gt;&lt;b&gt;Vertex AI&lt;/b&gt;&lt;/a&gt; pour encore mieux interconnecter les données et les IA. Cette série d’innovations et d’améliorations change la donne dans l’adoption pratique de l’IA :&lt;/p&gt;&lt;p data-block-key="un9f"&gt;- Elle simplifie l'IA générative multimodale pour les données d'entreprise en rendant les modèles Gemini disponibles via BigQuery ML.&lt;/p&gt;&lt;p data-block-key="ehujh"&gt;- Elle permet d’exploiter toute la valeur des données non structurées en étendant l'intégration de BigQuery aux API de traitement de documents et de synthèse vocale de Vertex AI.&lt;/p&gt;&lt;p data-block-key="52i4t"&gt;- Elle libère la recherche assistée par l'IA dans toutes vos données d'entreprise grâce à l’intégration d’une recherche vectorielle au cœur de BigQuery.&lt;/p&gt;&lt;p data-block-key="eebhq"&gt;Cette intégration de l’IA au cœur de vos données grâce à la combinaison de BigQuery, de Vertex AI et de modèles développés par Google Cloud permet de démocratiser la puissance de l'IA générative à toutes vos équipes Data. Elle vous aide également à mieux tirer profit des LLM pour analyser et interpréter votre patrimoine informationnel, le plus simplement du monde, en langage naturel, afin d’améliorer vos prises de décision et faire parler vos données. La création d'analyses basées sur l'IA devient plus simple, plus rapide et plus sûre, tirant profit de l'architecture Serverless unique de BigQuery.&lt;/p&gt;&lt;h3 data-block-key="3v17n"&gt;Simplifier les cas d’usage de l'IA générative avec les modèles Gemini&lt;/h3&gt;&lt;p data-block-key="2ffk3"&gt;BigQuery ML vous permet de créer, d'entraîner et d'exécuter des modèles ML (Machine Learning) directement dans BigQuery en utilisant un langage SQL familier. Avec des clients qui exécutent des centaines de millions de requêtes de prédiction et d'entraînement chaque année, l'utilisation du ML intégré dans BigQuery a augmenté de 250 % en un an.&lt;/p&gt;&lt;p data-block-key="9qjrv"&gt;Aujourd'hui, nous allons un cran plus loin avec l'intégration de &lt;a href="https://cloud.google.com/vertex-ai/docs/generative-ai/model-reference/gemini"&gt;&lt;b&gt;Gemini 1.0 Pro&lt;/b&gt;&lt;/a&gt; via Vertex AI. Le modèle Gemini 1.0 Pro est conçu pour travailler à plus grande échelle et offrir une meilleure qualité de résultats dans un large éventail de tâches telles que le résumé de texte et l'analyse des sentiments. Vous pouvez désormais y accéder à l'aide de simples instructions SQL ou de &lt;a href="https://cloud.google.com/blog/products/data-analytics/building-aiml-apps-in-python-with-bigquery-dataframes"&gt;&lt;b&gt;l'API DataFrame&lt;/b&gt;&lt;/a&gt; intégrée à BigQuery.&lt;/p&gt;&lt;p data-block-key="m3o1"&gt;Vous pouvez ainsi facilement créer des pipelines de données qui mélangent des données structurées, des données non structurées et des modèles d'IA génératifs pour proposer à vos utilisateurs une nouvelle génération d'applications analytiques. Par exemple, vous pouvez analyser les commentaires des clients en temps réel et les combiner avec l'historique des achats et la disponibilité actuelle des produits pour générer des messages et des offres personnalisés, le tout sans quitter BigQuery. Pour en savoir plus sur l'intégration des modèles BigQuery et Gemini, &lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-text"&gt;cliquez ici&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="c3qb0"&gt;Et ce n’est qu’un début. Dans les prochains mois, nous débloquerons des cas d'usage encore plus ambitieux grâce à l'IA générative multimodale et la prise en charge du modèle &lt;a href="https://cloud.google.com/vertex-ai/docs/generative-ai/learn/models#gemini-models"&gt;&lt;b&gt;Gemini 1.0 Pro Vision&lt;/b&gt;&lt;/a&gt;. Il deviendra alors possible d'analyser des images, des vidéos et d'autres données complexes à l'aide de simples requêtes SQL familières. Par exemple, si vous travaillez avec un grand ensemble de données d'images dans BigQuery, vous pourrez exploiter le modèle Gemini 1.0 Pro Vision pour générer des descriptions d'images, les catégoriser pour en simplifier la recherche, identifier leurs caractéristiques clés comme les couleurs, l'ambiance générale, l’aspect visuel, et bien plus encore.&lt;/p&gt;&lt;h3 data-block-key="em5hu"&gt;Exploiter la valeur des données non structurées grâce à l'IA&lt;/h3&gt;&lt;p data-block-key="b8b89"&gt;Les données non structurées telles que les images, les documents et les vidéos représentent une grande partie des données inexploitées des entreprises. Cependant, elles se révèlent souvent difficiles à interpréter et en extraire des informations significatives n’est pas une mince affaire.&lt;/p&gt;&lt;p data-block-key="5vmni"&gt;&lt;a href="https://cloud.google.com/biglake"&gt;BigLake&lt;/a&gt; unifie les data lakes et les entrepôts de données sous un seul et même framework, vous offrant ainsi la possibilité d'analyser, de rechercher, de sécuriser, de gérer et de partager des données non structurées. Avec l'augmentation des volumes de données, l'utilisation de BigLake par nos clients a atteint plusieurs centaines de pétaoctets. Grâce à la puissance de BigLake, nos clients peuvent déjà &lt;a href="https://cloud.google.com/blog/products/data-analytics/how-simplify-unstructured-data-analytics-using-bigquery-ml-and-vertex-ai"&gt;analyser des images&lt;/a&gt; en utilisant une large gamme de modèles d'IA, notamment &lt;a href="https://cloud.google.com/vision?hl=en"&gt;les API de vision&lt;/a&gt; de Vertex AI, les modèles open-source de TensorFlow Hub ou leurs propres modèles personnalisés.&lt;/p&gt;&lt;p data-block-key="89aqc"&gt;Désormais, nous élargissons ces fonctionnalités pour vous aider à extraire aisément des insights à partir de documents et de fichiers audio en utilisant les API de traitement de documents et de transcription vocale de Vertex AI. Avec ces nouvelles fonctionnalités, vous pouvez aisément concevoir des applications d'IA générative capables de créer automatiquement du contenu, de catégoriser des données non structurées, d'analyser des sentiments, d'extraire des entités, de résumer des documents, etc.&lt;/p&gt;&lt;p data-block-key="45a3"&gt;Par exemple, pour effectuer une analyse financière plus poussée, il est possible de tirer parti de données telles que les revenus, les bénéfices et les actifs provenant de divers rapports financiers, puis de les combiner avec un ensemble de données BigQuery contenant l’historique des performances boursières. Autre exemple, pour améliorer le service client, il est possible d'analyser les enregistrements d'appels du support client pour détecter les sentiments, identifier les problèmes récurrents et corréler les informations issues des appels avec l'historique des achats.&lt;/p&gt;&lt;h3 data-block-key="a6i9q"&gt;Combiner la recherche vectorielle à vos données non structurées&lt;/h3&gt;&lt;p data-block-key="4rn"&gt;À l’occasion de Google Cloud NEXT’2024, nous avons annoncé la disponibilité générale de BigQuery Vector Search, le moteur de recherche vectorielle intégré à BigQuery et Vertex AI, permettant de réaliser simplement des recherches de similarité dans vos données BigQuery. Cette fonctionnalité, communément appelée « recherche de plus proche voisin approché », est essentielle pour déverrouiller de nouveaux cas d'usage de l'IA tels que la recherche sémantique, la détection de similarité et bien évidemment la génération augmentée par récupération (RAG) combinée à un LLM. Cette recherche vectorielle peut également améliorer la qualité de vos modèles IA en renforçant la compréhension du contexte, en réduisant l'ambiguïté, en assurant l'exactitude factuelle et en permettant une adaptabilité à différentes tâches et domaines.&lt;/p&gt;&lt;p data-block-key="2hd1j"&gt;Exemple typique, la recherche vectorielle peut aider les sites de vente à améliorer les recommandations de produits présentés aux clients. Prenons l’exemple d’une acheteuse en train de regarder une robe rouge sur votre site Web. La recherche vectorielle permet de proposer aisément d’autres produits en fonction de préférences stylistiques comme la couleur, la coupe, ou une réduction applicable. Grâce à cette technologie, le site peut automatiquement suggérer d’autres robes similaires même si leurs descriptions textuelles sont différentes (n’ont pas les mêmes mots clés par exemple) de sorte que les clients puissent néanmoins trouver plus facilement ce qu’ils cherchent ou leur suggérer des articles plus susceptibles de leur plaire (et donc d’être achetés).&lt;/p&gt;&lt;p data-block-key="40a74"&gt;En s'appuyant sur nos capacités d'intégration de texte et en adhérant à vos politiques de gouvernance de l'IA et à vos contrôles d'accès, la recherche vectorielle BigQuery peut ainsi offrir de nouveaux cas d'usage de l'IA, tels que :&lt;/p&gt;&lt;p data-block-key="4jtg2"&gt;&lt;b&gt;* La génération augmentée par la recherche (RAG)&lt;/b&gt; : Cette technique permet de combiner vos propres données aux capacités conversationnelles des LLM. Elle consiste à récupérer (grâce à la recherche vectorielle) des données pertinentes pour une question ou une tâche (dans votre patrimoine informationnel) et les fournir à un LLM en les contextualisant. Par exemple : utiliser un ticket d'assistance pour trouver dix cas antérieurs étroitement liés, et les transmettre comme contexte à un LLM pour qu’il résume les informations et suggère une résolution.&lt;/p&gt;&lt;p data-block-key="432fc"&gt;&lt;b&gt;* La recherche sémantique&lt;/b&gt; : La recherche vectorielle permet de trouver des documents sémantiquement similaires à une requête donnée, même si les documents ne contiennent pas exactement les mêmes mots. Cette recherche sémantique se révèle très utile pour des tâches telles que la recherche d'articles connexes, de produits similaires ou de réponses à des questions.&lt;/p&gt;&lt;p data-block-key="906k7"&gt;&lt;b&gt;* Le regroupement de textes&lt;/b&gt; : La recherche vectorielle permet de regrouper des textes en groupes de documents similaires. Cela permet de les organiser automatiquement, de repérer des doublons ou d'identifier des tendances dans un corpus.&lt;/p&gt;&lt;p data-block-key="23cb3"&gt;&lt;b&gt;* La synthèse de documents&lt;/b&gt; : Il s'agit de condenser des documents en repérant ceux les plus proches du texte initial et en en dégageant les idées principales. Cet outil se révèle très pratique pour des opérations telles que l'élaboration de synthèses pour les cadres dirigeants, la production d'abstracts ou la condensation d'articles de presse.&lt;/p&gt;&lt;h3 data-block-key="9tueu"&gt;Entrez dans la révolution de l’IA générative avec vos données&lt;/h3&gt;&lt;p data-block-key="9thqk"&gt;L'amélioration de vos données d'entreprise grâce à l'IA générative est un enjeu majeur. Pour en savoir plus sur tout ce potentiel, ne manquez pas Next '24 et découvrez nos dernières innovations pour accélérer votre transformation.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 17 Oct 2024 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</guid><category>BigQuery</category><category>AI &amp; Machine Learning</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Libérez tout le potentiel de l'IA générative avec BigQuery et Vertex AI</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Gerrit Kazmaier</name><title>Vice President &amp; General Manager, Databases, Analytics &amp; Looker</title><department></department><company></company></author></item><item><title>IA générative : 10 conseils pour stimuler la gouvernance de vos projets IA</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/ia-generative-10-conseils-pour-stimuler-la-gouvernance-de-vos-projets-ia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="97wr9"&gt;Vous avez certainement déjà entendu cette histoire : une multinationale, qui pourrait tout aussi bien être une simple organisation soumise à une réglementation complexe, voulait enrichir son portefeuille d’outils technologiques avec l’IA. Elle lance un projet pilote pour vérifier la faisabilité, sans trop savoir par où commencer. Mais, par nature, l’IA suppose une étude sur mesure qui - couplée à l’incertitude réglementaire qu’elle engendre - ralentit considérablement le processus jusqu’à la rendre inefficace. Résultat, l’organisation finit par reporter l’utilisation de l’IA à… une date ultérieure.&lt;/p&gt;&lt;p data-block-key="3ooji"&gt;Le problème, c'est que le futur, c'est maintenant. Et la concurrence n’attendra pas. Dès lors, il est essentiel que les organisations s’approprient l’IA pour atteindre leurs objectifs - au lieu de remettre le problème à plus tard.&lt;/p&gt;&lt;p data-block-key="6tat2"&gt;Un article sur &lt;a href="https://cloud.google.com/blog/transform/generative-ai-risk-management-data-governance?hl=en"&gt;le bon équilibre entre gouvernance des données et développement technologique&lt;/a&gt; soulignait que la question est désormais « cruciale » et « urgente ».&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="97wr9"&gt;« &lt;i&gt;Les dirigeants d'aujourd'hui ont très envie d'adopter les technologies d'IA générative. Reste à savoir quoi faire avec et comment assurer la gestion des risques et la gouvernance des modèles IA&lt;/i&gt; », explique-t-il. « &lt;i&gt;D’autant plus que l’utilisation de l’IA dans le cadre d’une entreprise engendre potentiellement des risques en matière de précision, de confidentialité, de sécurité, de conformité réglementaire et de violation de la propriété intellectuelle&lt;/i&gt; ».&lt;/p&gt;&lt;p data-block-key="bu3h"&gt;Comme pour d’autres innovations dans le domaine du numérique, la création d’une structure « programmatique » et reproductible peut apporter de la cohérence dans la démarche d’évaluation des cas d’usage de l’IA. Elle permet également d’opérer une supervision complète du processus qui prend en compte les différentes facettes d’une mise en œuvre sûre et conforme.&lt;/p&gt;&lt;p data-block-key="e1dju"&gt;L'IA peut aider à relever de &lt;a href="https://cloud.google.com/blog/transform/why-ai-can-new-tech-help-security-solve-toil-threat-overload-and-talent-gap?hl=en"&gt;nombreux défis &lt;/a&gt;: pénibilité du travail, déferlement de menaces ou encore pénurie des talents. L'alignement sur les objectifs, la définition des rôles et des responsabilités, ainsi que l’élaboration de procédures pour résoudre les problèmes de manière hiérarchisée sont essentiels pour assurer la viabilité du projet et sa réussite. Dès lors, il convient de commencer tout projet par la mise en place d’une structure de gouvernance dont le rôle doit être clairement défini et aligné sur la stratégie globale de l’entreprise en matière d’IA.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="97wr9"&gt;Afin d’aider les organisations à relever ces différents défis, nous avons défini 10 meilleures pratiques pour fluidifier et simplifier la mise en œuvre de l'IA à grande échelle.&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="413il"&gt;&lt;b&gt;Identifier les principales parties prenantes&lt;/b&gt; dans diverses disciplines, de sorte qu’elles puissent apporter leurs expertises respectives dans l'évaluation des initiatives d'IA. D’une entreprise à l’autre, les titres peuvent varier mais globalement, les représentants des fonctions suivantes doivent être représentés : infrastructure informatique, sécurité de l'information, sécurité des applications, risque, conformité, confidentialité, juridique, data science, gouvernance des données et équipes chargées de la gestion des risques tiers.&lt;/li&gt;&lt;li data-block-key="3brnk"&gt;&lt;b&gt;Définir les principes directeurs de votre organisation en matière d'IA&lt;/b&gt; afin de formuler les exigences et les attentes fondamentales et de déterminer les cas d’usage qui sont clairement hors cadre. Les principes directeurs doivent être souples et ne pas être trop prescriptifs ; ils doivent refléter les engagements auxquels l'organisation ne dérogera pas, comme la protection de la vie privée des clients ou le contrôle par un humain des décisions générées par l'IA dans certains cas. À titre d’exemple, vous pouvez consulter les &lt;a href="https://ai.google/responsibility/principles/" target="_blank"&gt;principes de Google en matière d’IA responsable&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="d18ir"&gt;&lt;b&gt;Utilisez un framework&lt;/b&gt; tel que le &lt;a href="https://services.google.com/fh/files/blogs/google_secure_ai_framework_approach.pdf" target="_blank"&gt;Secure AI Framework&lt;/a&gt; (SAIF) de Google pour une approche sûre et cohérente de l’IA. Il convient toutefois d’éviter &lt;a href="https://cloud.google.com/blog/transform/why-leaders-should-avoid-security-framework-traps?hl=en"&gt;les pièges des frameworks de sécurité &lt;/a&gt;: un framework n’est qu’un outil et le fait de l’utiliser ne signifie pas forcément que l’objectif est atteint. Envisagez plutôt un framework, tel que SAIF, comme un moyen pratique pour aborder la mise en œuvre de l'IA et s'assurer que les multiples facettes du projet sont bien toutes prises en compte. Typiquement, il convient d’intégrer l’inventaire des outils IA dans les processus de gestion des changements technologiques pour garantir que les déploiements d’IA sont à jour. De la même façon, les déploiements d’IA doivent être inclus dans les exercices de gestion des menaces, en considérant les nouveaux types d’attaques auxquels les outils d’IA peuvent être exposés.&lt;/li&gt;&lt;li data-block-key="3jno5"&gt;&lt;b&gt;Documenter et mettre en œuvre des politiques et des procédures pertinentes&lt;/b&gt; pour la conception, le développement, le déploiement et l'exploitation de l'IA. La propriété de ces ressources varie généralement d'une équipe à l'autre. Une surveillance efficace de la gouvernance de l'IA nécessite un effort concerté pour maintenir l'exactitude, l'exhaustivité et l'alignement.&lt;/li&gt;&lt;li data-block-key="970s2"&gt;&lt;b&gt;Formuler les cas d’usage&lt;/b&gt; en fonction de la stratégie de l'organisation et de son appétence pour le risque. Classez-les par ordre de priorité business et par niveau de risque, en adaptant les contrôles de sécurité et de protection des données en conséquence.&lt;/li&gt;&lt;li data-block-key="3pju3"&gt;&lt;b&gt;Intéressez-vous au programme de&lt;/b&gt; &lt;a href="https://services.google.com/fh/files/misc/principles_best_practices_for_data-governance.pdf" target="_blank"&gt;&lt;b&gt;gouvernance des données&lt;/b&gt;&lt;/a&gt;&lt;b&gt; de votre organisation&lt;/b&gt;, car les modèles IA supposent généralement des données de haute qualité, correctement sourcées, nettoyées et normalisées. Une sélection minutieuse du jeu de données et &lt;a href="https://cloud.google.com/vertex-ai/docs/generative-ai/models/tune-models?hl=fr"&gt;l’optimisation du modèle IA&lt;/a&gt; à vos besoins spécifiques peuvent également contribuer à minimiser le potentiel d'hallucinations et les risques d’injection d’éléments indésirables dans les prompts.&lt;/li&gt;&lt;li data-block-key="7ev4b"&gt;&lt;b&gt;Travaillez en collaboration étroite avec les équipes Conformité, Risque et Juridique&lt;/b&gt;. La réglementation en matière d’IA évolue rapidement. Pour préserver la conformité de son organisation et enrichir le processus de gouvernance global, il est impératif de s’aligner en permanence sur les exigences réglementaires.&lt;/li&gt;&lt;li data-block-key="2p2p6"&gt;&lt;b&gt;Définir des niveaux d’escalade&lt;/b&gt;, de sorte à disposer d’un processus de résolution clair et évident lorsqu’un problème surgit. Si certaines organisations préfèrent adresser leurs questions internes au service juridique, conformité ou sécurité des informations, d'autres préféreront confier la prise de décision à un comité désigné à cet effet.&lt;/li&gt;&lt;li data-block-key="8aooh"&gt;&lt;b&gt;Prévoir des mécanismes pour assurer la visibilité&lt;/b&gt; de l'état d'avancement de chaque initiative IA, tant pour les parties prenantes internes (direction générale, conseil d'administration) qu'externes, dont notamment les organismes de réglementation concernés.&lt;/li&gt;&lt;li data-block-key="fat7i"&gt;&lt;b&gt;Mettre en place un programme de formation dédié à l'IA&lt;/b&gt; afin d'aider l'ensemble de l'organisation à appréhender les concepts clés et les défis potentiels liés à l'IA. Une approche modulaire et ciblée, avec un contenu adapté au personnel en fonction de son rôle, peut également être utile pour favoriser le développement des compétences et sensibiliser aux pratiques à risque, telle que &lt;a href="https://cloud.google.com/transform/spotlighting-shadow-ai-how-to-protect-against-risky-ai-practices?hl=en"&gt;la Shadow IA&lt;/a&gt;.&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="81aa9"&gt;Bien commencer avec l’IA générative&lt;/h3&gt;&lt;p data-block-key="1696e"&gt;Commencez par identifier votre champion IA. Chargé de lancer le sujet au sein de l’entreprise, il doit occuper un poste de manager et avoir suffisamment de visibilité sur la stratégie de l'organisation en matière d'IA. Il devra développer une approche collaborative, indispensable pour rassembler toutes les parties prenantes de différentes disciplines, et communiquer sur les cas d’usage ainsi que sur la façon dont son organisation devra se mettre en ordre de marche pour atteindre les objectifs qu’elle se fixe. Notre série de cours en ligne &lt;a href="https://www.cloudskillsboost.google/paths/118" target="_blank"&gt;Google Cloud Generative AI Skills Boost&lt;/a&gt; peut vous aider dans votre démarche, car elle propose une approche par la pratique avec des cas concrets.&lt;/p&gt;&lt;p data-block-key="1gv9h"&gt;Pour plus d'informations sur la sécurisation de l'IA, consultez nos documents « &lt;a href="http://bit.ly/ociso-ai1-pod" target="_blank"&gt;Securing AI: Similar or Different&lt;/a&gt; »  et « &lt;a href="http://goo.gle/ai-trust-paper" target="_blank"&gt;Google Cloud’s Approach to Trust in AI&lt;/a&gt; ».&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 10 Sep 2024 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/ia-generative-10-conseils-pour-stimuler-la-gouvernance-de-vos-projets-ia/</guid><category>Security &amp; Identity</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-147875257.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>IA générative : 10 conseils pour stimuler la gouvernance de vos projets IA</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-147875257.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/ia-generative-10-conseils-pour-stimuler-la-gouvernance-de-vos-projets-ia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Marina Kaganovich</name><title>Executive Trust Lead, Office of the CISO</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Anton Chuvakin</name><title>Security Advisor, Office of the CISO</title><department></department><company></company></author></item><item><title>Découvrez le Village Talent du Google Cloud Summit France 2024</title><link>https://cloud.google.com/blog/fr/topics/evenements/decouvrez-le-village-talent-du-google-cloud-summit-france-2024/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="zedrc"&gt;Le Google Cloud Summit France 2024 a marqué les esprits, non seulement par ses annonces exclusives et ses démonstrations technologiques, mais aussi par son &lt;b&gt;Village Talent&lt;/b&gt; dédié à la formation en IA et au recrutement. Cette initiative, une première pour l'événement à l'Accor Arena, a réuni des acteurs majeurs : Adeo, Essec, Ecole 42, Fnac Darty, L'Oréal, Malt, Orange, Renault Group et Publicis France (Epsilon).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=1sNOt6g-cwA"
      data-glue-modal-trigger="uni-modal-1sNOt6g-cwA-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/1sNOt6g-cwA/maxresdefault.jpg"
             alt="Découvrez le Village Talent du Google Cloud Summit France 2024"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-1sNOt6g-cwA-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="1sNOt6g-cwA"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=1sNOt6g-cwA"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="zedrc"&gt;&lt;b&gt;Un espace d'échange et d'opportunités&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="705g4"&gt;Le Village Talent a offert un espace privilégié pour les entreprises, les écoles et les plateformes de recrutement afin de présenter leurs initiatives en matière d'IA et de rencontrer les talents de demain. Les visiteurs ont pu découvrir des programmes de formation innovants, des opportunités de carrière dans le domaine de l'IA et échanger avec des professionnels passionnés.&lt;/p&gt;&lt;h3 data-block-key="3781m"&gt;&lt;b&gt;Les temps forts du Village Talent&lt;/b&gt;&lt;/h3&gt;&lt;ul&gt;&lt;li data-block-key="11vrm"&gt;&lt;b&gt;Des témoignages inspirants:&lt;/b&gt; Les représentants des entreprises et des écoles présentes ont partagé leurs expériences et leurs visions de l'IA, offrant un aperçu des compétences recherchées et des défis à relever dans ce secteur en pleine expansion.&lt;/li&gt;&lt;li data-block-key="1470e"&gt;&lt;b&gt;Des ateliers interactifs:&lt;/b&gt; Des ateliers pratiques ont permis aux participants de se familiariser avec les outils et les techniques de l'IA, et de découvrir les applications concrètes de cette technologie dans différents domaines.&lt;/li&gt;&lt;li data-block-key="m09e"&gt;&lt;b&gt;Des rencontres enrichissantes:&lt;/b&gt; Le Village Talent a favorisé les échanges entre les professionnels de l'IA, les étudiants et les chercheurs, créant ainsi un réseau dynamique et propice à l'émergence de nouvelles collaborations.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="2rdnu"&gt;&lt;b&gt;Rendez-vous en 2025&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="8r7aj"&gt;Nous sommes reconnaissants envers tous ceux qui ont participé à cette première édition du Village Talent et qui ont contribué à son succès.&lt;/p&gt;&lt;p data-block-key="cvl8v"&gt;Nous vous donnons rendez-vous l'année prochaine pour le Google Cloud Summit France 2025 à l'Accor Arena de Paris Bercy !&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 22 Jul 2024 04:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/evenements/decouvrez-le-village-talent-du-google-cloud-summit-france-2024/</guid><category>Customers</category><category>AI &amp; Machine Learning</category><category>Inside Google Cloud</category><category>Partners</category><category>Events</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/GoogleCloud-SummitSeries-BlogBanner_2880x1.m.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Découvrez le Village Talent du Google Cloud Summit France 2024</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/GoogleCloud-SummitSeries-BlogBanner_2880x1.m.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/evenements/decouvrez-le-village-talent-du-google-cloud-summit-france-2024/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Google Cloud Content &amp; Editorial </name><title></title><department></department><company></company></author></item><item><title>Concevoir des applications GenAI avec les bases de données de Google Cloud</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/concevoir-des-applications-genai-avec-les-bases-de-donnees-de-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="fqawr"&gt;Entraînés avec d’énormes volumes de données publiques portant sur un large éventail de sujets, les grands modèles de langage (LLM) se montrent pertinents dans bien des domaines mais ils peuvent aussi être améliorés sur d’autres.&lt;/p&gt;&lt;p data-block-key="4d4vd"&gt;Compte-tenu de la volumétrie nécessaire pour entraîner un modèle, des entraînements trop fréquents peuvent s’avérer très coûteux. Cependant, faute de mise à jour régulière, ils ne disposent pas toujours des informations les plus récentes. De plus, les modèles sont formés avec les données disponibles. Dès lors, ils n’ont pas accès à tout ce qui se trouve derrière le pare-feu d’entreprise, autrement dit ils ignorent tout du patrimoine informationnel de votre entreprise. Demandez à un LLM qui a gagné le match de football hier soir ou à combien se monte votre prime de votre assurance maladie ? Il ne connaîtra probablement pas la réponse.&lt;/p&gt;&lt;p data-block-key="a335s"&gt;Sur des questions d’ordre général, ces limites n’ont pas vraiment d’importance. Mais les entreprises qui exploitent les LLM - pour créer des applications et offrir des expériences conversationnelles avancées et ancrées dans leur réalité - en attendent de la précision, des informations à jour et une prise en compte de leurs savoirs et de leurs contextes.&lt;/p&gt;&lt;p data-block-key="1tb3d"&gt;Pour éviter d’avoir à réentraîner les modèles en permanence tout en leur permettant d’intégrer les données en temps réel, y compris celles derrière les pare-feux, il existe une technique de plus en plus prisée : le RAG (Retrieval Augmented Generation) ou génération augmentée de récupération en français. Cette technique ouvre de nouvelles opportunités et permet d’ancrer les LLM au contexte de l’entreprise. Autrement dit, le RAG permet aux entreprises de créer des applications utilisant une IA générative capable d’exploiter des données « fraiches » et propriétaires en enrichissant les prompts afin de permettre au LLM de fournir des données pertinentes et précises. Cette approche est particulièrement cruciale pour les entreprises et les industries soumises aux réglementations sur les données sensibles.&lt;/p&gt;&lt;h3 data-block-key="73ptv"&gt;L’approche RAG&lt;/h3&gt;&lt;p data-block-key="ftqmp"&gt;Voyons plus en détail comment cela fonctionne. Prenons l’exemple d’un chatbot « service client », capable de répondre à un large éventail de questions clients comme la disponibilité d’un produit, les prix pratiqués ou les politiques de retour. Si vous posez une question générique à un LLM classique de type « quels sont les jouets les plus populaires pour les enfants de moins de 5 ans ? », il sera en mesure de répondre. Mais comme il n’a pas la connaissance de l’inventaire en magasin, sa réponse ne sera pas forcément pertinente si votre question sous-entendait que vous vouliez acheter un produit populaire, donc en stock. C’est sur ce type de problématique que la technique RAG s’avère particulièrement efficace parce qu’elle permet au LLM d’enrichir sa réponse avec des données propriétaires (l’inventaire dans ce cas) à jour.&lt;/p&gt;&lt;p data-block-key="b0uhm"&gt;Découpé en une étape préliminaire suivie de quatre phases, cet exemple simplifié de RAG illustre comment une application peut fournir des réponses pertinentes en s’appuyant sur la fonction de recherche de similarité d'une base de données qui prend en charge l'indexation vectorielle.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/gen_AI_apps_v1.max-1000x1000.png"
        
          alt="gen AI apps"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="fqawr"&gt;&lt;b&gt;Phase préliminaire&lt;/b&gt; : les données internes sont stockées dans une base grâce à un modèle d’« embedding » (représentation vectorielle de données) aussi appelé « modèle d’incorporation » en français.&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="9e0sc"&gt;L’application GenAI utilise le modèle « embedding » pour convertir la question en langage naturel (« Avez-vous le produit X avec les caractéristiques A, B, C ? ») en vecteur.&lt;/li&gt;&lt;li data-block-key="8tep5"&gt;Le modèle « embedding » utilisé pour convertir la question en vecteur effectue une recherche sémantique dans la base de données.&lt;/li&gt;&lt;li data-block-key="e2fal"&gt;La base de données renvoie alors les données à utiliser sous forme de complément à l’invite envoyée au LLM.&lt;/li&gt;&lt;li data-block-key="en1c"&gt;Le LLM élabore une réponse précise basée sur les données.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="b3b2g"&gt;LLM et base de données collaborent donc pour fournir des résultats actualisés.&lt;/p&gt;&lt;p data-block-key="8dnkm"&gt;Dans l’étape préliminaire, vous stockez vos données internes, telles que les descriptions de produits, sous forme de vecteurs grâce à un modèle d’incorporation (embedding). Votre application peut ainsi effectuer des recherches et trouver des résultats actualisés et précis, basés sur vos données. Elle peut alors répondre aux questions des utilisateurs en s’appuyant sur la fonction de recherche par similarité de la base de données vectorielle (Similarity Search) et en combinant les résultats obtenus à l’invite envoyée au LLM afin d’améliorer la pertinence de la réponse.&lt;/p&gt;&lt;p data-block-key="e67bh"&gt;Les « embeddings » permettent de filtrer des données selon leur degré de similarité, en se servant d'algorithmes qui identifient de manière approximative les éléments les plus proches ou les plus similaires dans un espace vectoriel. Ils sont particulièrement utiles pour mettre en place des services tels que les recommandations de produits, la recherche portant sur les produits similaires avec lesquels le client a déjà interagi. Dès lors, les « embeddings » rendent les LLM plus puissants quand ils sont utilisés pour élaborer des prompts.&lt;/p&gt;&lt;p data-block-key="1h092"&gt;Plus concrètement, les LLM sont limités en taille d’instructions (ce qu’on appelle la fenêtre contextuelle du LLM) et ils n’ont pas de concept d’état. Dès lors, il n’est pas toujours possible de fournir un contexte complet dans le prompt (et ce serait de toute façon trop fastidieux).&lt;/p&gt;&lt;p data-block-key="5tg9n"&gt;Grâce aux « embeddings », il est possible d’effectuer des requêtes bien mieux contextualisées en élargissant le champ de recherche aux bases de données internes, à une documentation interne ou encore à un historique de discussion – et ainsi de « simuler une mémoire à long terme » du LLM – tout en lui permettant « d’acquérir » les connaissances spécifiques à une entreprise.&lt;/p&gt;&lt;h3 data-block-key="9shav"&gt;Bases de données vectorielles&lt;/h3&gt;&lt;p data-block-key="e63dk"&gt;Les incorporations vectorielles (vector embeddings) constituent la pierre angulaire de l’approche RAG. Google Cloud propose plusieurs options pour les stocker. Les trois principales sont :&lt;br/&gt;- &lt;a href="https://cloud.google.com/vertex-ai/docs/vector-search/overview"&gt;Vertex AI Vector Search&lt;/a&gt;, un outil spécialement conçu pour stocker et récupérer des vecteurs en grande quantité et avec une faible latence.&lt;br/&gt; - Si vous êtes familiarisé avec PostgreSQL, &lt;a href="https://github.com/pgvector/pgvector" target="_blank"&gt;pgvector extension&lt;/a&gt; permet d'ajouter facilement des requêtes vectorielles à votre base de données pour gérer les applications GenAI.&lt;br/&gt;- &lt;a href="https://cloud.google.com/sql"&gt;Cloud SQL&lt;/a&gt; et &lt;a href="https://cloud.google.com/alloydb"&gt;AlloyDB&lt;/a&gt; prennent également en charge pgvector, &lt;a href="https://cloud.google.com/alloydb/ai?hl=en"&gt;AlloyDB AI&lt;/a&gt; gérant des tailles de vecteurs jusqu'à 4 fois plus grandes avec des performances jusqu'à 10 fois plus élevées par rapport à un PostgreSQL standard lors de l'utilisation du mode d'indexation IVFFlat.&lt;/p&gt;&lt;p data-block-key="qevc"&gt;Construire une application GenAI peut sembler difficile, mais en utilisant des outils compatibles open source tel que &lt;a href="https://python.langchain.com/en/latest/index.html" target="_blank"&gt;LangChain&lt;/a&gt; et en exploitant les ressources de Google Cloud, vous pouvez facilement commencer avec les concepts et outils décrits dans cet article.&lt;/p&gt;&lt;p data-block-key="a7mvo"&gt;Pour en savoir plus sur pgvector dans Cloud SQL et AlloyDB, consultez cet &lt;a href="https://cloud.google.com/blog/products/databases/using-pgvector-llms-and-langchain-with-google-cloud-databases?hl=en"&gt;article&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 24 Jun 2024 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/concevoir-des-applications-genai-avec-les-bases-de-donnees-de-google-cloud/</guid><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Concevoir des applications GenAI avec les bases de données de Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/concevoir-des-applications-genai-avec-les-bases-de-donnees-de-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sean Rhee</name><title>Product Management, Google Cloud</title><department></department><company></company></author></item></channel></rss>