<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Modernisation d'Applications</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/</link><description>Modernisation d'Applications</description><atom:link href="https://cloudblog.withgoogle.com/blog/fr/products/modernisation-dapplications/rss/" rel="self"></atom:link><language>fr</language><lastBuildDate>Fri, 31 Oct 2025 13:48:33 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/static/blog/images/google.a51985becaa6.png</url><title>Modernisation d'Applications</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/</link></image><item><title>Ingénierie de plateforme : tirez parti de l’expérience Google</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="eb7ta"&gt;Comment abordez-vous le développement logiciel ? Chez Google, nous nous efforçons constamment de créer de meilleurs services, plus rapidement. Pour y parvenir, notre équipe Developer Platform et Google Cloud ont noué un partenariat stratégique et se mobilisent autour d’une vision commune : capitaliser sur nos solutions internes et nos outils d’ingénierie pour les mettre à disposition des clients Google Cloud.&lt;/p&gt;&lt;p data-block-key="mll3"&gt;Le premier défi du développement logiciel consiste à bien comprendre comment les équipes, petites ou grandes, peuvent trouver le juste équilibre entre efficacité, qualité et coûts, tout en créant de la valeur. À l’occasion de notre récente &lt;a href="https://www.youtube.com/watch?v=T6a9gPSoqxo" target="_blank"&gt;intervention lors de PlatformCon 2025&lt;/a&gt;, nous avons présenté les éléments clés de notre approche de l’ingénierie de plateforme, une approche que nous avons baptisée « &lt;i&gt;shift down »&lt;/i&gt;.&lt;/p&gt;&lt;p data-block-key="5j2ln"&gt;Le &lt;i&gt;shift down&lt;/i&gt; consiste à intégrer les décisions et les responsabilités directement au sein des plateformes internes de développement (IDP), afin de réduire la charge opérationnelle qui pèse sur les développeurs. Elle se distingue de la tendance &lt;a href="https://cloud.google.com/devops?hl=fr"&gt;DevOps&lt;/a&gt; du &lt;i&gt;shift left&lt;/i&gt;, qui vise à déplacer davantage d’efforts en amont du cycle de développement, une méthode qui montre ses limites à grande échelle face à l’ampleur et au rythme des évolutions des besoins.&lt;br/&gt; Là où le &lt;i&gt;shift left&lt;/i&gt; tend à alourdir la charge des équipes lorsqu’il est appliqué à grande échelle, le &lt;i&gt;shift down&lt;/i&gt; cherche au contraire à tirer le maximum de valeur des ressources existantes. Cette approche permet aux entreprises d’innover rapidement tout en maintenant un niveau de qualité, de risque et de coûts soutenables, quels que soient leurs modèles économiques.&lt;/p&gt;&lt;p data-block-key="2jmi2"&gt;Lors de notre intervention, nous avons partagé plusieurs enseignements qui se sont révélés particulièrement utiles dans notre démarche en matière de développement logiciel et &lt;a href="https://cloud.google.com/solutions/platform-engineering?hl=fr"&gt;d’ingénierie de plateforme&lt;/a&gt; :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="29aqs"&gt;&lt;b&gt;Partir du modèle économique.&lt;/b&gt; En prenant le modèle économique comme point de départ, les organisations peuvent orienter l’évolution de leur plateforme et de leurs investissements en fonction de leurs objectifs de marge, de leur tolérance au risque et de leurs exigences de qualité. Chez Google, notre plateforme centrale doit répondre à une grande diversité de modèles économiques, ce qui impose un travail constant de raffinement stratégique et d’adaptation..&lt;/li&gt;&lt;li data-block-key="tfl6"&gt;&lt;b&gt;Se concentrer sur les critères de qualité pour un pilotage centralisé.&lt;/b&gt; Les critères de qualité — fiabilité, sécurité, efficacité et performance — sont des caractéristiques transverses émergentes (ou &lt;a href="https://en.wikipedia.org/wiki/Emergence" target="_blank"&gt;&lt;i&gt;emergent&lt;/i&gt;&lt;/a&gt;&lt;i&gt; properties&lt;/i&gt;) des systèmes logiciels. Elles jouent un rôle essentiel pour créer de la valeur métier et maîtriser les risques. On les qualifie souvent « d’exigences non fonctionnelles » car ils décrivent la manière dont le logiciel se comporte, et non ce qu’il fait fonctionnellement. Avec une stratégie &lt;i&gt;shift down&lt;/i&gt;, la responsabilité de ces critères de qualité peut être intégrée directement au sein des systèmes et de l’infrastructure de la plateforme, réduisant ainsi considérablement la charge opérationnelle qui pèse sur chaque développeur.&lt;/li&gt;&lt;li data-block-key="eq8bt"&gt;&lt;b&gt;Abstractions et couplage, deux leviers essentiels pour maîtriser les critères de qualité.&lt;/b&gt; Notre approche de la conception de plateformes repose sur deux leviers techniques essentiels pour maîtriser les critères de qualité : les abstractions et le couplage. Dans une stratégie &lt;i&gt;shift down&lt;/i&gt;, les abstractions permettent de rendre les systèmes plus compréhensibles, de mieux gérer les risques, de clarifier les responsabilités et de contrôler les coûts en encapsulant la complexité. Le couplage, quant à lui, indique le degré d’interconnexion et d’interdépendance entre les composants d’un système ou d’un écosystème de développement. Pour réussir une stratégie &lt;i&gt;shift down&lt;/i&gt;, le bon niveau de couplage est déterminant, car il permet à la plateforme et à l’écosystème de développement d’intégrer et d’influencer directement les critères de qualité. Concrètement, c’est grâce au couplage que nous pouvons proposer des solutions complètes d’infrastructure et de plateforme sous forme de services cohérents, comme &lt;a href="https://cloud.google.com/kubernetes-engine"&gt;Google Kubernetes Engine&lt;/a&gt; (GKE).&lt;/li&gt;&lt;li data-block-key="chphm"&gt;&lt;b&gt;Responsabilités partagées, formation et règles communes sont des leviers « sociaux » essentiels.&lt;/b&gt; À grande échelle, la responsabilité partagée constitue un levier organisationnel déterminant. Elle repose d’abord sur la formation, par exemple en sensibilisant les ingénieurs à l’usage des plateformes et de l’IA. Elle s’appuie aussi sur la promotion d’une culture &lt;i&gt;one team&lt;/i&gt; (« une seule équipe ») afin d’encourager les profils centrés sur un livrable ou un composant donné à s’ouvrir à la mission globale et à l’engagement envers les clients. Par ailleurs, des règles explicites, comme des guides de style appliqués de manière centralisée ou des API conçues dès l’origine pour être sécurisées (&lt;i&gt;secure by design&lt;/i&gt;), permettent d’intégrer des garanties de qualité directement dans la plateforme et l’infrastructure, réduisant ainsi considérablement la charge opérationnelle des développeurs tout en assurant la cohérence et l’automatisation des contrôles à grande échelle.&lt;/li&gt;&lt;li data-block-key="e9bej"&gt;&lt;b&gt;Utiliser une cartographie.&lt;/b&gt; Gérer les besoins de nombreuses entités métiers avec une seule plateforme est un problème vaste et complexe : il vous faut donc une cartographie. Chez Google, nous utilisons ce que nous appelons le modèle d’écosystème, un framework conceptuel qui fait office de cartographie et qui permet de classer les différents environnements de développement logiciel, allant de systèmes très flexibles, sous contrôle direct des développeurs, à des environnements fortement intégrés et normés, où c’est l’écosystème lui-même qui garantit les critères de qualité. Le rôle essentiel de ce framework est de fournir un outil visuel et conceptuel permettant d’évaluer dans quelle mesure les mécanismes de contrôle de l’écosystème sont alignés avec les risques métier. Autrement dit, il sert à vérifier que le niveau de supervision et de garantie des critères de qualité est proportionné au coût potentiel des erreurs. L’objectif est de rester dans la « zone d’efficacité de l’écosystème » : un équilibre où les contrôles suffisent à limiter les risques majeurs liés aux erreurs humaines, sans pour autant imposer de contraintes excessives qui ralentiraient l’innovation et démotiveraient les développeurs.&lt;/li&gt;&lt;/ol&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_98vVMdt.max-1000x1000.jpg"
        
          alt="PlatformEngineering1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="eb7ta"&gt;&lt;b&gt;6. Segmenter le problème en identifiant les différents types de plateformes et d’écosystèmes.&lt;/b&gt; L’expérience développeur et l’infrastructure de la plateforme évoluent en fonction de l’échelle et du degré de &lt;i&gt;shift down&lt;/i&gt;. Il ne suffit donc pas de savoir où se situe la « &lt;i&gt;zone d’efficacité de l’écosystème&lt;/i&gt; » : il faut aussi identifier le type d’écosystème auquel on a affaire. Nous distinguons les écosystèmes en fonction du niveau de supervision et de garantie appliqué aux critères de qualité. Plus un écosystème devient intégré verticalement — comme l’écosystème fortement optimisé « Assured » de Google (Type 4) — plus la plateforme prend nativement en charge des critères de qualité essentiels. Cela permet aux spécialistes, tels que les &lt;i&gt;site reliability engineers&lt;/i&gt; (SRE) ou les équipes de sécurité, d’assumer pleinement leur rôle grâce à une observabilité à grande échelle et à des capacités intégrées. À l’inverse, dans des écosystèmes moins homogènes comme « YOLO », « AdHoc » ou « Guided » (Types 0 à 2), les développeurs gèrent une part plus importante de la responsabilité en matière de qualité, tandis que les équipes spécialisées disposent de moins de leviers de contrôle direct et de mécanismes d’application moins étendus. Précisons toutefois : les modèles précités (Assured, YOLO, AdHoc et Guided) ne sont pas des indicateurs de maturité. Le meilleur type d’écosystème et de plateforme est simplement celui qui correspond le mieux aux besoins de votre entreprise (cf. point n°1 ci-dessus !).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_xiA9TUH.max-1400x1400.png"
        
          alt="PlatformEngineering2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="eb7ta"&gt;Faire les bons choix en matière d’ingénierie de plateforme&lt;/h3&gt;&lt;p data-block-key="2aumr"&gt;En résumé, la leçon la plus importante à retenir, c’est qu’il faut bien peser ses choix et prendre des décisions éclairées. L’ingénierie de plateforme doit être adaptée à chaque entité métier et à chaque application afin d’obtenir les meilleurs résultats. Elle doit avant tout s’attacher à repérer les problèmes récurrents, qui reviennent systématiquement dans différents domaines métier, pour les résoudre une bonne fois pour toutes avec des solutions robustes et réutilisables. Cette approche est au cœur de notre stratégie de &lt;i&gt;shift down&lt;/i&gt;. Elle vise à aller vers des plateformes composables, capables d’intégrer directement dans l’infrastructure les décisions et les responsabilités liées à la qualité logicielle. Concrètement, cela signifie que la plateforme prend en charge directement les choix et les responsabilités liés à la qualité logicielle (sécurité, fiabilité, performance, etc.), au lieu de les laisser reposer uniquement sur les développeurs. Dit autrement, avec l’approche &lt;i&gt;shift down&lt;/i&gt;, vous renforcez votre capacité à maximiser la valeur métier en mobilisant les bonnes ressources, au niveau de qualité requis, et avec des coûts maîtrisés dans la durée.&lt;/p&gt;&lt;p data-block-key="13rlt"&gt;Pour aller plus loin, n’hésitez pas à consulter &lt;a href="https://www.youtube.com/watch?v=T6a9gPSoqxo" target="_blank"&gt;l’intégralité de notre intervention à PlatformCon 2025&lt;/a&gt; sur le sujet.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 24 Oct 2025 05:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</guid><category>Containers &amp; Kubernetes</category><category>DevOps &amp; SRE</category><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ingénierie de plateforme : tirez parti de l’expérience Google</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-tirez-parti-de-lexperience-google/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>James Brookbank</name><title>Cloud Solutions Architect Manager, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Leah Rivers</name><title>Director, Product Management, Google Core</title><department></department><company></company></author></item><item><title>Ingénierie de plateforme : une nouvelle étude révèle les clés du succès</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-une-nouvelle-etude-revele-les-cles-du-succes/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="tuwav"&gt;Selon Gartner, l'ingénierie de plateforme compte parmi &lt;a href="https://www.gartner.com/en/articles/gartner-top-10-strategic-technology-trends-for-2024" target="_blank"&gt;les 10 tendances technologiques stratégiques&lt;/a&gt; du moment. Elle s’est rapidement imposée comme un atout incontournable pour accélérer le développement logiciel et booster la productivité des équipes de développement. De fait, l’ingénierie de plateforme crée un écosystème optimal avec l’infrastructure, les outils et les processus adaptés pour accélérer le développement, simplifier le déploiement et assurer une gestion fluide des logiciels, tout en allégeant la charge mentale des développeurs.&lt;/p&gt;&lt;p data-block-key="49hfo"&gt;Pour percer les secrets d'une ingénierie de plateforme réussie, Google Cloud s'est associé à Enterprise Strategy Group (ESG) pour mener une étude approfondie auprès de 500 professionnels de l'IT et développeurs d'applications. Cette enquête a ciblé des organisations de plus de 500 employés disposant déjà d'équipes dédiées à l'ingénierie des plateformes. Notre objectif : savoir si elles avaient déjà adopté l'ingénierie de plateforme et, dans l’affirmative, analyser les retombées sur leur cycle de développement logiciel.&lt;/p&gt;&lt;p data-block-key="3267a"&gt;Le rapport, baptisé « &lt;a href="https://cloud.google.com/resources/content/google-cloud-esg-competitive-edge-platform-engineering?e=48754805"&gt;&lt;b&gt;Building Competitive Edge With Platform Engineering: A Strategic Guide&lt;/b&gt;&lt;/a&gt; » (Transformer l’Ingénierie de plateforme en avantage concurrentiel : le guide stratégique), met en lumière les schémas récurrents, les attentes des équipes et les bonnes pratiques à mettre en œuvre pour surmonter les obstacles et exploiter pleinement le potentiel de l'ingénierie de plateforme. Nous vous proposons, à travers cet article, d’en découvrir les enseignements les plus marquants.&lt;/p&gt;&lt;h3 data-block-key="1aiq2"&gt;L'ingénierie de plateforme s'impose comme impératif stratégique&lt;/h3&gt;&lt;p data-block-key="339o8"&gt;L'étude confirme que l'ingénierie de plateforme a dépassé le stade de concept émergent. En effet, 55 % des organisations internationales sollicitées l'ont déjà adoptée, et parmi elles, 90 % prévoient d'en étendre l'utilisation à davantage de développeurs. Plus révélateur encore, 85 % des entreprises qui l'ont mise en place indiquent que leurs développeurs comptent dessus pour réussir. Ces chiffres montrent clairement que l'ingénierie de plateforme n'est plus une simple tendance : elle s'impose comme une stratégie essentielle pour les organisations qui souhaitent maximiser le rendement de leurs investissements cloud et IT, et ainsi gagner en avantage concurrentiel.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_eQFVQSh.max-900x900.jpg"
        
          alt="Figure 1 : Plus de la moitié (55 %) des 900+ organisations mondiales sondées ont déjà franchi le pas vers l’ingénierie de plateforme."&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="biktb"&gt;Figure 1 : Plus de la moitié (55 %) des 900+ organisations mondiales sondées ont déjà franchi le pas vers l’ingénierie de plateforme.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="tuwav"&gt;Trois clés incontournables pour réussir&lt;/h3&gt;&lt;p data-block-key="4i2qu"&gt;Le rapport identifie trois pratiques déterminantes qui caractérisent les organisations les plus matures en ingénierie de plateforme :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="dk0v"&gt;&lt;b&gt;Une collaboration étroite entre les ingénieurs plateforme et les autres équipes&lt;/b&gt; afin de garantir l'alignement des objectifs.&lt;/li&gt;&lt;li data-block-key="ft9vf"&gt;&lt;b&gt;Une plateforme utilisée comme un véritable produit&lt;/b&gt;, ce qui implique de gérer la plateforme de développement avec une feuille de route claire, une proposition de valeur explicite et des boucles de rétroaction (feedback) courtes.&lt;/li&gt;&lt;li data-block-key="6cqbh"&gt;&lt;b&gt;Des indicateurs précis pour mesurer la performance&lt;/b&gt;, tels que la fréquence des déploiements, le temps de résolution des incidents ou le délai de mise en œuvre des changements.&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="cue80"&gt;Un constat s'impose néanmoins : malgré l'engouement croissant pour l'ingénierie de plateforme, seulement 27 % des organisations ont réussi, jusqu'ici, à mettre pleinement en œuvre ces trois composantes essentielles. Dit autrement, la marge d’amélioration de la majorité des organisations est considérable.&lt;/p&gt;&lt;h3 data-block-key="a2sh8"&gt;L'IA : nouvelle alliée de l'ingénierie de plateforme&lt;/h3&gt;&lt;p data-block-key="b59v9"&gt;Un constat majeur se dégage de cette étude : la convergence naturelle entre l'ingénierie de plateforme et l'IA. Les chiffres parlent d'eux-mêmes : 86 % des participants estiment que l'ingénierie de plateforme est indispensable pour exploiter pleinement la valeur business de l'IA.&lt;br/&gt; En parallèle, une large majorité des entreprises voit dans l'IA un accélérateur du développement de l'ingénierie de plateforme, 94 % d'entre elles la jugeant « Critique » ou « Importante » pour son évolution.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_UjnlMgA.max-1200x1200.png"
        
          alt="Figure 2 : L’IA et le ML façonnent l’avenir de l’ingénierie de plateforme, 94 % des organisations les jugeant &amp;quot;cruciaux&amp;quot; ou &amp;quot;importants&amp;quot;."&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="biktb"&gt;Figure 2 : L’IA et le ML façonnent l’avenir de l’ingénierie de plateforme, 94 % des organisations les jugeant "cruciaux" ou "importants".&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="tuwav"&gt;Au-delà de la vitesse : les avantages clés de l'ingénierie de plateforme&lt;/h3&gt;&lt;p data-block-key="dfn3p"&gt;En se basant sur le niveau d'intégration des pratiques clés mentionnées précédemment, l'étude a classé les organisations dans trois catégories : émergentes, établies et leaders. Les résultats montrent que les organisations leaders obtiennent de meilleurs résultats en termes de &lt;b&gt;rapidité, efficacité et productivité&lt;/b&gt;.&lt;br/&gt; Forte de ces enseignements, l’étude propose des pistes d'amélioration aux organisations naissantes comme bien établies pour accroître leur maturité et maximiser leurs bénéfices.&lt;/p&gt;&lt;p data-block-key="d6i7b"&gt;Mais elle met également en lumière deux autres avantages significatifs :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="8abq7"&gt;&lt;b&gt;L’amélioration de la satisfaction des employés, de l’acquisition de nouveaux talents et de la fidélisation des collaborateurs&lt;/b&gt; : les plateformes matures favorisent une expérience développeur positive qui influence directement la culture d'entreprise. Les développeurs et professionnels de l'IT qui travaillent dans des organisations disposant de plateformes matures sont nettement plus enclins à recommander leur entreprise à leurs pairs.&lt;br/&gt;&lt;br/&gt;&lt;/li&gt;&lt;li data-block-key="fokq5"&gt;&lt;b&gt;L’accélération du Time-to-market&lt;/b&gt; : les organisations les plus matures en ingénierie de plateforme ont considérablement raccourci leurs cycles de développement. 71 % des « leaders » indiquent avoir significativement accéléré la livraison de services, contre seulement 28 % des organisations moins matures.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="54t5m"&gt;Exit la stratégie solo&lt;/h3&gt;&lt;p data-block-key="3pk5p"&gt;Une large majorité (96 %) des organisations interrogées s'appuient sur des outils open source pour construire leurs plateformes. Autre fait notable, la plupart d'entre elles (84 %) collaborent avec des prestataires externes pour gérer et maintenir leurs environnements open source.&lt;/p&gt;&lt;p data-block-key="e27dh"&gt;Cette approche collaborative, impliquant un partenaire tiers ou fournisseur de cloud, favorise l'innovation. En effet, les organisations ayant adopté ce modèle de cogestion constatent que leurs développeurs consacrent en moyenne 47 % de leur temps productif à l'innovation et à l'expérimentation, contre 38 % pour celles qui gèrent leurs plateformes en interne.&lt;/p&gt;&lt;h3 data-block-key="3n5nt"&gt;Prêts à passer à la vitesse supérieure ? Découvrez l'étude complète&lt;/h3&gt;&lt;p data-block-key="d13oa"&gt;Nous n’avons présenté ici qu'un aperçu des enseignements de l'étude. N’hésitez pas à consulter notre rapport complet afin de découvrir l'ensemble des stratégies et pratiques pour exceller en ingénierie de plateforme et garder une longueur d'avance. Vous pourrez notamment approfondir certains points, tels que :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="27tgb"&gt;Les enjeux stratégiques autour des &lt;b&gt;équipes d'ingénierie des plateformes centralisées et distribuées ;&lt;/b&gt;&lt;/li&gt;&lt;li data-block-key="5tqen"&gt;Les &lt;b&gt;principaux moteurs d’investissements&lt;/b&gt; en ingénierie des plateformes ;&lt;/li&gt;&lt;li data-block-key="3ljva"&gt;Les &lt;b&gt;priorités majeures des développeurs&lt;/b&gt; dans l'adoption des plateformes, pour garantir l'alignement avec leurs besoins ;&lt;/li&gt;&lt;li data-block-key="daff7"&gt;Les &lt;b&gt;points critiques&lt;/b&gt; à anticiper pour réussir votre transition vers l'ingénierie de plateforme ;&lt;/li&gt;&lt;li data-block-key="8t79e"&gt;Comment l'ingénierie de plateforme &lt;b&gt;stimule la productivité, la performance et l'innovation&lt;/b&gt; dans toute l'organisation ;&lt;/li&gt;&lt;li data-block-key="dr359"&gt;L'importance stratégique de &lt;b&gt;l'open source dans l'ingénierie de plateforme&lt;/b&gt; pour obtenir un avantage concurrentiel ;&lt;/li&gt;&lt;li data-block-key="69nu"&gt;Le rôle transformateur de &lt;b&gt;l'ingénierie de plateforme pour les workloads IA/ML&lt;/b&gt; face à l'adoption croissante de l'IA ;&lt;/li&gt;&lt;li data-block-key="b6fg4"&gt;&lt;b&gt;Comment élaborer une stratégie d'ingénierie de plateforme adaptée&lt;/b&gt; pour favoriser l'évolutivité et l'innovation.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="d50oo"&gt;&lt;a href="https://cloud.google.com/resources/content/google-cloud-esg-competitive-edge-platform-engineering?e=48754805&amp;amp;hl=fr"&gt;Téléchargez le rapport complet&lt;/a&gt; dès maintenant.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 21 Mar 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-une-nouvelle-etude-revele-les-cles-du-succes/</guid><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ingénierie de plateforme : une nouvelle étude révèle les clés du succès</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/ingenierie-de-plateforme-une-nouvelle-etude-revele-les-cles-du-succes/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Dave Bartoletti</name><title>Senior Product Manager, Cloud Runtimes</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ning Ge</name><title>Product Marketing Manager, Google</title><department></department><company></company></author></item><item><title>Pour vos besoins de modernisation, oubliez le "Shift Left" ! Visez le "Shift Down" !</title><link>https://cloud.google.com/blog/fr/products/developpement-dapplications/pour-vos-besoins-de-modernisation-oubliez-le-shift-left-visez-le-shift-down/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="rtzr5"&gt;&lt;i&gt;Bienvenue sur notre toute première publication de « The Modernization Imperative », également connu sous le nom de "TMI", un acronyme qui capture parfaitement notre mission : partager avec enthousiasme tout ce qui concerne la Tech.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="8hu3s"&gt;&lt;i&gt;Cette chronique portée par les leaders de Google Cloud veut, au fil des épisodes, explorer l'univers du développement logiciel, des systèmes distribués, du serverless, des microservices, du DevOps &amp;amp; SRE, des opérations de plateforme... bref, tous les buzz words qui font vibrer nos experts !&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="fbk3d"&gt;&lt;i&gt;Aujourd'hui, c'est Richard Seroter qui prend la plume. Directeur de la Stratégie et de l'Engagement pour l'équipe Infrastructure Moderne de Google Cloud, il cogite sur ces sujets depuis près de 20 ans.&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="en3ud"&gt;&lt;i&gt;Alors, chers lecteurs, accrochez-vous : après tout, quand on parle d'infrastructure moderne, il n’y a jamais trop d'infos !&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="3tgpm"&gt;Seul au volant d'une voiture glaciale, le petit Richard alors âgé de 10 ans se prenait pour un roi. « &lt;i&gt;Vroom, vroom… Regarde-moi, je conduis ! »&lt;/i&gt; lançais-je fièrement à mon passager imaginaire. Ce n'est que des années plus tard que j'ai compris le stratagème de ma mère. Elle me "laissait" démarrer notre voiture. J'étais tellement ébloui par mes talents de pilote hors pair que je ne réalisais pas que je faisais une tâche dont elle voulait se débarrasser : faire chauffer le moteur et monter la température interne du véhicule avant notre trajet matinal.&lt;/p&gt;&lt;p data-block-key="6g17t"&gt;Aujourd'hui ? Rien n'a vraiment changé, sauf ma lucidité. À quarante et quelques années, me voilà en train de marteler frénétiquement l'écran tactile d'une caisse automatique, cherchant désespérément le code des « raisins sans pépins » tout en savourant le « privilège » de scanner moi-même et d'emballer mes propres courses.&lt;/p&gt;&lt;p data-block-key="27m8q"&gt;De ma mère à mon supermarché local en passant par le développement logiciel, redistribuer les tâches d'un groupe à un autre est une étape cruciale pour optimiser les ressources. Aujourd'hui, nous demandons à nos développeurs de pratiquer du "Shift Left" et de s'adapter à des méthodologies en constante évolution.&lt;/p&gt;&lt;p data-block-key="5l5a"&gt;Mais c'est un fardeau lourd à porter. Plutôt que de surcharger nos développeurs, pourquoi ne pas maximiser leurs talents en exploitant pleinement l'éventail des outils et services à leur disposition ?&lt;/p&gt;&lt;p data-block-key="1g8ao"&gt;Certes, le « Shift Left » - cette pratique qui consiste à intégrer les contrôles de sécurité et de qualité plus tôt dans le processus de développement - est une idée tout à fait sensée. Mais au fil des ans, de plus en plus de tâches, traditionnellement hors du périmètre des développeurs, ont « glissé vers la gauche » au nom de la sacro-sainte polyvalence et autonomisation des « ingénieurs full stack ». Il est temps que cela cesse.&lt;/p&gt;&lt;p data-block-key="f0h53"&gt;&lt;i&gt;[Mini coup de gueule, mais justifié : Il y a genre neuf vrais « ingénieurs full stack » sur Terre. Pratiquement personne ne code un frontend en React, ne configure Kubernetes, ne paramètre une instance RabbitMQ, ne provisionne de l'espace sur un SAN et n'allume un switch top-of-rack, tout ça dans une même journée. Aujourd'hui, on demande aux développeurs de maîtriser les frameworks web, les patterns d'architecture, les stratégies de test, les systèmes de build, de multiples types de bases de données, les caches, les outils d'automatisation, les orchestrateurs de conteneurs, les concepts réseau L4-L7, les API SaaS, les systèmes de monitoring, de nombreux clouds publics, et oh, pourquoi pas un peu de machine learning ! Je viens de parcourir Indeed.com, et c'est hallucinant de voir ce qu'on exige des développeurs juniors et seniors. C'est trop, tout simplement.]&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="5t58l"&gt;En tant qu’industrie, nous ne pouvons rester immobiles et ne pas intervenir.&lt;/p&gt;&lt;h3 data-block-key="afi7k"&gt;Shift Down !&lt;/h3&gt;&lt;p data-block-key="d21ni"&gt;Dans un premier temps, au lieu de dire aux développeurs (et à leurs managers !) de tout « décaler à gauche » (un Shift Left), nous devrions les encourager à « descendre d'un cran » (un Shift Down) et tirer pleinement parti des technologies disponibles en refilant le boulot aux plateformes qu'ils utilisent déjà.&lt;/p&gt;&lt;p data-block-key="dt3gt"&gt;&lt;b&gt;Simplifiez votre pile technologique&lt;/b&gt;. N'obligez pas les gens à tout connaître pour faire leur job. Offrez des abstractions de plateforme. J'ai récemment fait une présentation pour un client sur « &lt;i&gt;comment Google pratique le DevOps »&lt;/i&gt;, mettant ainsi en lumière le nombre conséquent de plateformes que nous offrons à nos ingénieurs. Nous proposons des solutions managées pour le codage, les tests, la compilation, les déploiements, l'hébergement, les alertes et bien plus encore. Des équipes dédiées chez Google soutiennent ces plateformes essentielles afin que nos ingénieurs produits puissent se concentrer sur leur travail sans avoir à connaître ou gérer une "pile complète" d'infrastructure. Et, &lt;b&gt;chaque organisation devrait en faire autant&lt;/b&gt;.&lt;/p&gt;&lt;p data-block-key="2nn8o"&gt;Au lieu d'exiger toujours plus de leurs équipes d'ingénierie actuelles - en leur demandant d'apprendre de nouveaux langages, plateformes et clouds - les dirigeants technologiques devraient désormais chercher à assembler des équipes d'ingénierie de plateforme qui traitent leurs diverses plateformes comme des produits à part entière.&lt;/p&gt;&lt;p data-block-key="bq1t2"&gt;L’optimisation commence par &lt;b&gt;la réduction de la charge cognitive&lt;/b&gt; des développeurs et &lt;b&gt;l’élimination des tâches inutiles&lt;/b&gt; qui les détournent de l’innovation. En parallèle, il est essentiel de leur fournir les outils et l’infrastructure nécessaires pour exploiter la puissance de l’IA et des modèles de langage (LLM). Ainsi, vos développeurs pourront se concentrer sur la création plutôt que sur des tâches répétitives. Nous mettons actuellement en place davantage &lt;a href="https://cloud.google.com/certification"&gt;de coaching et de supports&lt;/a&gt; pour aider chacun à adopter &lt;b&gt;l'ingénierie de plateforme&lt;/b&gt;, alors restez à l'écoute !&lt;/p&gt;&lt;h3 data-block-key="froge"&gt;Tout un potentiel à portée de mains&lt;/h3&gt;&lt;p data-block-key="feadd"&gt;Dans un second temps, en tant que fournisseurs de cloud, nous pouvons accompagner les développeurs avec des principes universels de "déchargement", de « Shift down », qui assurent un partage de la charge de gestion de l'infrastructure.&lt;/p&gt;&lt;p data-block-key="8d15l"&gt;J'apprécie, par exemple, que &lt;a href="https://cloud.google.com/kubernetes-engine/docs/concepts/autopilot-overview"&gt;GKE Autopilot&lt;/a&gt; me fournisse à la demande un cluster Kubernetes sécurisé et managé, sans perturber mon flux de travail. Si vous devez utiliser Kubernetes, adoptez la méthode Autopilot et dites adieu aux prises de tête liées au provisionnement d'un cluster qui vous détourne du développement.&lt;/p&gt;&lt;p data-block-key="2g5j4"&gt;Autre exemple, vous voulez une chaîne d'approvisionnement sécurisée ? Ne demandez pas à un humain de décoder les manifestes Supply Chain Levels for Software Architects (&lt;a href="https://slsa.dev/" target="_blank"&gt;SLSA&lt;/a&gt;). Ajoutez automatiquement des attestations aux builds (comme nous le faisons avec &lt;a href="https://cloud.google.com/build"&gt;Cloud Build&lt;/a&gt;) et transformez les vérifications d’exécution… en une simple case à cocher !&lt;/p&gt;&lt;p data-block-key="62b97"&gt;Parallèlement, rendez les services hautement disponibles par défaut au lieu de demander à un développeur de se débrouiller. Nos services comme &lt;a href="https://cloud.google.com/pubsub?hl=en"&gt;Pub/Sub&lt;/a&gt;, &lt;a href="https://cloud.google.com/firestore"&gt;Firestore&lt;/a&gt;, &lt;a href="https://cloud.google.com/spanner"&gt;Spanner&lt;/a&gt;, &lt;a href="https://cloud.google.com/storage"&gt;Cloud Storage&lt;/a&gt; ou &lt;a href="https://cloud.google.com/logging"&gt;Cloud Logging&lt;/a&gt; fonctionnent "tout simplement" et nativement de cette façon.&lt;/p&gt;&lt;p data-block-key="7glkc"&gt;Nous pouvons également intervenir à un niveau plus bas, en aidant quelqu’un à analyser &lt;a href="https://cloud.google.com/eventarc/docs/cloudevents"&gt;CloudEvents&lt;/a&gt; dans son code au lieu de le laisser se débrouiller seul.&lt;/p&gt;&lt;p data-block-key="e4idb"&gt;Enfin, avec des outils comme &lt;a href="https://cloud.google.com/ai/generative-ai"&gt;Generative AI App Builder&lt;/a&gt;, les développeurs peuvent rapidement proposer de nouvelles expériences captivantes, telles que des assistants digitaux, des moteurs de recherche personnalisés, des interfaces de chat, et bien plus encore. Offrir aux clients des frameworks structurés mais extensibles, qui maximisent leur investissement technologique, est la clé d'une expérience cloud réussie.&lt;/p&gt;&lt;p data-block-key="bcfeg"&gt;Chez Google Cloud, nous aidons les entreprises à utiliser des technologies incroyables pour réaliser des choses extraordinaires. Pour y parvenir, nous créons des outils et des services qui offrent aux développeurs une expérience matérielle et logicielle &lt;a href="https://cloud.google.com/security/infrastructure"&gt;sécurisée par conception&lt;/a&gt; (secure by design). Cela leur permet d'appliquer de façon totalement automatisée nombre de bonnes pratiques de "Shift Left", accélérant ainsi le développement. En assignant efficacement les workloads, nous veillons à ce que les ressources d'ingénierie restent disponibles et performantes au maximum de leur capacité, au moment où vous en avez le plus besoin.&lt;/p&gt;&lt;p data-block-key="981jj"&gt;Être développeur en 2024 est une expérience extraordinaire. Mais le job s’accompagne d’une charge mentale parmi les plus lourdes, toutes professions confondues. Plutôt que de surcharger les équipes de devs avec toujours plus de responsabilités dans le cycle de vie du logiciel, chez Google Cloud nous aidons nos clients à mettre en place une approche « plateforme » qui favorise une culture d’ingénierie durable et innovante. En adoptant les pratiques de « Shift Down » et en exploitant pleinement les avantages d'une stack technologique complète, l'innovation s’épanouit grâce à des automatisations bien ficelées et des services managés.&lt;/p&gt;&lt;p data-block-key="8r8s"&gt;Nous sommes aujoud’hui à l'aube d'une nouvelle ère de technologies dopées par l'IA, où la création de code se simplifie et où les devs se tournent vers des chatbots en langage naturel pour obtenir des conseils en temps réel. Il est temps d’offrir aux développeurs du monde entier les moyens de favoriser le succès technologique et commercial. Et, contrairement au jeune Richard d’une dizaine d’années, leur permettre vraiment d’aller quelque part…&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 04 Mar 2025 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/developpement-dapplications/pour-vos-besoins-de-modernisation-oubliez-le-shift-left-visez-le-shift-down/</guid><category>Application Modernization</category><category>DevOps &amp; SRE</category><category>TMI</category><category>Application Development</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Pour vos besoins de modernisation, oubliez le "Shift Left" ! Visez le "Shift Down" !</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/developpement-dapplications/pour-vos-besoins-de-modernisation-oubliez-le-shift-left-visez-le-shift-down/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Seroter</name><title>Chief Evangelist, Google Cloud</title><department></department><company></company></author></item><item><title>Briser les silos, libérer le potentiel : la boucle de rétroaction, l'élément clé d'une modernisation “agile”</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/briser-les-silos-liberer-le-potentiel-la-boucle-de-retroaction-lelement-cle-dune-modernisation-agile/</link><description>&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://zupimages.net/up/24/36/6vyt.png"
        
          alt="boucle de rétroaction"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="13y6z"&gt;Dans un monde où la rapidité, l'efficacité et l'innovation sont les maîtres mots, les entreprises font face à des défis de taille. Développement accéléré de produits, maîtrise des coûts, gestion optimale des incidents, bien-être des équipes... Les enjeux sont multiples et complexes.&lt;/p&gt;&lt;p data-block-key="d4p67"&gt;Pour répondre à ces impératifs, de nombreuses organisations se sont tournées vers les méthodes dites "agiles", promettant flexibilité, collaboration et amélioration continue. Pourtant, force est de constater que l'adoption de ces frameworks n'a pas toujours été couronnée de succès. Désillusion, frustration, retour aux anciennes pratiques... Le constat est parfois amer : "Agile" ne tiendrait pas ses promesses.&lt;/p&gt;&lt;p data-block-key="cmg6r"&gt;Mais si l'échec n'était pas dû à l'approche elle-même, mais plutôt à une mise en œuvre incomplète ? Car un élément essentiel manque souvent dans ces transformations : la boucle de rétroaction (feedback loop). Véritable moteur de l'amélioration continue, elle permet de tirer les leçons du passé, d'ajuster le présent et de préparer l'avenir.&lt;/p&gt;&lt;p data-block-key="4gd3m"&gt;Alors, comment intégrer efficacement la boucle de rétroaction dans votre organisation ? Comment briser les silos et libérer le potentiel de vos équipes ? C'est ce que nous allons explorer ensemble dans cet article. Préparez-vous à découvrir comment cet outil simple, mais puissant, peut transformer votre façon de travailler et vous propulser vers une modernisation réussie.&lt;/p&gt;&lt;h3 data-block-key="6rfgd"&gt;&lt;b&gt;La boucle de rétroaction : un thermostat pour votre organisation&lt;/b&gt;&lt;/h3&gt;&lt;p data-block-key="cr787"&gt;"On ne peut pas améliorer ce qu'on ne mesure pas", disait Peter Drucker, le père du management moderne. Cette citation résume parfaitement l'essence de la boucle de rétroaction. Elle vous permet justement de mesurer, d'analyser et d'agir pour progresser en continu. Imaginez un thermostat : il mesure la température ambiante, la compare à la valeur souhaitée, puis déclenche le chauffage ou la climatisation pour corriger l'écart. De la même manière, la boucle de rétroaction vous permet de "mesurer la température" de votre organisation, d'identifier les écarts par rapport à vos objectifs, et de mettre en place les actions nécessaires pour atteindre vos cibles.&lt;/p&gt;&lt;p data-block-key="bj3nu"&gt;Comme nous le verrons dans les paragraphes suivants, certains composants de votre organisation peuvent entraver la mise en place d’une boucle de rétroaction efficace. Mais avant cela, revenons sur les bénéfices qu’apporte cette pratique.&lt;/p&gt;&lt;h3 data-block-key="dqkf7"&gt;Les bénéfices de la boucle de rétroaction : flexibilité, résilience et performance&lt;/h3&gt;&lt;p data-block-key="en22p"&gt;Imaginez une organisation capable de s'adapter rapidement aux évolutions du marché, de rebondir après un échec, d'innover en permanence et de motiver ses équipes. Cette organisation existe, et son secret réside dans la mise en place d'une boucle de rétroaction efficace. En maîtrisant ces différents types de feedback, vous pourrez créer une culture de l'amélioration continue au sein de votre organisation, où chaque voix est entendue et chaque contribution valorisée.&lt;/p&gt;&lt;p data-block-key="336bu"&gt;La boucle de rétroaction n'est pas réservée à un domaine spécifique. Elle peut être appliquée à tous les niveaux de votre organisation :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="396i9"&gt;&lt;b&gt;Au niveau stratégique :&lt;/b&gt; pour évaluer la pertinence de vos orientations et ajuster votre cap en fonction des évolutions du marché.&lt;/li&gt;&lt;li data-block-key="bp1nj"&gt;&lt;b&gt;Au niveau opérationnel :&lt;/b&gt; pour améliorer la performance de vos processus et la qualité de vos produits/services.&lt;/li&gt;&lt;li data-block-key="e43m6"&gt;&lt;b&gt;Au niveau individuel :&lt;/b&gt; pour favoriser le développement des compétences et la progression de carrière de vos collaborateurs.&lt;/li&gt;&lt;li data-block-key="137aa"&gt;&lt;b&gt;Au niveau global :&lt;/b&gt; pour aider à la maîtrise des coûts et à la responsabilisation des équipes.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="699kl"&gt;Mettre en place la boucle de rétroaction : un entraînement progressif&lt;/h3&gt;&lt;p data-block-key="5hgga"&gt;Mais comment mettre en place une telle boucle de rétroaction ? La clé est de commencer petit, d'expérimenter et d'apprendre. Vous pouvez par exemple choisir un processus spécifique, une équipe pilote ou un projet limité dans le temps pour tester la mise en place d'une boucle de rétroaction. Cette approche "agile" vous permettra de valider rapidement les bénéfices de la démarche et d'identifier les ajustements nécessaires.&lt;/p&gt;&lt;p data-block-key="eug8r"&gt;Une fois les premiers résultats positifs obtenus, vous pourrez étendre progressivement la pratique à d'autres équipes, d'autres processus et d'autres niveaux de l'organisation. L'objectif est de créer une culture du feedback, où l'échange d'informations, l'analyse des résultats et l'amélioration continue deviennent des réflexes naturels. N'oubliez pas : la mise en place d'une boucle de rétroaction efficace prend du temps et demande de l'engagement de la part de tous les acteurs de l'organisation. Mais les bénéfices sont à la hauteur de l'investissement : une organisation plus agile, plus résiliente et plus performante.&lt;/p&gt;&lt;h3 data-block-key="3nkct"&gt;Les défis de la mise en place d'une boucle de rétroaction efficace&lt;/h3&gt;&lt;p data-block-key="81mfc"&gt;Si la boucle de rétroaction est un outil puissant pour l'amélioration continue, son intégration au sein d'une entreprise peut se heurter à des obstacles structurels et culturels. Pour bien comprendre les mécanismes en jeu, il s’agit tout d’abord de considérer les différents types de feedback:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5tei3"&gt;&lt;b&gt;Feedback positif :&lt;/b&gt; Il souligne les réussites, les points forts et les bonnes pratiques, renforçant ainsi les comportements positifs et encourageant à poursuivre dans la même direction.&lt;/li&gt;&lt;li data-block-key="b1gnm"&gt;&lt;b&gt;Feedback négatif :&lt;/b&gt; Il met en évidence les erreurs, les dysfonctionnements et les axes d'amélioration, permettant d'identifier les problèmes et de mettre en place des actions correctives.&lt;/li&gt;&lt;li data-block-key="erci4"&gt;&lt;b&gt;Feedback équilibré :&lt;/b&gt; Il combine les deux précédents, en soulignant à la fois les points positifs et les points à améliorer, permettant ainsi de progresser tout en maintenant la motivation et l'engagement.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="47h5i"&gt;Comme expliqué par Ron Westrum, la culture organisationnelle joue un rôle déterminant dans la réussite de la mise en place d’une boucle de rétroaction. Les organisations dites “génératives” favorisent la remontée de tous les types de feedback. Dans ce type d’organisation, les feedbacks négatifs sont d’ailleurs analysés en priorité afin de prendre les prochaines actions d’amélioration. De même, en donnant la parole aux collaborateurs et en valorisant leurs retours, ces organisations contribuent à créer un climat de confiance et d’ouverture.&lt;/p&gt;&lt;p data-block-key="1obor"&gt;A l’inverse, des organisations “pathologiques” ou “bureaucratiques”, caractérisées par une hiérarchie rigide et une communication descendante, sont moins propices à l'échange d'informations et à l'apprentissage. La "peur du jugement" inhibe par défaut le feedback négatif, essentiel pour identifier les axes d'amélioration et les problèmes à résoudre. Ces organisations restent donc généralement dans des modes “réactifs” plutôt que “proactifs” pour tout ce qui relève de la gestion d’incident.&lt;/p&gt;&lt;p data-block-key="ddpor"&gt;La culture organisationnelle et la boucle de rétroaction s'influencent mutuellement : une culture ouverte favorise la mise en place de boucles de rétroaction efficaces, et ces dernières contribuent à transformer la culture en profondeur.&lt;/p&gt;&lt;p data-block-key="eka58"&gt;Conclusion : la boucle de rétroaction, un investissement rentable&lt;/p&gt;&lt;p data-block-key="81p9b"&gt;N'hésitez plus à vous lancer dans l'aventure de la boucle de rétroaction ! Commencez par un projet pilote, impliquez vos équipes et soyez ouverts aux retours, qu'ils soient positifs ou négatifs. Vous découvrirez rapidement les bénéfices de cette démarche et vous serez sur la voie d'une organisation plus agile, plus résiliente et plus performante. N'oubliez pas que la mise en place d'une boucle de rétroaction efficace demande du temps, de la persévérance et une transformation de la culture d'entreprise. Mais les bénéfices à long terme en valent largement la peine : une organisation plus performante, plus innovante et plus résiliente face aux défis de demain.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 04 Sep 2024 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/briser-les-silos-liberer-le-potentiel-la-boucle-de-retroaction-lelement-cle-dune-modernisation-agile/</guid><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Briser les silos, libérer le potentiel : la boucle de rétroaction, l'élément clé d'une modernisation “agile”</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/briser-les-silos-liberer-le-potentiel-la-boucle-de-retroaction-lelement-cle-dune-modernisation-agile/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Nicolas Pintaux</name><title>Application Modernization Specialist</title><department></department><company>Google Cloud</company></author></item><item><title>5 façons pour les ingénieurs de plateforme d’aider les développeurs à créer des API performantes</title><link>https://cloud.google.com/blog/fr/products/gestion-des-api/5-facons-pour-les-ingenieurs-de-plateforme-daider-les-developpeurs-a-creer-des-api-performantes/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ohgc9"&gt;Pour concevoir des applications modernes, il faut des développeurs capables de créer des API en un temps record qui offrent à la fois des fonctionnalités complexes et de très hautes performances. Il faut aussi des ingénieurs de plateforme (platform engineers). Véritables piliers des architectures modernes, héros discrets mais pourtant essentiels des applications modernes, ils fournissent aux développeurs les bons outils et les bonnes pratiques pour leur simplifier la tâche.&lt;/p&gt;&lt;p data-block-key="c319"&gt;En tant qu’ingénieur de plateforme, vous pouvez influencer la conception des API en adoptant cinq stratégies fondamentales. Plus concrètement, vous pouvez aider vos développeurs :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="9os4q"&gt;En traitant les API et les plateformes internes comme des « produits »&lt;/li&gt;&lt;li data-block-key="1mlkp"&gt;En intégrant la gestion des API dans votre plateforme interne&lt;/li&gt;&lt;li data-block-key="297qr"&gt;En construisant des pipelines CI/CD pour vos proxies et vos politiques&lt;/li&gt;&lt;li data-block-key="m8r0"&gt;En simplifiant la consommation des API par vos développeurs en leur proposant une « voie royale »&lt;/li&gt;&lt;li data-block-key="66luq"&gt;En tirant parti d'Apigee pour la gestion et l'automatisation des API&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="2vqka"&gt;1. Traiter les API et les plateformes internes comme des produits&lt;/h3&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_ZyWpVqe.max-1500x1500.png"
        
          alt="image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ohgc9"&gt;Aujourd’hui, toute expérience numérique connectée de qualité repose sur des API, autrement dit des mécanismes qui permettent aux applications de communiquer entre elles. En termes simples, les API sont des solutions logicielles pour intégrer des services. Comme toute autre solution logicielle, les API doivent être testées, sécurisées, déployées et gérées en s’appuyant sur des process systématiques, tels que le cycle de vie du développement logiciel (ou SDLC pour Software Development Life Cycle). Des plateformes internes permettent de mettre en place de véritables processus de livraison des API. Elles fournissent aux développeurs un ensemble d’outils communs et des modèles clairement définis. Par exemple, si votre organisation a décidé que toutes les applications doivent accéder aux API en présentant un jeton OAuth, l’ingénieur plateforme peut tout à fait simplifier et fluidifier le travail du développeur en mettant à sa disposition un &lt;a href="https://github.com/apigee/devrel/tree/main/references/common-shared-flows" target="_blank"&gt;pipeline de flux partagé&lt;/a&gt;, utilisé pour associer une politique OAuth v2 au proxy à l'aide d'une règle &lt;a href="https://cloud.google.com/apigee/docs/api-platform/reference/policies/flow-callout-policy"&gt;FlowCallout&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="9s501"&gt;Tout comme les API, les plateformes internes sont des solutions logicielles. L’une des principales missions de toute équipe d’ingénierie plateforme qui se respecte est de briser les silos internes afin de pouvoir travailler harmonieusement avec les autres équipes de l’entreprise et mieux comprendre les besoins de chacun. Fondamentale, cette collaboration permet au final aux développeurs de disposer de meilleurs outils.&lt;/p&gt;&lt;h3 data-block-key="eq2bp"&gt;2. Intégrer la gestion des API dans votre plateforme interne&lt;/h3&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_4mHK0VA.max-1600x1600.jpg"
        
          alt="image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ohgc9"&gt;En tant qu’ingénieur plateforme, votre première mission consiste à créer des plateformes en interne que vos développeurs peuvent utiliser. Ces plateformes favorisent l’autonomie des développeurs en leur donnant directement accès à des modèles et des outils validés et standardisés par votre organisation. En créant de tels outils et modèles et en les intégrant à votre plateforme, vous assurez une bonne gestion et prise en compte de tous les aspects clés d’une API, à commencer par la normalisation, la sécurité, les quotas, la surveillance ou encore le déploiement automatisé.&lt;/p&gt;&lt;h3 data-block-key="1kppv"&gt;&lt;b&gt;3. Construire des pipelines CI/CD pour vos proxies et vos politiques&lt;/b&gt;&lt;/h3&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_JpamVaZ.max-1900x1900.jpg"
        
          alt="image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="ohgc9"&gt;Les API étant des solutions logicielles, elles doivent être créées et gérées avec du code. Une des tâches courantes de l’ingénieur plateforme est de créer des pipelines CI/CD afin d'automatiser le cycle de vie du développement des API. Un pipeline CI/CD standard est composé de plusieurs étapes : analyse statique du code, tests unitaires, déploiement, et tests d’intégration.&lt;/p&gt;&lt;p data-block-key="fb5b9"&gt;De manière générale, un développeur code localement un proxy et utilise Git pour transférer le code de ce proxy vers un dépôt de code source. Un commit déclenche alors un pipeline automatisé qui effectue des tests et fournit des retours. Si cela réussit, le code est transféré dans différents environnements jusqu'à sa mise en production.&lt;/p&gt;&lt;p data-block-key="2m43t"&gt;Après avoir construit vos API, vous souhaitez naturellement qu'elles soient découvrables par d'autres dans votre organisation. L’« &lt;a href="https://cloud.google.com/apigee/docs/api-hub/what-is-api-hub"&gt;API Hub&lt;/a&gt; » d’Apigee est idéale pour la découverte interne des API.&lt;/p&gt;&lt;p data-block-key="1m93j"&gt;Parallèlement, un « &lt;a href="https://cloud.google.com/apigee/docs/api-platform/publish/intro-portals"&gt;portail des développeurs&lt;/a&gt; » peut automatiquement être généré avec la documentation de vos API pour offrir aux développeurs externes (ceux de vos clients) un moyen de les découvrir, d’apprendre à les utiliser, d’en réclamer l’accès, de les essayer, etc.&lt;/p&gt;&lt;h3 data-block-key="5dqdu"&gt;4. Simplifier la consommation des API par vos développeurs en leur proposant une « voie royale »&lt;/h3&gt;&lt;p data-block-key="ejp0h"&gt;Le principe de la « voie royale » est assez simple : l’objectif est de proposer des modèles qui intègrent le code et l’outillage afin d’accélérer au maximum les temps de développement. Vous aidez ainsi le développeur à construire rapidement son chemin vers la livraison logicielle – d’où cette notion de voie royale – en lui proposant des workflows et des modèles accessibles en libre-service. Ces modèles englobent des tâches courantes et des stratégies prédéfinies. Si vous développez des API avec Apigee, cette voie royale peut comprendre les éléments suivants :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="aa5re"&gt;Un guide pour bien démarrer&lt;/li&gt;&lt;li data-block-key="d0msr"&gt;Un modèle pour construire le proxy / des stratégies prédéfinies / une simulation de backend&lt;/li&gt;&lt;li data-block-key="ef827"&gt;Des configurations pour &lt;a href="https://cloud.google.com/apigee/docs/api-platform/fundamentals/shared-flows?hl=fr"&gt;des flux partagés standards&lt;/a&gt; directement exploitables&lt;/li&gt;&lt;li data-block-key="es0tj"&gt;Un &lt;a href="https://github.com/apigee/devrel/tree/main/references/cicd-pipeline" target="_blank"&gt;pipeline CI/CD&lt;/a&gt; pour les tests et le déploiement&lt;/li&gt;&lt;li data-block-key="esjl5"&gt;Des modèles pour l’ « &lt;a href="https://cloud.google.com/apigee/docs/api-hub/get-started-registry-api?hl=fr"&gt;API Registry&lt;/a&gt; » (qui regroupe des descriptions standardisées, lisibles par des machines et programmes, des différentes API).&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="ac3lr"&gt;5. Tirer parti d'Apigee pour la gestion et l'automatisation des API&lt;/h3&gt;&lt;p data-block-key="at5dn"&gt;Un mot sur la pièce maîtresse de votre stratégie : &lt;a href="https://cloud.google.com/apigee"&gt;Apigee&lt;/a&gt;. Plateforme de gestion des API, Apigee propose aux ingénieurs de plateforme une solution pour construire, administrer et sécuriser les API. Apigee peut être utilisé pour gérer vos API tout au long de leur cycle de vie. Dans Apigee, tout commence par un &lt;a href="https://cloud.google.com/apigee/docs/api-platform/fundamentals/understanding-apis-and-api-proxies"&gt;proxy&lt;/a&gt;, autrement dit une interface numérique située entre le client et la logique métier (ou backend). Le proxy sert également de point d'attache pour les &lt;a href="https://cloud.google.com/apigee/docs/api-platform/develop/policy-attachment-and-enforcement?hl=fr#:~:text=Apigee%20enables%20you%20to%20program,an%20API%20easily%20and%20reliably."&gt;politiques d'API&lt;/a&gt; (les règles et comportements associés à une API) afin de programmer et personnaliser le comportement de l'API.&lt;br/&gt; Les proxys permettent également de découpler l’API en évitant un accès direct au backend et en masquent la complexité. En tant qu'ingénieur de plateforme, vous aidez les développeurs à créer de meilleures API en leur permettant de se concentrer sur la création de proxys. Votre plateforme doit dès lors être préalablement paramétrée afin d’arrêter une stratégie de fonctionnement des API.&lt;/p&gt;&lt;p data-block-key="d60h7"&gt;Certains outils d’Apigee, tels que &lt;a href="https://cloud.google.com/apigee/docs/api-platform/fundamentals/shared-flows"&gt;Shared Flows&lt;/a&gt;, vous permettent de normaliser et préserver la cohérence de vos politiques. Les &lt;a href="https://cloud.google.com/apigee/docs/api-platform/reference/policies/flow-callout-policy?hl=fr"&gt;politiques FlowCallout&lt;/a&gt; et les &lt;a href="https://cloud.google.com/apigee/docs/api-platform/fundamentals/flow-hooks"&gt;flow hooks&lt;/a&gt; permettent d'attacher ces politiques aux proxys et de les réutiliser dans les différentes API créées.&lt;/p&gt;&lt;h3 data-block-key="fsmd9"&gt;6. Concevoir de meilleures API&lt;/h3&gt;&lt;p data-block-key="9niud"&gt;En traitant les API et les plateformes internes comme des « produits », en intégrant la gestion des API à votre plateforme, en exploitant Apigee pour la gestion et l'automatisation des API, en construisant des pipelines CI/CD pour vos proxies et vos politiques, et en créant des voies royales pour faciliter la consommation des API, vous aidez indubitablement vos développeurs à créer de meilleures API avec Apigee.&lt;br/&gt; Si vous souhaitez obtenir plus de conseils sur le sujet et aider davantage vos développeurs, consultez ce &lt;a href="https://cloud.google.com/building-better-apis-by-reducing-developer-burden"&gt;livre blanc&lt;/a&gt; qui détaille la démarche. Si vous n’utilisez pas encore Apigee, n’hésitez pas à consulter &lt;a href="https://cloud.google.com/apigee?hl=fr"&gt;notre documentation&lt;/a&gt; pour en savoir plus ou rendez-vous directement sur ce &lt;a href="https://console.cloud.google.com/projectselector2/apigee/welcome?_ga=2.48741926.-1054570508.1705658401&amp;amp;supportedpurview=project"&gt;lien&lt;/a&gt; pour tester notre plateforme d’API Management.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 13 Jun 2024 09:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/gestion-des-api/5-facons-pour-les-ingenieurs-de-plateforme-daider-les-developpeurs-a-creer-des-api-performantes/</guid><category>Application Modernization</category><category>DevOps &amp; SRE</category><category>API Management</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>5 façons pour les ingénieurs de plateforme d’aider les développeurs à créer des API performantes</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/gestion-des-api/5-facons-pour-les-ingenieurs-de-plateforme-daider-les-developpeurs-a-creer-des-api-performantes/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Emanuel Burgess</name><title>Developer Advocate, Google</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>David Rush</name><title>Customer Engineer</title><department></department><company></company></author></item><item><title>Le succès par la culture d’entreprise : pourquoi l'acceptation de l'échec favorise une meilleure livraison logicielle</title><link>https://cloud.google.com/blog/fr/products/devops-et-ingenierie-sre/le-succes-par-la-culture-dentreprise-pourquoi-lacceptation-de-lechec-favorise-une-meilleure-livraison-logicielle/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2fuo6"&gt;&lt;b&gt;Les choses se cassent. C'est la vie. Et lorsque tout ne se déroule pas comme prévu, c'est ce qui se passe ensuite qui est vraiment important.&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="drkgg"&gt;Des études internes réalisées par Google et par notre organisation &lt;a href="http://dora.dev/" target="_blank"&gt;DORA&lt;/a&gt; (‘DevOps Research and Assessment’) montrent que les équipes qui réussissent le mieux sont celles qui encouragent une « culture de la confiance », autrement dit un climat de travail qui autorise la remise en question, la prise de risques et les erreurs.&lt;/p&gt;&lt;p data-block-key="4v8pn"&gt;La culture d’une entreprise façonne notamment la façon de réagir aux opportunités qui se présentent. Mais, dans le domaine de la livraison logicielle, et plus globalement de la performance des équipes, la façon de réagir à l’échec est tout aussi importante.&lt;/p&gt;&lt;p data-block-key="em914"&gt;En adoptant des comportements et des méthodes de travail spécifiques qui encouragent la résilience, une organisation peut accroître significativement l'efficacité de ses équipes et améliorer ses performances.&lt;/p&gt;&lt;h3 data-block-key="d2ajm"&gt;Comment identifier les leviers pour optimiser l'efficacité des équipes logicielles et des cultures organisationnelles ?&lt;/h3&gt;&lt;p data-block-key="39vvm"&gt;Chez Google, nous ne nous contentons pas de fabriquer beaucoup de technologies, nous nous intéressons aussi à la manière dont elles sont fabriquées.&lt;/p&gt;&lt;p data-block-key="d8a06"&gt;&lt;a href="http://dora.dev/" target="_blank"&gt;DORA&lt;/a&gt; est un programme de recherche rigoureux sur le plan académique et statistique qui vise à répondre aux questions suivantes : « &lt;i&gt;Comment la technologie aide-t-elle les organisations à réussir et comment pouvons-nous améliorer la livraison et l'exploitation des logiciels&lt;/i&gt; ? »&lt;/p&gt;&lt;p data-block-key="2sba5"&gt;Grâce à des études internes portant sur des centaines d'équipes Google, tels que le &lt;a href="https://www.nytimes.com/2016/02/28/magazine/what-google-learned-from-its-quest-to-build-the-perfect-team.html" target="_blank"&gt;projet Aristote&lt;/a&gt;, nous avons étudié les moteurs des équipes les plus efficaces.&lt;/p&gt;&lt;p data-block-key="dpjuq"&gt;Nous vous proposons ici d’entamer une nouvelle série d’articles s’appuyant sur ces années de recherches menées par Google. Nous avons regroupé les résultats selon cinq grands axes d’analyse sur lesquels (chacun formant un article) vous pouvez vous appuyer pour optimiser la réussite au sein de votre organisation :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="5lo2p"&gt;La Résilience (le sujet de ce premier article)&lt;/li&gt;&lt;li data-block-key="3k2on"&gt;La Communication&lt;/li&gt;&lt;li data-block-key="38l0"&gt;La Collaboration&lt;/li&gt;&lt;li data-block-key="eukla"&gt;L’Innovation&lt;/li&gt;&lt;li data-block-key="oium"&gt;La Responsabilisation&lt;/li&gt;&lt;/ol&gt;&lt;p data-block-key="3ai9"&gt;La résilience… Qu’est-ce donc ? Et surtout comment peut-elle améliorer les performances ? Comment votre équipe peut-elle en tirer le meilleur profit.&lt;/p&gt;&lt;h3 data-block-key="fsha1"&gt;Résilience : positiver l’échec, oui, mais encore…&lt;/h3&gt;&lt;p data-block-key="6rfpp"&gt;Dans le cadre de cet article, lorsque nous parlons de résilience, nous faisons référence à la résilience culturelle. Dans ce contexte, nous définissons la résilience comme la capacité des équipes à prendre des risques mesurés, à partager ouvertement les échecs et à s'améliorer continuellement sur la base du retour d'information. Les équipes qui font preuve de résilience sont manifestement plus performantes que les autres.&lt;/p&gt;&lt;p data-block-key="6hvq9"&gt;L'idée qu'une culture présentant des caractéristiques de résilience peut être bénéfique à l’entreprise n’est pas nouvelle. &lt;a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1765804/pdf/v013p0ii22.pdf" target="_blank"&gt;L'étude&lt;/a&gt; du sociologue Ron Westrum autour de l'influence de la culture sur le comportement de l'équipe en cas d'échec a mis en évidence trois cultures organisationnelles distinctes : pathologiques, bureaucratiques, génératives. Et les cultures dans lesquelles l'échec conduit à une investigation positive, plutôt qu'à la justice ou à la désignation d'un bouc émissaire, se montrent plus orientées vers la performance. Westrum qualifie ces cultures de « génératives ».&lt;/p&gt;&lt;p data-block-key="bavpn"&gt;Cette analyse du sociologue a été corroborée par nos propres résultats DORA, dès la publication du premier rapport sur l'état de DevOps en 2014. Notre rapport &lt;a href="https://dora.dev/publications/" target="_blank"&gt;2023 Accelerate State of DevOps&lt;/a&gt; démontre que la présence d'une culture générative continue à favoriser une meilleure livraison logicielle et une meilleure performance organisationnelle. Nous pensons que c'est parce que, à la base, DevOps est une approche qui se focalise fondamentalement sur les personnes et les méthodes de travail de ces personnes. Or, les personnes sont le moteur de la culture.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--medium
      
      
        h-c-grid__col
        
        h-c-grid__col--4 h-c-grid__col--offset-4
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Graphic_2.max-1000x1000.png"
        
          alt="Graphic 2"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="pwuj3"&gt;« La culture joue un rôle essentiel dans la capacité à innover et à créer des technologies… les performances des équipes ayant une culture générative sont 30% supérieures à celles qui n’en ont pas ».&lt;/p&gt;&lt;p data-block-key="bupf"&gt;Source: DORA 2023 Accelerate State of DevOps Report&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2fuo6"&gt;Prenons, par exemple, les pratiques de développement dans le domaine de la sécurité. &lt;a href="https://dora.dev/research/2022/dora-report/2022-dora-accelerate-state-of-devops-report.pdf" target="_blank"&gt;Nos recherches&lt;/a&gt; ont montré que les organisations fondées sur une culture de confiance et de résilience sont 1,6 fois plus susceptibles d'adopter des pratiques de sécurité émergentes.&lt;br/&gt; Nous sommes convaincus que ces cultures génératives, résilience comprise, constituent un avantage en termes de posture de sécurité en raison de leur influence sur les méthodes de travail des équipes. Typiquement, dans les organisations « génératives », les personnes sont plus enclines à signaler un problème ou un risque de sécurité car elles ne craignent pas d’être sanctionnées sur leur « irréprochabilité ». Dit autrement, si vous voulez améliorer la posture de sécurité de votre organisation (et aller au-delà), commencez par évaluer la culture de vos équipes.&lt;/p&gt;&lt;p data-block-key="5i7n4"&gt;La résilience peut être redécomposée en deux états d’esprit :&lt;/p&gt;&lt;ol&gt;&lt;li data-block-key="8j7vm"&gt;Le « Démarrer puis itérer »: lancer un projet, recueillir les retours et s’améliorer en continu&lt;/li&gt;&lt;li data-block-key="648od"&gt;La « &lt;a href="https://www.jstor.org/stable/2666999?origin=JSTOR-pdf&amp;amp;seq=1#page_scan_tab_contents" target="_blank"&gt;Sécurité psychologique&lt;/a&gt; » : insuffler la conviction au sein de l’équipe que chaque membre peut prendre des risques en toute sécurité&lt;/li&gt;&lt;/ol&gt;&lt;h3 data-block-key="6t437"&gt;Démarrer et itérer : le « parfait » est l'ennemi du bien&lt;/h3&gt;&lt;p data-block-key="bkdfl"&gt;&lt;i&gt;Êtes-vous prêt à prendre le risque de partager une idée seulement ébauchée à 20% avec vos dirigeants ?&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="cchdg"&gt;Le concept de « résilience » repose en partie sur la collecte d’information et l’amélioration continue. Nos études montrent que les équipes fondées sur l’amélioration continue &lt;a href="https://dora.dev/publications/" target="_blank"&gt;réussissent mieux&lt;/a&gt;. Ce qui suppose des équipes capables de démarrer rapidement, de s'adapter à des circonstances changeantes et d'expérimenter.&lt;/p&gt;&lt;p data-block-key="4rgkc"&gt;Par exemple, dans le cadre de la livraison logicielle, la recherche DORA soutient la philosophie d’une livraison continue afin que le logiciel soit toujours dans un état « déployable ». Pour conserver le logiciel dans un tel état, il est essentiel de mettre en place des mécanismes de collecte des feedbacks et d’être en mesure de surmonter rapidement les échecs. D’après nos études, les équipes qui donnent la priorité à ces mécanismes de feedback affichent de meilleures performances sur la livraison logicielle. &lt;a href="https://cloud.google.com/devops/state-of-devops?hl=fr"&gt;Nos études&lt;/a&gt; montrent également qu’une livraison &lt;a href="https://dora.dev/devops-capabilities/process/working-in-small-batches/" target="_blank"&gt;par petits lots&lt;/a&gt; (donc par fréquentes itérations) améliore la façon dont les équipes reçoivent et utilisent ce feedback, ainsi que leur capacité à se remettre d’un échec notamment.&lt;/p&gt;&lt;p data-block-key="cblti"&gt;Ce concept – démarrer et itérer – n’impacte pas uniquement la qualité du logiciel livré. De fait, il soulève aussi la question de la capacité d’une équipe à s’auto-évaluer, à s’adapter et à changer de méthode quand les résultats le justifient. Inévitablement, cette approche par l’expérimentation entraînera des succès, mais aussi des échecs. Dans tous les cas, les équipes peuvent en tirer des enseignements précieux.&lt;/p&gt;&lt;h3 data-block-key="5c8e1"&gt;Sécurité psychologique : valoriser l’échec comme un succès&lt;/h3&gt;&lt;p data-block-key="1rtg1"&gt;&lt;i&gt;Êtes-vous prêts à accepter l’idée d’échouer ouvertement devant votre équipe ?&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="3bf1m"&gt;Des recherches approfondies menées chez Google ont montré que la sécurité psychologique constitue un facteur clef pour parvenir à des équipes hautement efficaces. Dans ce cadre, nos études montrent que l’efficacité dépend moins des membres de l’équipe que de la façon dont ils interagissent.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Graphic_3.max-1000x1000.png"
        
          alt="Graphic 3"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="pwuj3"&gt;Selon les études réalisées par les analystes de Google, cinq facteurs impactent l’efficacité d’une équipe, classés ici par ordre d’importance. Source : Google re:Work Guide: Understand team effectiveness&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2fuo6"&gt;Dans le cadre du &lt;b&gt;&lt;i&gt;projet Aristote&lt;/i&gt;&lt;/b&gt;, des centaines d’équipes Google ont été interrogées sur la question suivante : « &lt;i&gt;Qu'est-ce qui rend une équipe efficace&lt;/i&gt; ? ». L'analyse statistique des données recueillies a révélé que la dynamique d'équipe la plus importante est la sécurité psychologique, c'est-à-dire la création d'un environnement où la prise de risques intelligents est encouragée. Autrement dit, un climat de travail dans lequel les collaborateurs sont convaincus qu'ils ne seront pas embarrassés ou sanctionnés pour leurs idées, leurs questions ou leurs erreurs.&lt;/p&gt;&lt;p data-block-key="5l2bl"&gt;Une &lt;a href="https://dora.dev/publications/pdf/state-of-devops-2019.pdf" target="_blank"&gt;analyse&lt;/a&gt; plus poussée de DORA montre que ces pratiques ne bénéficient pas uniquement aux équipes de Google : la culture de la « sécurité psychologique » permet d’obtenir de bien meilleurs résultats en matière de livraison logicielle, de performance organisationnelle et de productivité.&lt;/p&gt;&lt;p data-block-key="1v2l1"&gt;Enfin, il est important de rappeler que la culture d’une entreprise découle du management. La &lt;a href="https://dora.dev/devops-capabilities/cultural/transformational-leadership/" target="_blank"&gt;recherche&lt;/a&gt; DORA montre qu'un leadership efficace a un impact mesurable et significatif sur la livraison logicielle. Pour favoriser un climat psychologiquement sûr, où les reproches n’ont pas leur place, les dirigeants doivent accorder à leurs équipes la confiance nécessaire, leur permettre de s'exprimer et leur donner la possibilité d'expérimenter et d'échouer.&lt;/p&gt;&lt;h3 data-block-key="bkge"&gt;Comment, en pratique, améliorer votre résilience ?&lt;/h3&gt;&lt;p data-block-key="558qe"&gt;Adopter une posture d’amélioration continue peut aider à obtenir de meilleures performances organisationnelles. De même, l'adoption de la sécurité psychologique dans votre organisation peut aider vos équipes à travailler plus efficacement. De notre point de vue, ces deux approches constituent les fondements d’une résilience qui favorise la réussite par la culture.&lt;/p&gt;&lt;p data-block-key="9v15p"&gt;Alors, à quoi ressemble la résilience lorsqu'elle est appliquée concrètement dans nos comportements et renforcée dans notre travail quotidien ?&lt;/p&gt;&lt;p data-block-key="5uuol"&gt;Nous pouvons nous &lt;b&gt;améliorer&lt;/b&gt; &lt;b&gt;continuellement&lt;/b&gt; en démarrant rapidement les projets, en définissant des indicateurs de réussite, en collectant des informations (y compris par le biais du crowdsourcing) et en valorisant ce que nous apprenons, à la fois pour améliorer nos produits et notre façon de travailler. Cette approche peut être renforcée par des pratiques techniques telles que l'intégration continue, les tests automatisés, la livraison continue, l’observabilité et le monitoring, pour n'en citer que quelques-unes. Ces pratiques constituent à la fois les fondations et les garde-fous qui favorisent une itération sûre, rapide et fiable.&lt;/p&gt;&lt;p data-block-key="vlkf"&gt;Nous pouvons aussi &lt;b&gt;normaliser l'échec&lt;/b&gt; en organisant des « pré-mortems », sorte d’analyse en vue d’anticiper les innombrables façons dont une idée peut échouer, et des « post-mortems sans reproches » (analyses a posteriori). L’idée étant d’avoir des conversations franches sur les moments où les choses ne se sont pas déroulées comme prévu en imaginant les leviers qui auraient pu être actionnés pour améliorer la situation. Le tout sans faire de reproche à qui que ce soit.&lt;/p&gt;&lt;p data-block-key="cv6iv"&gt;Nous avons, par exemple, constaté que les équipes qui encouragent des « pratiques de fiabilité », y compris des postmortems sans reproches, font état d’une meilleure productivité et d’une satisfaction professionnelle plus élevées. Elles affichent également un taux d'épuisement professionnel plus faible que leurs homologues qui utilisent des approches opérationnelles plus traditionnelles. Nous pensons que cela s'explique notamment par le fait qu'une peur persistante de commettre des erreurs peut entraîner un certain mal-être.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Graphic_4.png.max-1000x1000.png"
        
          alt="Graphic 4"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="pwuj3"&gt;Les analyses a posteriori sans reproches permettent d'éviter que les problèmes se reproduisent, d’éviter d’engendrer plus de complexité et d'apprendre de ses erreurs et de celles des autres.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="2fuo6"&gt;Ces méthodes de travail sont illustrées par nos derniers &lt;a href="https://cloud.google.com/awards/devops?hl=fr"&gt;lauréats&lt;/a&gt; du Google Cloud DevOps Award. Ils ont montré comment ils mettent en œuvre ces pratiques (et d'autres) pour favoriser la réussite de leur organisation et se montrer plus performants. Typiquement, imaginez une entreprise qui s’appuie sur des &lt;a href="https://dora.dev/" target="_blank"&gt;équipes interfonctionnelles&lt;/a&gt; pour éliminer les goulets d'étranglement, débloquer des situations et améliorer la communication. Nous aurons l’occasion d’y revenir dans un prochain article.&lt;/p&gt;&lt;p data-block-key="bgrrg"&gt;En attendant, entraînez-vous à l'échec en expérimentant de nouvelles méthodes de travail, y compris en testant de nouvelles approches sur la livraison logicielle, l’opérationnel, etc. Et posez-vous la question suivante : comment réagirez-vous la prochaine fois que quelque chose ne fonctionnera pas ?&lt;/p&gt;&lt;p data-block-key="bt575"&gt;Pour en savoir plus, faites le DevOps Quick Check et lisez le dernier rapport sur l'état des DevOps, tous deux disponibles sur &lt;a href="https://dora.dev/" target="_blank"&gt;dora.dev&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 13 Mar 2024 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/devops-et-ingenierie-sre/le-succes-par-la-culture-dentreprise-pourquoi-lacceptation-de-lechec-favorise-une-meilleure-livraison-logicielle/</guid><category>Application Modernization</category><category>DevOps &amp; SRE</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Le succès par la culture d’entreprise : pourquoi l'acceptation de l'échec favorise une meilleure livraison logicielle</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/devops-et-ingenierie-sre/le-succes-par-la-culture-dentreprise-pourquoi-lacceptation-de-lechec-favorise-une-meilleure-livraison-logicielle/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>James Pashutinski</name><title>Digital Transformation Consultant</title><department></department><company></company></author></item><item><title>Mais, au fait, où en est-on de la transformation digitale ?</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/mais-au-fait-ou-en-est-on-de-la-transformation-digitale/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="1uisb"&gt;La transformation numérique… But ultime pour se forger un avenir prospère dans le monde de demain, cette notion est au cœur des discussions depuis des années. Mais, concrètement, où en sommes-nous dans la quête à la numérisation ?&lt;/p&gt;&lt;p data-block-key="36hib"&gt;Excellente question ! Pour pouvoir y répondre, commençons par revenir aux fondamentaux de cette transformation que l’on nous vante sur tous les fronts. Numérique ou digitale, la transformation est avant tout là pour apporter plus de valeur aux clients, aux collaborateurs et aux actionnaires. Dit autrement, et pour faire court, l’objectif est clairement d’industrialiser les processus manuels existants en les optimisant grâce aux technologies. La finalité ultime étant, bien entendu, de mettre l’outil de production au service de la stratégie de l’entreprise, qu’il s’agisse de répondre, voire anticiper, les attentes du client, d’innover et d’accroître sa compétitivité sur le marché grâce à l’agilité apportée par des processus numérisés.&lt;/p&gt;&lt;p data-block-key="64jhv"&gt;Confronté à une concurrence particulièrement rude, le secteur des services - banques, commerce, assurances, divertissement, etc. – est particulièrement en pointe sur le sujet. Et pour cause ! Dans ce secteur, les « Digital Native », autrement dit les entreprises nées à l’ère d’Internet, y sont particulièrement présentes. Affranchies d’un existant informatique qui freine toute transformation, mais aussi d’infrastructures physiques qui amputent leurs coûts opérationnels, elles capitalisent sur l’abonnement, modèle économique particulièrement apprécié par le client. Au cœur de leur stratégie, l’application, qu’elle soit Web ou mobile, est la clé du succès. Commande, renouvellement, gestion d’incident…quel que soit le processus, l’application doit répondre aux attentes du client. Et si le processus n’est pas optimal et correctement géré de bout en bout, le client est perdu ! Dans le monde des Digital Natives qui réussissent, les recherches inefficaces, les problèmes d’authentification, les interfaces peu intuitives ou encore les redirections vers un numéro de téléphone, une autre application ou un autre site qui découragent le chaland, n’ont clairement pas leur place.&lt;/p&gt;&lt;p data-block-key="6iugg"&gt;Face aux géants du commerce en ligne, la grande distribution a très rapidement réagi, capitalisant sur les technologies pour mettre en place de nouvelles stratégies commerciales exploitant le canal numérique.&lt;/p&gt;&lt;p data-block-key="d0u9n"&gt;Aujourd’hui, on constate une effervescence côté banques, assurances, mutuelles où la modernisation applicative apparaît obligatoire pour accompagner les nouveaux usages. De fait, qui se déplace encore chez son assureur historique pour assurer son animal de compagnie ? Et pourquoi solliciter son banquier habituel pour financer l’acquisition d’un véhicule alors qu’une LOA est naturellement proposée par le constructeur automobile ?&lt;/p&gt;&lt;p data-block-key="a84ig"&gt;Dès lors, on comprend aisément que, dans les grands groupes du tertiaire, la transformation digitale est déjà clairement amorcée. Elle se traduit notamment par un portefeuille applicatif moderne ou en cours de modernisation. Les autres industries ne sont pas en reste : dans les starting-blocks, elles se doivent d’embrasser ce changement culturel, visant à faire mieux, plus vite et moins cher avec le patrimoine applicatif de l’entreprise.&lt;/p&gt;&lt;p data-block-key="fsom5"&gt;Avec le recul, on devrait parler de&lt;b&gt;&lt;i&gt; transformation applicative&lt;/i&gt;&lt;/b&gt; plutôt que de transformation digitale. Car l’application est désormais au centre de la stratégie d’entreprises, tant elle impacte les équipes, la culture et l’efficacité, mais aussi l’expérience des utilisateurs, qu’ils soient collaborateurs ou clients. La prise de conscience est là : pour gagner en agilité, la majorité des entreprises ont mis en place des "digital factory", développé des approches DevOps et adopté des plateformes technologiques pour héberger ces nouvelles applications. Malgré tout, elles sont confrontées à des difficultés…&lt;/p&gt;&lt;h3 data-block-key="cf30p"&gt;Les coûts de l’infrastructure&lt;/h3&gt;&lt;p data-block-key="3hgo0"&gt;Comme souvent, les entreprises se retranchent derrière les coûts, considérés comme le premier frein à la transformation applicative. Elles sont convaincues de maîtriser parfaitement leurs coûts d’infrastructure, ainsi que le budget alloué à l’évolution (relative) et au maintien en condition opérationnelle de leur application. En revanche, dès qu’elles se tournent vers le cloud, la projection montre une augmentation significative des coûts. Sauf que leur perception est faussée car bien souvent, elles comparent une bonne vieille carte routière au format papier à un GPS de dernière génération. Certes, la carte routière permet de trouver un itinéraire, mais elle est loin d’être pratique : il faut la déplier, elle se déchire, elle peut être obsolète, il en faut parfois plusieurs… Alors qu'avec un GPS, la cartographie est à jour et, en plus, l’application mémorise mes centres d'intérêt et me guide vocalement. Oui, le GPS est plus cher, mais offre des fonctionnalités avancées et une meilleure expérience d’utilisation. Dit autrement, la transformation par le cloud coûte plus ou moins cher, mais elle fait passer l’entreprise de l’âge de la carte routière à celui du GPS et lui permet d’apporter :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="4vj03"&gt;Plus de valeur ajoutée à l’utilisateur en lui proposant un service disponible, fluide, innovant et sécurisé&lt;/li&gt;&lt;li data-block-key="53in0"&gt;Plus d’efficience pour les équipes en simplifiant les développements et les opérations&lt;/li&gt;&lt;li data-block-key="d7ri3"&gt;Plus d’innovation pour rester en avance sur les concurrents et gagner des parts de marché&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="590d1"&gt;Dans quel domaine doit-on optimiser sa stratégie ?&lt;/h3&gt;&lt;p data-block-key="a806s"&gt;Pour identifier les domaines prioritaires sur lesquels, en 2024, baser votre stratégie de transformation applicative afin d’en tirer le meilleur parti possible, voici quelques pistes incontournables :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="f18a0"&gt;&lt;b&gt;&lt;i&gt;Optimisation / containerisation&lt;/i&gt;&lt;/b&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="28h3c"&gt;L’infrastructure, qu’elle soit matérielle, virtuelle ou containerisée, peut être optimisée en basculant sur des clusters Kubernetes managés tels que&lt;a href="https://cloud.google.com/kubernetes-engine?hl=fr"&gt; Google Kubernetes Engine&lt;/a&gt; (GKE) ou bien sur des services de plus haut niveau, dits "serverless", tels que&lt;a href="https://cloud.google.com/run?hl=fr"&gt; Cloud Run&lt;/a&gt;.&lt;br/&gt;L’usage de conteneurs permet de réduire l’empreinte de l’application en termes de ressources. Mais les bénéfices sont également opérationnels et financiers : plusieurs clusters peuvent être administrés d’une même console, la sécurité est native et avancée, le dimensionnement s’adapte à l’usage, etc.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="b8c1i"&gt;&lt;b&gt;&lt;i&gt;APIsation&lt;/i&gt;&lt;/b&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="63jj"&gt;Pour enrichir l’application, l’utilisation de services externes peut avoir une forte valeur ajoutée voire être une nécessité. Par exemple, proposer à l’utilisateur l’intégration d’une cartographie, le suivi de son colis ou l’ajout de données statistiques s'avère indispensable, mais aussi très complexe à mettre en œuvre si on ne s’appuie pas sur des partenaires proposant ces derniers comme des services à consommer, généralement via des APIs.&lt;br/&gt;Ainsi, une brique de gestion des APis telle que&lt;a href="https://cloud.google.com/apigee?hl=fr"&gt; Apigee&lt;/a&gt; permet de créer, de gérer, de monétiser et de sécuriser des API pour tous les cas d'usage, internes comme externes. Cette solution permet également de publier des (micro)services pour des partenaires et ainsi ouvrir une partie des assets applicatifs à de nouveaux canaux.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="ftgkr"&gt;&lt;b&gt;&lt;i&gt;IA et Gen AI&lt;/i&gt;&lt;/b&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="8h1lc"&gt;Pour beaucoup d'entre nous, l’&lt;b&gt;&lt;i&gt;intelligence artificielle&lt;/i&gt;&lt;/b&gt; semble magique ! En fait, elle &lt;i&gt;EST&lt;/i&gt; magique dans le sens où elle est capable de trouver des tendances ou des patterns dans un référentiel de données tellement complexe, tellement volumineux que nous sommes incapables de l’exploiter avec des moyens informatiques classiques, et encore moins de l’appréhender avec nos yeux humains.&lt;/p&gt;&lt;p data-block-key="2ilb8"&gt;Elle peut dès lors apporter une incroyable valeur ajoutée d’un point de vue métier en valorisant des données jusqu’ici inexploitées. La seule limite est votre créativité.&lt;/p&gt;&lt;p data-block-key="7g8bv"&gt;Typiquement, l’IA peut permettre de:&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="92inl"&gt;Générer des campagnes marketing dont le contenu - mixant texte, image, vidéo - est spécifiquement adapté au profil ciblé, offrant ainsi de bien meilleurs résultats.&lt;/li&gt;&lt;li data-block-key="432h9"&gt;Résumer ou synthétiser des documents volumineux, des résultats ou même des tendances.&lt;/li&gt;&lt;li data-block-key="chri4"&gt;Proposer une recommandation de produits et services beaucoup mieux adaptés au prospect naviguant sur un site e-commerce, boostant ainsi les taux de conversion.&lt;/li&gt;&lt;li data-block-key="br2hu"&gt;Implémenter une maintenance prédictive, évitant des surcoûts inutiles et les pannes.&lt;/li&gt;&lt;li data-block-key="ea9qh"&gt;Permettre des conversations naturelles basées sur une base de connaissance.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3j8b6"&gt;Pour développer et entraîner un modèle IA, il faut de la donnée, beaucoup de données. Le processus est long, complexe et coûteux en termes de ressources requises. Mais l’IA et l’IA générative sont maintenant plus accessibles puisque proposées sous forme de services managés, s’appuyant sur des centaines de modèles préentraînés, capables de reproduire une voix, de soutenir une conversation, de générer des images plus vraies que nature, de générer du code informatique, etc.&lt;/p&gt;&lt;p data-block-key="9oofa"&gt;Avec&lt;a href="https://cloud.google.com/vertex-ai"&gt; Vertex AI&lt;/a&gt;, Google Cloud procure un service simple et pratique pour entraîner, personnaliser et déployer des modèles à utiliser dans vos applications basées sur l'IA. En complément, son nouveau « super assistant »&lt;a href="https://cloud.google.com/duet-ai"&gt; Duet AI&lt;/a&gt;, prêt à l’emploi et intégré aux différents services GCP, accompagne les équipes sur la sécurité, le développement, les opérations, la gestion des données, etc., améliorant ainsi la productivité de celles-ci.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="btkak"&gt;&lt;b&gt;&lt;i&gt;Sécurité de bout en bout&lt;/i&gt;&lt;/b&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="4spmc"&gt;Comme nous l’avons vu plus haut, l’application doit être disponible et sécurisée pour s’assurer que ni les données de l’utilisateur ni les données de l’entreprise ne sont exposées. La sécurité apportée par l’infrastructure Cloud est indispensable, mais elle n’est pas suffisante. En effet, si les développeurs utilisent des librairies corrompues, si le cycle d’intégration et de déploiement n’est pas parfaitement maîtrisé, l’entreprise peut mettre en production une application présentant de graves failles compromettant les sécurités en place et la protection des données.&lt;br/&gt;La sécurité doit donc être intégrée de bout en bout, sur l’ensemble du cycle de développement de déploiement.&lt;/p&gt;&lt;p data-block-key="4f23p"&gt;Fort de son expérience dans ce domaine, Google Cloud propose une solution complète et managée :&lt;a href="https://cloud.google.com/solutions/software-supply-chain-security?hl=fr"&gt; Software Delivery Shield&lt;/a&gt; (SDS) permet de contrôler les composantes open source, d’intégrer des packages validés, d’utiliser une chaîne&lt;a href="https://cloud.google.com/docs/ci-cd?hl=fr"&gt; CI/CD&lt;/a&gt; basée sur&lt;a href="https://slsa.dev/" target="_blank"&gt; SLSA&lt;/a&gt;, de signer/autoriser les binaires, etc.&lt;/p&gt;&lt;p data-block-key="7524g"&gt;En complément,&lt;a href="https://cloud.google.com/solutions/software-supply-chain-security?hl=fr"&gt; Cloud Workstation&lt;/a&gt; offre aux développeurs un environnement sécurisé, évolutif et personnalisé en fonction des projets permettant ainsi de s’affranchir des problématiques liées aux stations de développement (délai d'approvisionnement et de paramétrage, disparité des configurations, obsolescence, perte/vol, coût) qui limitent l'efficacité des équipes de développement.&lt;/p&gt;&lt;p data-block-key="4n4o"&gt;Les axes de modernisation des applications sont donc nombreux et variés, rendant obsolète un projet unique de modernisation. Plutôt que de suivre une approche classique – voire ancestrale – de projet, avec des objectifs, un budget, et une durée définis à l’avance, mieux vaut opter pour une stratégie de &lt;b&gt;&lt;i&gt;modernisation continue&lt;/i&gt;&lt;/b&gt;. Cette dernière privilégie des mises à jour simples et régulières, évitant ainsi les changements complexes et risqués.&lt;/p&gt;&lt;p data-block-key="bd0cl"&gt;Cette approche favorise le changement tout en permettant de tirer des leçons à chaque itération et de gagner progressivement en maturité.&lt;/p&gt;&lt;p data-block-key="1bnk3"&gt;Elle favorise une étroite collaboration entre les équipes pour identifier les améliorations nécessaires, évaluer leurs avantages potentiels (comme la disponibilité, l'innovation, la sécurité, et les fonctionnalités uniques), mais aussi estimer le retour sur investissement afin de prioriser ces améliorations.&lt;/p&gt;&lt;p data-block-key="69unv"&gt;Une telle approche présente au final deux avantages. D'abord, elle est financièrement avantageuse, car elle évite de moderniser des éléments qui n'en ont pas besoin. Ensuite, elle permet une modernisation transversale (impliquant le développement, la sécurité, les opérations et les affaires), ce qui fédère les équipes autour de l'application et donc du Business.&lt;/p&gt;&lt;p data-block-key="69pj6"&gt;Bonne transformation applicative !&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 29 Jan 2024 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/mais-au-fait-ou-en-est-on-de-la-transformation-digitale/</guid><category>AI &amp; Machine Learning</category><category>Infrastructure Modernization</category><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Mais, au fait, où en est-on de la transformation digitale ?</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/mais-au-fait-ou-en-est-on-de-la-transformation-digitale/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Frederic Duport</name><title>AppMod Practice Lead</title><department></department><company>Google Cloud France</company></author></item><item><title>Google nommé leader des plateformes de Functions-As-A-Service par Forrester</title><link>https://cloud.google.com/blog/fr/products/sans-serveur/google-nomme-leader-des-plateformes-de-functions-service-par-forrester/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;En 2016, nous avons lancé Cloud Functions, une solution permettant aux développeurs de concevoir facilement des applications hautement évolutives axées sur la programmation événementielle sans qu’ils aient à se préoccuper de l'infrastructure. Né de notre volonté de fournir un environnement flexible qui accélère les développements, le service serverless Cloud Functions répond également aux besoins de portabilité de nos clients et s’inscrit dans notre stratégie de &lt;a href="https://cloud.google.com/open-cloud"&gt;cloud ouvert&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;Tirant parti de nos innovations, telles que &lt;a href="https://cloud.google.com/functions/docs/functions-framework"&gt;Functions Frameworks&lt;/a&gt; et &lt;a href="https://cloud.google.com/docs/buildpacks/build-function"&gt;Buildpacks&lt;/a&gt;, notre plateforme Functions-As-A-Service (FaaS) est le reflet de notre engagement en faveur de l’open source. Nous sommes donc d’autant plus ravis d’avoir été classés parmi les leaders mondiaux du FaaS dans le dernier rapport &lt;a href="https://www.forrester.com/report/the-forrester-wave-tm-functions-as-a-service-platforms-q2-2023/RES178501" target="_blank"&gt;The Forrester Wave™:  Functions-As-A-Service, Q2 2023&lt;/a&gt;.&lt;/p&gt;&lt;h3&gt;Faire évoluer les limites du FaaS&lt;/h3&gt;&lt;p&gt;En 2022, nous avons augmenté le potentiel de notre plateforme FaaS en annonçant &lt;a href="https://cloud.google.com/blog/products/serverless/cloud-functions-2nd-generation-now-generally-available"&gt;Cloud Functions 2nd gen&lt;/a&gt;, une nouvelle version qui propose des fonctionnalités de traitement encore plus puissantes et très efficientes :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Intégration aux événements provenant de plus de 140 sources GCP, tierces ou personnalisées via le service de gestion d’événements &lt;a href="https://cloud.google.com/eventarc/docs?hl=fr"&gt;Eventarc&lt;/a&gt; ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Des workloads HTTP plus endurants avec un temps d’exécution pouvant aller jusqu'à 60 minutes ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Plus de mémoire et de CPU attribués aux workloads : jusqu’à 32 Go de RAM et 8 vCPU ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Traitement simultané de multiples requêtes (jusqu'à 1 000) avec une seule instance, ce qui réduit considérablement les démarrages à froid, améliore la latence et diminue les coûts.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;L’approche « container-first » de Cloud Functions ‘2nd gen’ permet aux clients exploitant notre solution FaaS d’exécuter les traitements sur GCP mais également sur site (on-premises) dans leurs datacenters ou sur une autre plateforme cloud. Elle permet aussi de basculer les workloads de Cloud Functions à Cloud Run et Google Kubernetes Engine. Plus économique, cette approche vous évite d’avoir à adapter vos workloads si jamais vous souhaitez les déplacer d’une plateforme à l’autre.&lt;/p&gt;&lt;h3&gt;Points forts relevés par le rapport Forrester&lt;/h3&gt;&lt;p&gt;Google fait partie des neuf entreprises que Forrester a sélectionnées dans son évaluation 2023. Nous avons obtenu les meilleures notes possibles dans les critères Vision, Adoption et Observabilité. Cloud Functions a également été salué pour sa roadmap, obtenant sur ce critère le meilleur score parmi tous les fournisseurs évalués. « Impressionnante, la roadmap [de Cloud Functions] prévoit notamment l’expansion à de multiples régions et un meilleur support pour les entreprises », indique Forrester. &lt;/p&gt;&lt;h3&gt;Gestion des workloads spécialisés&lt;/h3&gt;&lt;p&gt;Dans son rapport, Forrester souligne aussi que Cloud Functions est « la seule plateforme autorisant les clients à configurer l'allocation mémoire et CPU de manière totalement indépendante, ce qui renforce sa capacité à gérer des workloads spécialisés ».&lt;/p&gt;&lt;p&gt;Ainsi, Cloud Functions obtient une note de 4,20 / 5 sur le critère « gestion des workloads spécialisés », soit la note la plus élevée de tous les fournisseurs sélectionnés. Nous sommes convaincus que cette note salue nos efforts pour proposer une plateforme puissante qui intègre les solutions AI et ML de Google Cloud, dont &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/simplifying-ml-predictions-with-google-cloud-functions?hl=en"&gt;la génération de prédictions&lt;/a&gt; avec les modèles ML de &lt;a href="https://cloud.google.com/vision-ai/docs/use-cloud-functions"&gt;Vertex AI&lt;/a&gt; ou encore la création d’applications de reconnaissance optique des caractères (OCR) avec &lt;a href="https://cloud.google.com/functions/docs/tutorials/ocr?hl=fr"&gt;Vision API&lt;/a&gt;. De plus, Cloud Functions gère le streaming de données en temps réel (&lt;a href="https://firebase.google.com/docs/database/extend-with-functions?gen=2nd" target="_blank"&gt;real-time data streaming&lt;/a&gt;), fonctionnalité adaptée à de nombreux cas d’usages dont la détection des fraudes.&lt;/p&gt;&lt;p&gt;En indiquant que « Google Cloud Functions se distingue par sa flexibilité de configuration du matériel et des types d’instances », Forrester met également en évidence la capacité de Cloud Functions à prendre en charge des workloads centrés sur le contenu, à commencer par le support de Google Cloud CDN.&lt;/p&gt;&lt;h3&gt;Intégration à tout l’univers Google Cloud&lt;/h3&gt;&lt;p&gt;Notre plateforme FaaS est capable de gérer un large éventail de cas d’usage dans Google Cloud, et nos « investissements dans la plateforme managée Firebase pour les applications web et mobiles élargissent encore le spectre d’application de la plateforme FaaS », note Forrester dans son rapport. Disponible depuis peu, &lt;a href="https://firebase.google.com/docs/functions/version-comparison" target="_blank"&gt;Firebase Functions 2nd gen&lt;/a&gt; est une solution puissante dont l’infrastructure a été améliorée et qui propose une plus grande couverture d’événements. Nous avons également lancé &lt;a href="https://extensions.dev/" target="_blank"&gt;Firebase Extensions&lt;/a&gt;, un ensemble de solutions serverless pré-packagées s’appuyant sur Cloud Functions.&lt;/p&gt;&lt;p&gt;Dit autrement, Cloud Functions est aussi un puissant outil sur lequel vous pouvez vous appuyer pour étendre et automatiser vos services Google Cloud. &lt;a href="https://cloud.google.com/bigquery/docs/remote-functions#:~:text=A%20BigQuery%20remote%20function%20allows,in%20BigQuery%20user%2Ddefined%20functions."&gt;BigQuery Remote Functions&lt;/a&gt; en est un exemple concret. Cette récente innovation vous permet d’étendre BigQuery SQL en y ajoutant vos propres fonctions hébergées dans Cloud Functions. Concrètement, vous pouvez ainsi enrichir des données BigQuery en temps réel en appelant des API externes, exploiter des modèles dans Vertex AI ou autres plateformes ML ou encore appliquer simplement un chiffrement et une tokenisation de données.&lt;/p&gt;&lt;p&gt;Nous sommes ravis et honorés d'avoir été nommés « leader » par Forrester dans son nouveau rapport  &lt;a href="https://www.forrester.com/report/the-forrester-wave-tm-functions-as-a-service-platforms-q2-2023/RES178501" target="_blank"&gt;The Forrester Wave™ Functions-As-A-Service Q2 2023&lt;/a&gt;. Si vous souhaitez &lt;a href="https://cloud.google.com/functions"&gt;tester Cloud Functions&lt;/a&gt;, n’hésitez pas à profiter de l'offre « Free Tier » de Google Cloud.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 07 Sep 2023 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/sans-serveur/google-nomme-leader-des-plateformes-de-functions-service-par-forrester/</guid><category>Application Modernization</category><category>Serverless</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google nommé leader des plateformes de Functions-As-A-Service par Forrester</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/sans-serveur/google-nomme-leader-des-plateformes-de-functions-service-par-forrester/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Rachel Tsao</name><title>Senior Product Manager</title><department></department><company></company></author></item><item><title>Modernisation applicative : Votre projet de plateforme est-il voué à l'échec ?</title><link>https://cloud.google.com/blog/fr/products/modernisation-dapplications/modernisation-applicative-votre-projet-de-plateforme-est-il-voue-a-lechec/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Dans un récent article de notre nouvelle rubrique « The Modernization Imperative (TMI) », &lt;a href="https://www.linkedin.com/in/seroter" target="_blank"&gt;Richard Seroter&lt;/a&gt; mettait en évidence l’avantage du « &lt;a href="https://cloud.google.com/blog/products/application-development/richard-seroter-on-shifting-down-vs-shifting-left"&gt;shifting down rather than shifting left&lt;/a&gt; » (déplacement vers le bas plutôt que vers la gauche). Cette méthode vise à tirer au maximum parti des fonctionnalités embarquées dans les plateformes utilisées afin d’alléger la charge de travail des développeurs et des opérateurs. En tant que conseiller auprès des responsables ingénierie des projets de modernisation dans le cloud, je partage pleinement son point de vue. Toutefois, si votre organisation compte construire sa propre plateforme (et par extension l’équipe IT qui va avec), rendez-vous service en vous posant quelques questions clés avant même de démarrer.&lt;/p&gt;&lt;p&gt;Créer ses propres plateformes technologiques en interne semble être devenu &lt;a href="https://www.gartner.com/en/articles/what-is-platform-engineering" target="_blank"&gt;une pratique très en vogue&lt;/a&gt; dans les entreprises ces derniers temps. Et pour cause : elles permettent aux équipes IT d'être plus productives et plus autonomes, tout en centralisant la gouvernance et la gestion de la sécurité. Non seulement, le cloud est lui-même une plateforme (d’où le nom GCP, Google Cloud Platform) mais c’est aussi l’opportunité idéale d’y développer et déployer une multitude de plateformes complémentaires, qu’il s’agisse de plateformes de données avec &lt;a href="https://cloud.google.com/bigquery"&gt;BigQuery&lt;/a&gt;, de plateformes ML/AI avec &lt;a href="https://cloud.google.com/vertex-ai"&gt;Vertex AI&lt;/a&gt;, de plateformes de gestion d’APIs avec &lt;a href="https://cloud.google.com/apigee"&gt;Apigee&lt;/a&gt;, ou encore de plateformes multi-tenant d’exécution de conteneurs avec &lt;a href="https://cloud.google.com/kubernetes-engine"&gt;Google Kubernetes Engine&lt;/a&gt;. Dit autrement dit, on assiste aujourd’hui à un phénomène de superposition et d’imbrications de plateformes ! &lt;/p&gt;&lt;p&gt;Pour un DSI ou un architecte d'entreprise, investir dans le déploiement d’une plateforme présente des avantages évidents. Mais il y a un hic : personne d'autre dans l’entreprise ne s'intéresse à votre plateforme. Car ce n’est pas parce que vous avez déployé une belle plateforme prête à l’emploi que les utilisateurs vont nécessairement se jeter dessus.&lt;/p&gt;&lt;p&gt;Vous pouvez bien sûr forcer les gens à utiliser votre plateforme. Mais vous n’aurez alors atteint votre objectif qu’à moitié : tandis que vous avancez en centralisant votre gouvernance et en optimisant votre posture de sécurité, vos utilisateurs reculent car vous les obligez à apprendre, à s’équiper et à adopter une solution qu’ils n’ont pas demandée et dont ils n’ont (subjectivement) pas besoin. Une plateforme qu’ils détesteront par défaut, avant même de commencer à l’utiliser. Si leur expérience n'est pas parfaite (et la perfection n’est pas de ce monde), ils rejetteront la faute sur la plateforme et sur vous.&lt;/p&gt;&lt;p&gt;Alors quels sont vos moyens pour encourager l’adoption, voire l’adoption massive de votre solution ? L’implémentation de nouvelles plateformes internes est-elle systématiquement vouée à l’échec ? Fort heureusement, non !&lt;/p&gt;&lt;p&gt;De fait, afin de maximiser vos chances de succès, vous devrez avant tout développement vous poser ces trois questions essentielles : Pour qui construisez-vous la plateforme ? Qui va la construire ? Et enfin, comment allez-vous en mesurer le succès ?&lt;/p&gt;&lt;h3&gt;Question 1 : Pour qui construisez-vous ?&lt;/h3&gt;&lt;p&gt;« Commencez par l'utilisateur et travaillez en sens inverse ». Ce conseil, nous l’avons tous entendu. Mais, dans les grandes entreprises, il n’est pas toujours évident à suivre. En pratique, l’utilisateur réel de l’infrastructure est souvent un collaborateur d’un autre service dont les besoins sont exprimés par son chef de service ou le chef produit. Ces derniers interagissent ensuite avec le « responsable de l’infrastructure X » qui privilégie les fonctionnalités de backlog et délègue le design d’architecture à un architecte d’entreprise qui, à son tour, conseille les ingénieurs sur la conception de l’infrastructure. Vous l’aurez compris, à ce stade, plus personne ne se souvent des besoins réels de l’utilisateur !&lt;/p&gt;&lt;p&gt;Pour éviter d’en arriver là, voilà comment vous auriez dû aborder le problème : les ingénieurs qui mettent en œuvre l’infrastructure doivent régulièrement rencontrer l'utilisateur final en face à face, ce dernier étant accompagné par le chef produit de son service. Toutes les personnes impliquées dans la création ou l’exploitation de l’infrastructure doivent tenir dans une seule pièce - ou au moins tenir sur un seul écran "Meet/Zoom/Teams". C’est d’ailleurs la raison pour laquelle la meilleure des plateformes est souvent celle que les gens se sont auto-créée : vous pouvez difficilement être plus proche de l’utilisateur quand l’utilisateur, c’est vous.&lt;/p&gt;&lt;p&gt;Si avoir toutes les parties prenantes dans la même pièce est impossible, vous pouvez aussi vous appuyer sur un outil puissant : les « user watch parties » ou séances d’observation des utilisateurs. Le principe est simple : réunis dans une pièce, les ingénieurs observent l’utilisateur pendant qu'il interagit avec la plateforme dans la pièce voisine à travers un miroir sans tain.  &lt;/p&gt;&lt;p&gt;En réalité, il suffit d’enregistrer tout ce qui se passe sur leur écran et leurs remarques, en ayant bien entendu demandé leur accord au préalable. Recrutez cinq utilisateurs qui veulent bien se prêter à l’expérience et donnez-leur deux ou trois objectifs identiques à atteindre en utilisant l'ancienne plateforme que vous souhaitez remplacer ou la version MVP (Minimum Viable Product, ou Produit Minimum Viable) de celle que vous envisagez de construire. Demandez-leur de réfléchir à haute voix et d'exprimer toutes les suppositions qu'ils font et toutes les difficultés qu'ils peuvent éprouver.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_HdKMMxj.max-2000x2000.jpg"
        
          alt="AppMod"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Vous serez alors surpris de constater que même l'utilisateur le plus intelligent et le plus avisé prendra plus de temps que vous ne le pensiez et se retrouvera bloqué à des endroits auxquels vous n’auriez jamais pensé. Vous pourriez être tenté de rejeter ces réactions « anecdotiques » en les qualifiant d'aberrantes. Vous pourriez également imaginer qu'une documentation plus claire et une formation supplémentaire pourraient faire disparaître ces réactions. Mais la réalité est toute autre : vous assistez au véritable défi à relever par votre nouvelle plateforme : elle doit plaire à vos utilisateurs et rendre leur travail plus facile.&lt;/p&gt;&lt;p&gt;Les « user watch parties » présentent également l'avantage d'aligner toute votre équipe d'ingénieurs sur les mêmes priorités, pour la simple raison qu’ils viennent de partager les mêmes observations. Alors qu’avant la « user watch party » chaque membre de l’équipe pouvait avoir sa propre prochaine fonctionnalité favorite à construire, une fois la réunion terminée, il deviendra douloureusement évident que c’est bien une fonctionnalité existante qui méritera en priorité toute l’attention de l’équipe.&lt;/p&gt;&lt;h3&gt;Question 2 : Qui va la construire ?&lt;/h3&gt;&lt;p&gt;Avoir des idées, c’est facile. Les concrétiser, c’est plus difficile. Si vous n’abordez pas la question de manière critique, l’équipe qui construira la plateforme sera celle qui en a eu l’idée. &lt;br/&gt;La pilule pourra parfois paraître difficile à avaler, mais n’oublions pas que l’enjeu ne tourne pas autour de vous, de vos ingénieurs en charge de la plateforme, du « Head of Platforms » (responsable des Plateformes) ou même du DSI : l’enjeu est centré sur l’utilisateur. Vous devez donc former une équipe infrastructure capable de satisfaire les besoins des utilisateurs en premier lieu, et vos ambitions personnelles ensuite.&lt;/p&gt;&lt;p&gt;Se pose alors la question de l’équipe idéale. Pour faire court, l’équipe plateforme idéale est dédiée au projet, petite et polyvalente. Il vaut mieux n’avoir que trois ingénieurs qui se consacrent exclusivement à la plateforme plutôt que 10 qui ont d’autres priorités et consacrent leur peu de temps libre au projet. Et oui, cette équipe suppose des effectifs dédiés et un sponsor exécutif fort, de sorte à encourager ses membres dès les premières phases de développement. C’est la manière dont toutes les entreprises « digital native » fonctionnent pour construire leurs plateformes et vous devez vous en inspirer.&lt;/p&gt;&lt;p&gt;La création d'une plateforme est un défi d'apprentissage, pas un défi d'exécution : les retours d'information rapides et l'apprentissage partagé sont essentiels à la réussite de l'équipe. Physiquement ou virtuellement, les membres de l’équipe doivent pouvoir travailler dans la plus grande proximité et dépendre au minimum d’autres équipes. Cette proximité est également essentielle pour éviter de tomber dans le piège du « ce n’est pas mon travail », chaque membre n’acceptant alors que les tâches qui relèvent de son expertise ou de la mission rattachée à son poste.  En adoptant un état d’esprit du type « montre-moi comment on fait », l’équipe confie naturellement la tâche à l’expert mais s’attend aussi à ce que tous ses membres soient capables de relever n'importe quel défi technique.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_Jq1rrfd.max-900x900.png"
        
          alt="AppMod2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Enfin, il n’est pas impossible que vous ayez besoin de l’autorisation du RSSI, de l’architecte d’entreprise, etc., avant de pouvoir utiliser certains services. N’hésitez pas à intégrer ces personnes (ou un de leur représentant) dans l’équipe en lui accordant un rôle essentiel, au moins jusqu’à ce que leur contribution soit intégrée au projet sous forme de règle codée (Policy as Code) ou de schémas (blueprints) d’architecture. &lt;/p&gt;&lt;h3&gt;Question 3 : Comment mesurer le succès ?&lt;/h3&gt;&lt;p&gt;Rien ne sert de respecter les délais et le budget impartis si c’est pour aboutir à une plateforme que personne n’utilise. Pour éviter un tel écueil, ne mesurez pas les réussites de votre équipe en fonction d’indicateurs de performance projet (Project KPIs). Optez plutôt en faveur d’indicateurs produits (Product KPIs) qui mesurent son utilité, le taux d’adoption ou encore la satisfaction des utilisateurs.&lt;/p&gt;&lt;p&gt;Il n’existe pas réellement de méthode universelle pour mesurer le succès d'un logiciel mais en obtenant des réponses à ces questions, vous pourrez quantifier sa réussite :&lt;/p&gt;&lt;ol&gt;&lt;li&gt;&lt;p&gt;Combien de temps faut-il à l'utilisateur pour atteindre son objectif ? (moins = mieux)&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Combien d'utilisateurs utilisent la plateforme et à quelle fréquence ? (plus = mieux)&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Quels sont le degré de satisfaction des utilisateurs et la probabilité qu'ils recommandent la plateforme à d'autres employés ?&lt;/p&gt;&lt;/li&gt;&lt;/ol&gt;&lt;p&gt;Chez Google, nous aimons utiliser le &lt;a href="https://static.googleusercontent.com/media/research.google.com/en/pubs/archive/36299.pdf" target="_blank"&gt;framework H.E.A.R.T. &lt;/a&gt; pour évaluer l’expérience utilisateur d’un grand nombre de nos produits grand public. Nous utilisons également un framework modifié que nous avons baptisé S.U.P.E.R. pour certaines de nos infrastructures informatiques internes :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/super.1000064520000649.max-2000x2000.jpg"
        
          alt="AppMod3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Partez à la rencontre de vos utilisateurs&lt;/h3&gt;&lt;p&gt;Nous sommes convaincus que la proximité avec les utilisateurs est primordiale lors de la construction d’une infrastructure. Et nous avons expliqué plus haut comment retrouver une partie de cette proximité perdue en organisant des « user watch parties ». Nous avons également souligné l’importance des équipes polyvalentes et indiqué comment les inciter à construire une plateforme pertinente qui facilite réellement le travail des utilisateurs, plutôt que de se contenter de finaliser un projet informatique avant de passer au suivant. &lt;/p&gt;&lt;p&gt;Bien entendu, nous avons ici à peine effleuré l’étendue de ce que signifie planifier, réaliser et gérer avec succès une plateforme pertinente en tant que produit.  Il y aurait encore beaucoup à dire sur l'importance des profils d'utilisateurs, la cartographie du parcours de l'utilisateur et le véritable rôle du chef produit, pour ne citer que ces quelques points.&lt;/p&gt;&lt;p&gt;De fait, si vous ne devez retenir qu’une seule chose de cet article, gardez à l’esprit que vous ne savez pas ce dont vos utilisateurs ont besoin et ce qu'ils veulent. Vous n'avez que des hypothèses, que vous devez vérifier. Et ce n'est pas parce que vous construisez la « bonne » plateforme qu'ils l’adopteront forcément. Vous devez impérativement aller à leur rencontre.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 23 Aug 2023 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/modernisation-dapplications/modernisation-applicative-votre-projet-de-plateforme-est-il-voue-a-lechec/</guid><category>Application Modernization</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Modernisation applicative : Votre projet de plateforme est-il voué à l'échec ?</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/modernisation-dapplications/modernisation-applicative-votre-projet-de-plateforme-est-il-voue-a-lechec/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Alex McWilliam</name><title>Head of Infrastructure Germany, Professional Services</title><department></department><company></company></author></item><item><title>Faciliter le passage à Google Cloud et à des technologies Open Source</title><link>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Pendant des décennies, avant que le cloud ne vienne bouleverser notre vision des bases de données et des applications, Oracle et SQL Server constituaient la clef de voûte des infrastructures applicatives des entreprises. Mais aujourd’hui, alors que vous entamez votre redéploiement vers le cloud, vous réévaluez probablement les choix effectués autrefois à la lumière des tendances actuelles et des vastes opportunités offertes par le cloud. &lt;br/&gt;&lt;/p&gt;&lt;p&gt;Dans le domaine des bases de données, plusieurs hypothèses s’offrent à vous : adoption des technologies open source (en particulier MySQL, PostgreSQL et leurs dérivés), bases de données non relationnelles, stratégies multicloud et cloud hybrides… pour supporter des applications à la fois globales et qui fonctionnent en 24/7. &lt;br/&gt;Redéploiement rapide de type « lift-and-shift », modernisation d’un existant ou transformation complète avec adoption d’une base « cloud first » … selon l’application, l’évolution vers le cloud peut prendre des chemins différents.&lt;/p&gt;&lt;p&gt;Google Cloud propose &lt;a href="https://cloud.google.com/products/databases"&gt;un ensemble de services de bases de données managées&lt;/a&gt; qui couvrent les moteurs des bases open source mais également des bases provenant de tiers ainsi que les bases « cloud-first ». Nous avons publié cinq vidéos spécialement destinées aux clients qui cherchent à passer au cloud ou à se libérer complètement des problématiques de gestion des licences et autres restrictions. Nous espérons que ces vidéos vous permettront de mieux évaluer vos options, que vous envisagiez un redéploiement homogène (en utilisant la même base de données qu'aujourd'hui) ou un redéploiement hétérogène (en passant à un moteur de base de données différent).&lt;/p&gt;&lt;p&gt;Voici les cinq vidéos en question :&lt;/p&gt;&lt;p/&gt;&lt;h3&gt;#1 Exécuter des applications Oracle Database dans Google Cloud&lt;/h3&gt;Par Jagdeep Singh et Andy Colvin&lt;br/&gt;&lt;p/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=53fmFPaHyQ8"
      data-glue-modal-trigger="uni-modal-53fmFPaHyQ8-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/53fmFPaHyQ8/maxresdefault.jpg"
             alt="Exécuter des applications Oracle Database dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-53fmFPaHyQ8-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="53fmFPaHyQ8"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=53fmFPaHyQ8"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Migrer vers le cloud peut s’avérer difficile si l’activité de votre entreprise repose sur des applications fonctionnant avec des bases de données Oracle. Cette dépendance peut s’expliquer par des problématiques de licences, de compatibilité ou encore d’administration. &lt;br/&gt;À travers cette vidéo, nous vous proposons de découvrir différentes options proposées par Google Cloud et adaptées à cette situation, qu’il s’agisse de &lt;a href="https://cloud.google.com/bare-metal"&gt;Bare Metal Solution for Oracle&lt;/a&gt; (solution matérielle certifiée et optimisée pour les workloads Oracle) ou de solutions émanant de partenaires tels VMware et Equinix. Profitez-en pour découvrir comment vous pouvez continuer à exécuter votre existant dans le cloud tout en capitalisant sur les dernières avancées technologiques pour développer de nouveaux services.&lt;/p&gt;&lt;h3&gt;#2 Exécuter des applications SQL Server dans Google Cloud&lt;/h3&gt;Par Isabella Lubin&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Hu3L7T07RQY"
      data-glue-modal-trigger="uni-modal-Hu3L7T07RQY-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Hu3L7T07RQY/maxresdefault.jpg"
             alt="Exécuter des applications SQL Server dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Hu3L7T07RQY-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Hu3L7T07RQY"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Hu3L7T07RQY"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Aujourd’hui encore, Microsoft SQL Server reste une base très populaire en entreprise. Apprenez à exécuter SQL Server de manière fiable et sécurisée avec &lt;a href="https://cloud.google.com/sql"&gt;Cloud SQL&lt;/a&gt;, un service de base de données entièrement managé permettant d'exécuter des workloads MySQL, PostgreSQL et SQL Server. Plus de 90 % des 100 plus gros clients de Google Cloud utilisent Cloud SQL. Autrement dit, les plus grandes entreprises du monde font aujourd’hui confiance à Cloud SQL. Dans cette vidéo, nous vous proposons de découvrir comment sélectionner la bonne instance de base de données, comment migrer votre base, comment travailler avec les outils SQL Server standards ou encore comment superviser votre base et la maintenir à jour.&lt;/p&gt;&lt;h3&gt;#3 Opter pour une base PostgreSQL dans Google Cloud&lt;/h3&gt;Par Mohsin Imam&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Dkri6GlbRDo"
      data-glue-modal-trigger="uni-modal-Dkri6GlbRDo-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Dkri6GlbRDo/maxresdefault.jpg"
             alt="Opter pour une base PostgreSQL dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Dkri6GlbRDo-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Dkri6GlbRDo"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Dkri6GlbRDo"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Plébiscitée pour la souplesse de son modèle de licence open source, sa richesse fonctionnelle, ses solides références ou encore pour l’étendue de sa communauté de développeurs et de ses outils, PostgreSQL est une base relationnelle leader sur le marché. Google Cloud propose, aux utilisateurs de PostgreSQL, trois services de bases de données entièrement managés:&lt;br/&gt; * &lt;a href="https://cloud.google.com/sql"&gt;Cloud SQL&lt;/a&gt;, un service de base de données entièrement managé et facile à utiliser pour PostgreSQL open source ;&lt;br/&gt; * &lt;a href="https://cloud.google.com/alloydb"&gt;AlloyDB&lt;/a&gt;, un service de base de données compatible avec PostgreSQL pour les applications nécessitant plus d'évolutivité, de disponibilité et de performances;&lt;br/&gt; * et &lt;a href="https://cloud.google.com/spanner"&gt;Cloud Spanner&lt;/a&gt;, une base de données &amp;quot;cloud-first&amp;quot; avec une montée en charge illimitée, une disponibilité de 99,999 % et une interface PostgreSQL.&lt;br/&gt; Découvrez quelle solution convient le mieux à votre application, comment migrer votre base de données vers le cloud et comment bien démarrer.&lt;br/&gt;&lt;/p&gt;&lt;h3&gt;#4 Comment migrer et moderniser vos applications avec les bases de données Google Cloud&lt;/h3&gt;Par Sandeep Brahmarouthu&lt;p/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Gwzz20xcWmE"
      data-glue-modal-trigger="uni-modal-Gwzz20xcWmE-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Gwzz20xcWmE/maxresdefault.jpg"
             alt="Comment migrer et moderniser vos applications avec les bases de données Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Gwzz20xcWmE-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Gwzz20xcWmE"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Gwzz20xcWmE"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Le redéploiement de vos applications et bases de données vers le cloud n'est pas toujours facile. Si des workloads simples peuvent se contenter d’un simple transfert de SGBD sur le mode « lift-and-shift », les applications d'entreprise de plus grande envergure et personnalisées ont, en revanche, parfois besoin d’être modernisées, voire entièrement transformées. Découvrez les services managés de bases de données proposés par Google Cloud ainsi que notre approche de la « modernisation progressive ». Explorez également nos frameworks de redéploiement pour bases de données et découvrez comment nous pouvons vous aider à mieux démarrer, avec notre offre gratuite d’évaluation des risques.&lt;/p&gt;&lt;h3&gt;#5 Bien démarrer avec Database Migration Service&lt;/h3&gt;Par Shachar Guz &amp;amp; Inna Weiner&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=3LjpirPFc2g"
      data-glue-modal-trigger="uni-modal-3LjpirPFc2g-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/3LjpirPFc2g/maxresdefault.jpg"
             alt="Bien démarrer avec Database Migration Service"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-3LjpirPFc2g-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="3LjpirPFc2g"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=3LjpirPFc2g"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;L’augmentation des coûts de maintenance peut aussi être une excellente raison de migrer ses bases vers le cloud. Que vous envisagiez un simple transfert, une modernisation avec adoption d’une alternative plus moderne et open source ou une transformation complète d’une application, Google Cloud peut vous accompagner dans votre démarche. Découvrez comment &lt;a href="https://cloud.google.com/database-migration"&gt;Database Migration Service&lt;/a&gt; simplifie votre modernisation par le cloud avec son approche serverless et sa plateforme sécurisée qui s’appuie sur des mécanismes de réplication native afin d’effectuer des redéploiements  plus fidèles et plus fiables. Moins complexe, le redéploiement est aussi moins long et moins risqué. Résultat, vous pouvez redémarrer en moins d’une heure après le redéploiement…&lt;/p&gt;&lt;h3&gt;Nous avons hâte de vous aider à réussir votre redéploiement&lt;/h3&gt;&lt;p&gt;Quelle que soit votre approche du cloud, nous avons la solution pour vous accompagner dans votre démarche avec des bases de données évolutives, fiables, sécurisées et ouvertes. Nous sommes d’ores et déjà enchantés à l’idée d’offrir un nouveau « foyer » à vos applications.&lt;/p&gt;&lt;p&gt;N’hésitez pas à profiter de l’offre d’essai gratuite pour explorer les avantages de &lt;a href="https://console.cloud.google.com/freetrial?redirectPath=/sql"&gt;Cloud SQL&lt;/a&gt; ou &lt;a href="https://console.cloud.google.com/freetrial?redirectPath=/spanner"&gt;Spanner&lt;/a&gt; et accélérer votre redéploiement vers Google Cloud avec &lt;a href="https://cloud.google.com/resources/database-migration-program"&gt;Database Migration Program&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 12 Jun 2023 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</guid><category>Application Development</category><category>Application Modernization</category><category>Data Analytics</category><category>Infrastructure</category><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Faciliter le passage à Google Cloud et à des technologies Open Source</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Yoav Eilat</name><title>Product Marketing Manager, Databases</title><department></department><company></company></author></item><item><title>Mesurer et maximiser la valeur des équipes de data science et IA</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/mesurer-et-maximiser-la-valeur-des-equipes-de-data-science-et-ia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Investir dans l'intelligence artificielle (IA) peut apporter un avantage concurrentiel à votre organisation. Si vous avez la charge d'une équipe IA ou data science, vous avez sans doute envie de mesurer et maximiser la valeur que vous apportez. Voici quelques conseils tirés de nos années d'expérience dans ce domaine. Ils se focalisent sur deux aspects de tout projet : sa préparation et les métriques à mettre en place dès le démarrage…&lt;/p&gt;&lt;h3&gt;Notre checklist à appliquer à tous vos projets &lt;/h3&gt;&lt;p&gt;Avant tout décollage, il faut vérifier la checklist. Un principe aussi vrai dans l’aviation que dans la data science. Autrement dit, avant de vous lancer dans un projet, assurez-vous d’avoir bien couvert tous les domaines ci-dessous :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Avoir un client. Il est important d'avoir un client pour votre travail, et qu'il soit d'accord avec ce que vous essayez d'accomplir. Assurez-vous de connaître la valeur que vous espérez lui apporter.&lt;br/&gt;&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Réaliser une analyse de rentabilité.  Elle devra reposer sur des estimations et des hypothèses et ne prendra pas plus de quelques minutes de votre temps.  Vous pouvez la réviser, mais sachez toujours ce qui justifie les efforts de votre équipe et ce que vous (et votre client) attendez en retour.&lt;br/&gt;&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Identifier le processus que vous allez modifier ou créer. Le fruit de votre travail va passer en production. Il est donc essentiel de savoir clairement comment votre travail va impacter les opérations métier et qui doit être impliqué dans le processus pour concrétiser votre démarche.&lt;br/&gt;&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Mettre un plan de mesures en place. Pour montrer que votre travail a un impact sur un indicateur métier pertinent, mesurez et affichez la valeur ajoutée. L’objectif est de mettre en évidence le différentiel entre ce qui est désormais possible et ce qui ne l’était pas sans votre travail. N’oubliez pas de prendre en compte tous les facteurs qui peuvent affecter vos mesures, telles la saisonnalité ou d’autres évolutions des activités.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;Utilisez cette checklist pour vous aider à obtenir le soutien de votre organisation, tant au niveau de l’équipe que du projet.&lt;/p&gt;&lt;br/&gt;&lt;h3&gt;Quelles mesures utiliser ?&lt;/h3&gt;&lt;p&gt;Dès le début du travail effectif, pensez à mettre en place des mesures et indicateurs démontrant que le travail de votre équipe est utile à votre organisation. Voici quelques exemples universels :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Nombre de décisions prises. Un des points forts du ML est d'automatiser et d'optimiser la prise de décision : quel produit recommandé, quel itinéraire suivre, etc. Utilisez des journaux de logs pour savoir combien de décisions votre solution est capable de prendre.&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Impact sur les revenus et les coûts. De meilleures décisions prises plus rapidement entraînent souvent une augmentation des revenus ou des économies. Si possible, mesurez-les directement. Sinon, estimez-les en calculant, par exemple, le carburant économisé grâce à la réduction de la distance parcourue ou l’augmentation des ventes grâce aux offres personnalisées.&lt;br/&gt;À titre d’exemple, le département de la sécurité de l'emploi de l'Illinois utilise l'IA dans son &lt;a href="https://cloud.google.com/solutions/contact-center"&gt;centre de contact&lt;/a&gt; pour déployer rapidement des agents virtuels afin d'aider plus d'un million de citoyens à déposer leurs demandes de chômage. Pour mesurer le succès du projet, l’équipe a utilisé deux indicateurs : (1) le nombre de demandes de renseignements sur le Web et d'appels vocaux qu'elle a pu traiter, et (2) le coût global du centre d'appels après la mise en œuvre de l’IA. &lt;br/&gt;Après déploiement du projet, elle a ainsi pu constater qu’ils traitaient plus de 140 000 demandes de renseignements par téléphone et par Internet par jour et plus de 40 000 appels par nuit (en dehors des heures de bureau). Sur la base d'une première analyse des données relatives aux agents virtuels IDES (pour plus de détail, &lt;a href="https://cloud.google.com/customers/state-of-illinois"&gt;consultez notre étude de cas&lt;/a&gt;), ils anticipent une économie annuelle estimée à 100 millions de dollars.&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Coûts de mise en œuvre. Vous pouvez également aborder le sujet de l’augmentation des revenus ou des économies réalisées en replaçant les résultats obtenus face aux coûts de vos réalisations. Indiquez les coûts engendrés par votre équipe en les comparant à la valeur apportée et en précisant comment vous pourriez encore apporter davantage de valeur.&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Gains de temps.  Si votre équipe construit un système de routage, elle fait économiser du temps de déplacement.  Si elle construit un classificateur automatique d'e-mails, elle fait économiser du temps en lecture… Quantifier le nombre d’heures gagnées pour votre entreprise grâce à l’efficacité de la solution que vous avez construite.&lt;br/&gt;À titre d’exemple, la rapidité des diagnostics est particulièrement importante dans le domaine médical. &lt;a href="https://cloud.google.com/customers/jhu-bios"&gt;La division BIOS (Brain Injury Outcomes) de l'université Johns Hopkins&lt;/a&gt; s'est concentrée sur l'étude des hémorragies cérébrales afin d'améliorer les résultats médicaux. L'équipe a identifié le temps de compréhension comme une mesure clé du succès du projet. Elle a expérimenté une série de solutions de cloud computing comme &lt;a href="https://cloud.google.com/dataflow"&gt;Dataflow&lt;/a&gt;, &lt;a href="https://cloud.google.com/healthcare-api"&gt;Cloud Healthcare API&lt;/a&gt;, &lt;a href="https://cloud.google.com/compute"&gt;Compute Engine&lt;/a&gt; et &lt;a href="https://cloud.google.com/ai-platform"&gt;AI Platform&lt;/a&gt; pour un entraînement distribué accélérant les itérations. Grâce à leurs travaux récents portant sur les photos scanners d'environ 500 patients, ils ont réduit le temps nécessaire à l’élaboration d’un diagnostic à 90 minutes environ, contre 2 500 heures auparavant.&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Nombre d’applications produites par votre équipe. Certaines opérations réalisées au sein de l’entreprise, comme le rapprochement comptable, n’ont pas besoin de ML. Mais d’autres processus peuvent en bénéficier. Identifiez combien de services profitent des optimisations et des automatisations que votre équipe a mises en place.&lt;br/&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Expérience utilisateur. Vous pouvez peut-être mesurer l'expérience de vos clients : moins de plaintes, de meilleures évaluations, une latence réduite, plus d'interactions, etc. Ceci est valable aussi bien pour les utilisateurs internes qu’externes. Typiquement, chez Google, nous mesurons l'utilisation et demandons régulièrement un retour d'information sur tout système ou processus interne.&lt;br/&gt;Un de nos clients, &lt;a href="https://cloud.google.com/customers/city-of-memphis/"&gt;la ville de Memphis&lt;/a&gt;, utilise VisionAI et le ML pour gérer un problème banal mais néanmoins complexe, à savoir l'identification et le traitement des nids-de-poule. L’équipe a retenu les indicateurs de performance suivants : le taux d’augmentation des nids-de-poule identifiés, la précision et les économies réalisées. La solution capture les séquences vidéo enregistrées par ses véhicules publics et exploite les capacités de Google Cloud comme &lt;a href="https://cloud.google.com/compute"&gt;Compute Engine&lt;/a&gt;, &lt;a href="https://cloud.google.com/ai-platform"&gt;AI Platform&lt;/a&gt; et &lt;a href="https://cloud.google.com/bigquery"&gt;BigQuery&lt;/a&gt; pour automatiser l’analyse des vidéos. Le projet a augmenté la détection des nids-de-poule de 75 % avec une précision de plus de 90 %. En mesurant et en affichant ces résultats, l'équipe a prouvé la viabilité d'un modèle ML rentable basé dans le cloud. Elle envisage de nouvelles applications de l'IA et du ML pour améliorer encore les services de la ville et l'aider à construire un meilleur avenir pour ses 652 000 habitants.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;hr/&gt;&lt;p&gt;&lt;i&gt;Remerciements&lt;/i&gt;&lt;/p&gt;&lt;p&gt;&lt;i&gt;Filipe et Payam tiennent à remercier leur collègue et co-auteur Mona Mona (Ingénieur client AI/ML, Soins de santé et sciences de la vie) qui a contribué à parts égales à la rédaction de cet article.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 04 Nov 2022 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/mesurer-et-maximiser-la-valeur-des-equipes-de-data-science-et-ia/</guid><category>Application Modernization</category><category>AI &amp; Machine Learning</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_Deploy_nlfl0lU.max-2600x2600.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Mesurer et maximiser la valeur des équipes de data science et IA</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_Deploy_nlfl0lU.max-2600x2600.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/mesurer-et-maximiser-la-valeur-des-equipes-de-data-science-et-ia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Payam Mousavi</name><title>AI ML Customer Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Filipe Gracio PhD</name><title>Customer Engineer, AI/ML Specialist</title><department></department><company></company></author></item><item><title>Un redéploiement simplifiée des données mainframe vers le cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Les mainframes d'IBM existent depuis les années 1950 et demeurent encore essentiels dans de nombreuses organisations. Ces dernières années, certaines d’entre elles ont cependant entrepris un redéploiement de leurs workloads vers le cloud. Cette démarche de modernisation est motivée à la fois par le besoin de rester pertinent, par la pénurie croissante d'experts en mainframes et par les économies promises par les solutions de cloud computing.&lt;/p&gt;&lt;p&gt;L'un des principaux défis du redéploiement des mainframes a toujours été le transfert des données de ces derniers vers le cloud. Heureusement, Google offre en libre accès son connecteur « &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/tree/main/tools/bigquery-zos-mainframe-connector" target="_blank"&gt;bigquery-zos-mainframe&lt;/a&gt; » pour concrétiser de tels transferts avec un effort minimal.&lt;/p&gt;&lt;h3&gt;À la découverte du connecteur Mainframe pour BigQuery et Cloud Storage ?&lt;/h3&gt;&lt;p&gt;Le connecteur Mainframe permet aux utilisateurs de Google Cloud de transférer des données mainframes vers Cloud Storage et de soumettre des tâches BigQuery à partir de jobs mainframes  codés en JCL (le langage de contrôle des jobs des mainframes). Grâce à l'interpréteur Shell inclus et aux versions JVM des utilitaires de ligne de commande gsutil et bq, les équipes mainframes peuvent aisément gérer un pipeline ELT complet entièrement depuis z/OS.&lt;/p&gt;&lt;p&gt;Le connecteur déplace les données situées sur un mainframe vers - et depuis - Cloud Storage et BigQuery. Il transcode ces jeux de données directement au format ORC (un format pris en charge par BigQuery). En outre, il permet aux utilisateurs d'exécuter des tâches BigQuery à partir de JCL, de sorte que les jobs mainframes puissent tirer parti de certains des services les plus puissants de Google Cloud. &lt;/p&gt;&lt;p&gt;Ce connecteur a été testé avec des fichiers plats créés par IBM DB2 EXPORT qui contiennent des champs de caractères binary-integer, packed-decimal et EBCDIC et qui peuvent être facilement représentés par un CopyBook (un fichier de description de données classiquement employé dans l’univers mainframes sous Cobol et DB2). &lt;br/&gt;Les clients disposant de fichiers VSAM peuvent utiliser IDCAMS REPRO pour exporter ces données vers des fichiers plats, ces derniers pouvant ensuite être téléchargés à l'aide du connecteur. &lt;br/&gt;Notez que le transcodage vers ORC nécessite un CopyBook et que tous les enregistrements doivent avoir la même mise en page. Si la mise en page est variable, le transcodage ne fonctionnera pas, mais il est toujours possible de télécharger directement une simple copie binaire du jeu de données.&lt;/p&gt;&lt;h3&gt;Comment utiliser le connecteur bigquery-zos-mainframe ?&lt;/h3&gt;&lt;p&gt;Un workflow de mise en œuvre du connecteur mainframe comprend en général les étapes suivantes :&lt;/p&gt;&lt;p&gt;- Lecture du jeu de données mainframe&lt;/p&gt;&lt;p&gt;- Transcodage du jeu de données en ORC&lt;/p&gt;&lt;p&gt;- Téléchargement de l'ORC vers Cloud Storage&lt;/p&gt;&lt;p&gt;- Enregistrement de cet ORC en tant que table externe&lt;/p&gt;&lt;p&gt;- Exécution d'une instruction DML MERGE pour charger de nouvelles données incrémentielles dans la table cible (sur le cloud).&lt;/p&gt;&lt;p&gt;Notez que si le jeu de données ne nécessite pas de modifications supplémentaires après le chargement, il est préférable d’opter pour un chargement dans une table native plutôt qu’une table externe.&lt;/p&gt;&lt;p&gt;En ce qui concerne l'étape 2, il est important de mentionner que les exportations DB2 sont écrites sous forme de jeux de données séquentiels sur le mainframe et que le connecteur utilise le CopyBook du jeu de données pour le transcoder en ORC.&lt;/p&gt;&lt;p&gt;L'exemple simplifié ci-dessous montre comment lire un jeu de données sur un mainframe, le transcoder au format ORC, copier le fichier ORC sur Cloud Storage, le charger dans une table native BigQuery et exécuter une commande SQL sur cette table.&lt;/p&gt;&lt;p&gt;1 – Vérifier et compiler&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;git clone https://github.com/GoogleCloudPlatform/professional-services\r\ncd ./professional-services/tools/bigquery-zos-mainframe-connector/\r\n \r\n# compile util library and publish to local maven/ivy cache\r\ncd  mainframe-util\r\nsbt publishLocal\r\n \r\n# build jar with all dependencies included\r\ncd ../gszutil\r\nsbt assembly&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f1bb7ec7880&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;2 - Téléchargez l’assembly jar qui vient d'être créé dans target/scala-2.13 vers un chemin du système de fichiers unix de votre mainframe.&lt;/p&gt;&lt;p&gt;3- Installez la &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/blob/main/tools/bigquery-zos-mainframe-connector/gszutil/proclib/BQSH" target="_blank"&gt;Procédure JCL BQSH&lt;/a&gt; sur n’importe quel jeu de données partitionné sur le mainframe que vous souhaitez utiliser comme PROCLIB. Modifiez la procédure pour mettre à jour le classpath Java avec le chemin du système de fichiers unix où vous avez téléchargé l'assembly jar. Vous pouvez modifier la procédure pour définir toute variable d'environnement spécifique à votre infrastructure.&lt;/p&gt;&lt;p&gt;4- Créer le Job&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 1&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP01 EXEC BQSH\r\n//INFILE DD DSN=PATH.TO.FILENAME,DISP=SHR\r\n//COPYBOOK DD DISP=SHR,DSN=PATH.TO.COPYBOOK\r\n//STDIN DD *\r\ngsutil cp --replace gs://bucket/my_table.orc\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f1bb7ec78e0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape lit le jeu de données dans INFILE DD et lit le modèle d'enregistrement dans COPYBOOK DD. Le jeu de données d'entrée peut être un fichier plat exporté depuis IBM DB2 ou un fichier VSAM. Les enregistrements lus à partir du jeu de données d'entrée sont écrits dans le fichier ORC à l'adresse gs://bucket/my_table.orc avec le nombre de partitions déterminé par la quantité de données.&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 2&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP02 EXEC BQSH\r\n//STDIN DD *\r\nbq load --project_id=myproject \\\r\n myproject:MY_DATASET.MY_TABLE \\\r\n gs://bucket/my_table.orc/*\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f1bb7ec7940&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape soumet un job BigQuery qui chargera les partitions de fichiers ORC de « my_table.orc » dans MY_DATASET.MY_TABLE. Notez que le chemin est bien celui utilisé à l'étape précédente.&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 3&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP03 EXEC BQSH\r\n//QUERY DD DSN=PATH.TO.QUERY,DISP=SHR\r\n//STDIN DD *\r\nbq query --project_id=myproject\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f1bb7ec79a0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape soumet un job de requêtage BigQuery (Request Job) pour exécuter une lecture SQL à partir du QUERY DD (un fichier FB au format LRECL 80). En général, la requête sera une instruction MERGE ou SELECT INTO qui entraîne la transformation d'une table BigQuery. &lt;br/&gt;Note : le connecteur enregistrera les métriques du job mais n'écrira pas les résultats de la requête dans un fichier.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Fonctionner hors du mainframe pour économiser les MIPS&lt;/h3&gt;&lt;p&gt;Sur un système de production, planifier des tâches générant de larges transferts de données n’est pas une chose à prendre à la légère.&lt;br/&gt;Il est important de retenir que le connecteur Mainframe s'exécute dans un processus JVM et devrait donc utiliser les processeurs zIIP par défaut, mais si la capacité est épuisée, l'utilisation peut s'étendre aux processeurs généraux.&lt;br/&gt;Étant donné que le transcodage d'enregistrements z/OS et l'écriture de partitions de fichiers ORC nécessitent une quantité non négligeable de traitements, le Mainframe Connector comprend un serveur gRPC conçu pour gérer les opérations de calcul intensif sur un serveur cloud (une instance VM sur Google Cloud Engine). En activant cette fonctionnalité, les traitements intensifs sont réalisés hors du mainframe sur un serveur cloud, le processus exécuté sur z/OS se contentant de télécharger le jeu de données vers Cloud Storage et d’effectuer un appel RPC. &lt;br/&gt;Le passage du connecteur d’un mode d'exécution locale à un mode d’exécution distante ne nécessite qu'un changement de variable d'environnement. Des informations détaillées sur cette fonctionnalité sont &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/blob/main/tools/bigquery-zos-mainframe-connector/gszutil/grecv/README.md" target="_blank"&gt;disponibles ici&lt;/a&gt;.  &lt;/p&gt;&lt;hr/&gt;&lt;p&gt;&lt;i&gt;Remerciements&lt;/i&gt;&lt;/p&gt;&lt;p&gt;&lt;i&gt;Merci à ceux qui ont testé, débogué, maintenu et amélioré cet outil : Timothy Manuel, Catherine Im, Madhavi Kancharla, Suresh Balakrishnan, Viktor Fedinchuk, Pavlo Kravets.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 30 Aug 2022 09:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</guid><category>Application Modernization</category><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_VyHrGAO.max-1000x1000.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Un redéploiement simplifiée des données mainframe vers le cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_VyHrGAO.max-1000x1000.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jason Mar</name><title>Strategic Cloud Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Franklin Whaite</name><title>Strategic Cloud Engineer</title><department></department><company></company></author></item><item><title>Libérez le potentiel de vos données sur mainframe avec une approche innovante : la « data-first digitization »</title><link>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Dans de nombreuses entreprises, de vénérables mainframes abritent encore des décennies de données sur les clients, les processus et les opérations. Et bien évidemment, ces entreprises aimeraient bien pouvoir y accéder pour effectuer des analyses et créer des rapports avec les outils du big data ou encore pour les utiliser dans le cadre de nouveaux projets de Machine Learning et d’Intelligence Artificielle. &lt;/p&gt;&lt;p&gt;Nous avons hâte chez Google de vous accompagner dans cette démarche en vous aidant à &lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/beyond-mainframe-modernization-art-possibilities"&gt;transformer les ressources mainframe pour l'ère du cloud&lt;/a&gt;. Nous pouvons bien entendu vous aider à moderniser vos applications mainframes en les faisant migrer vers le cloud. Mais en parallèle, nous avons aussi développé une autre alternative avec nos partenaires et nos clients. Plus légère, elle permet de commencer à exploiter les ressources des mainframes sur le cloud beaucoup plus rapidement qu’avec une migration complète de l’existant. Nous avons baptisé cette approche data-first digitization ou, en français, « numérisation des données d'abord ».&lt;/p&gt;&lt;p&gt;Dans un monde numérique qui évolue rapidement, il convient tout d’abord de faire la différence entre « modernisation » et « numérisation ». &lt;br/&gt;Dans une approche classique de modernisation, vous partez de l’existant pour vous projeter dans l’avenir en vous appuyant sur des méthodes de migration d’applications des mainframes, qu’il s’agisse de rehosting (émulation), de refactoring (transformation du code), de réingénierie ou simplement de remplacement d'une application sur mesure par une solution « clés en main ».&lt;br/&gt; À l’inverse, dans une approche « numérisation », on part du résultat attendu et on remonte la chaîne existante en modifiant tout ce qui doit l’être pour atteindre son objectif.  &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_data-first_digitization.max-1000x1000.jpg"
        
          alt="1 data-first digitization.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette approche « numérisation » s’appuie sur un framework d’intégration privilégiant les données. Constitué à partir de nos outils et solutions et ceux de nos partenaires, il permet de migrer des sources de données hétérogènes provenant des mainframes vers &lt;a href="https://cloud.google.com/storage"&gt;Google Cloud Storage&lt;/a&gt;. Une fois les données mainframe copiées sur Cloud Storage, elles peuvent ensuite être intégrées et exploitées par les outils Google Cloud, tels que &lt;a href="https://cloud.google.com/bigquery"&gt;BigQuery&lt;/a&gt;, &lt;a href="https://cloud.google.com/products/ai"&gt;les solutions d'IA et de Machine Learning&lt;/a&gt; ou encore les plateformes d’analyse intelligente (&lt;a href="https://cloud.google.com/solutions/smart-analytics"&gt;Smart analytics&lt;/a&gt;) et d’analyse de flux (&lt;a href="https://cloud.google.com/solutions/stream-analytics"&gt;Stream analytics&lt;/a&gt;). &lt;br/&gt;Notre framework d'intégration couvre à la fois le mode batch pour transférer d’un coup des jeux de données volumineux et la réplication en temps réel par capture des modifications apportées aux données (prise en charge du « change data capture »). &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Data_First_Overview.max-1000x1000.jpg"
        
          alt="Data First Overview.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;L’approche « numérisation d’abord » repose sur le principe selon lequel « les applications sont éphémères, les données sont permanentes ». &lt;/p&gt;&lt;p&gt;Plutôt que d’utiliser les méthodes traditionnelles de modernisation telles que décrites dans les 7 options de modernisation du Gartner par exemple, les entreprises vont ici privilégier le transfert des données vers Google Cloud, ce qui leur permettra d’accélérer les étapes et de commencer à mettre rapidement en place nouveaux modèles métiers, de nouveaux cas d’usage ou encore de nouvelles façons innovantes de satisfaire leurs clients. &lt;/p&gt;&lt;p&gt;Deux exemples concrets  :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Prendre de meilleures décisions, plus rapidement, en s’appuyant sur les solutions d’analyse en temps réel et intelligentes mais aussi sur les moteurs de Machines Learning et/ou AI. Google est un pionnier dans l'extraction d'informations et de valeur à partir de données brutes structurées et non structurées. Ces outils ont toutefois besoin d’être alimentés en données pour gagner en efficacité. En rendant les données sur mainframe accessibles par des outils comme BigQuery et des modèles AI/ML, les entreprises maximisent leurs capacités d’analyse.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Créer de nouvelles applications de reporting. L’accessibilité des données sur mainframe par des outils Google Cloud, tels que &lt;a href="https://cloud.google.com/looker"&gt;Looker&lt;/a&gt; et &lt;a href="https://cloud.google.com/appsheet"&gt;Appsheet&lt;/a&gt;, permet de créer de nouvelles applications de reporting et ainsi d’accélérer votre transformation globale en décommissionnant plus rapidement les anciennes applications de reporting hébergées sur mainframe.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;br/&gt;&lt;p&gt;D'après notre expérience, l'adoption d'une approche « numérisation » axée sur les données offre un certain nombre d'avantages :&lt;/p&gt;&lt;p&gt;&lt;br/&gt;&lt;/p&gt;&lt;ol&gt;&lt;li&gt;&lt;p&gt;Réactivité métier : cette forme de modernisation s’appuyant sur des outils existants, le cycle de mise en œuvre est beaucoup plus court. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Investissements réduits : l’intégration de produits est moins consommatrice de ressources que le développement d’applications.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Risques minimisés : la démarche data-first repose sur des solutions intégrées aux produits Google Cloud existants, éprouvés et fiables. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Transformation plus rapide de l’existant sur mainframe : en déplaçant le centre de gravité de l’application vers les données, vous abordez la question de la modernisation sous l’angle métier, plutôt que de simplement continuer à faire vivre cet existant. Dès lors, seules les applications réellement critiques pour l’entreprise sont modernisées tandis que les applications non essentielles peuvent être mises hors service progressivement, ce qui permet d’accélérer le processus de transformation.&lt;/p&gt;&lt;/li&gt;&lt;/ol&gt;Une telle numérisation centrée sur les données est encore une approche relativement récente, mais les premiers succès de nos clients nous invitent à poursuivre dans cette voie. &lt;br/&gt;N’hésitez pas à consulter régulièrement sur notre site pour obtenir des informations supplémentaires, des architectures de référence et des livres blancs techniques sur l'approche &amp;quot;data-first&amp;quot;. Et si vous pensez qu’elle peut vous convenir, contactez &lt;a href="mailto:mainframe@google.com"&gt;mailto:mainframe@google.com&lt;/a&gt;.&lt;/div&gt;
&lt;div class="block-related_article_tout"&gt;





&lt;div class="uni-related-article-tout h-c-page"&gt;
  &lt;section class="h-c-grid"&gt;
    &lt;a href="https://cloud.google.com/blog/fr/topics/developers-practitioners/ameliorer-la-rapidite-et-la-securite-de-vos-deploiements-dans-le-cloud/"
       data-analytics='{
                       "event": "page interaction",
                       "category": "article lead",
                       "action": "related article - inline",
                       "label": "article: {slug}"
                     }'
       class="uni-related-article-tout__wrapper h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
        h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3 uni-click-tracker"&gt;
      &lt;div class="uni-related-article-tout__inner-wrapper"&gt;
        &lt;p class="uni-related-article-tout__eyebrow h-c-eyebrow"&gt;Related Article&lt;/p&gt;

        &lt;div class="uni-related-article-tout__content-wrapper"&gt;
          &lt;div class="uni-related-article-tout__image-wrapper"&gt;
            &lt;div class="uni-related-article-tout__image" style="background-image: url('')"&gt;&lt;/div&gt;
          &lt;/div&gt;
          &lt;div class="uni-related-article-tout__content"&gt;
            &lt;h4 class="uni-related-article-tout__header h-has-bottom-margin"&gt;Améliorer la rapidité et la sécurité de vos déploiements dans le cloud&lt;/h4&gt;
            &lt;p class="uni-related-article-tout__body"&gt;La rapidité et la sécurité des déploiements figurent parmi les principales priorités des organisations qui bâtissent leur IT dans le cloud.&lt;/p&gt;
            &lt;div class="cta module-cta h-c-copy  uni-related-article-tout__cta muted"&gt;
              &lt;span class="nowrap"&gt;Read Article
                &lt;svg class="icon h-c-icon" role="presentation"&gt;
                  &lt;use xmlns:xlink="http://www.w3.org/1999/xlink" xlink:href="#mi-arrow-forward"&gt;&lt;/use&gt;
                &lt;/svg&gt;
              &lt;/span&gt;
            &lt;/div&gt;
          &lt;/div&gt;
        &lt;/div&gt;
      &lt;/div&gt;
    &lt;/a&gt;
  &lt;/section&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Tue, 24 May 2022 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</guid><category>Application Modernization</category><category>Cloud Migration</category><category>Data Analytics</category><category>Cloud First</category><category>Developers &amp; Practitioners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Blog_CloudMigration_B_L8be8Js.max-220.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Libérez le potentiel de vos données sur mainframe avec une approche innovante : la « data-first digitization »</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Blog_CloudMigration_B_L8be8Js.max-220.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Aman Gupta</name><title>Enterprise Solutions Specialist, Google Cloud</title><department></department><company></company></author></item><item><title>Optimisez vos applications avec Google Vertex AI Vizier</title><link>https://cloud.google.com/blog/fr/products/ai-machine-learning/optimisez-vos-applications-avec-google-vertex-ai-vizier/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Les innovations en intelligence artificielle (IA) et en apprentissage machine (ML) profitent aujourd’hui aux entreprises du monde entier. Chez F5, nous utilisons beaucoup l'IA et le ML pour améliorer la sécurité des données, la détection des fraudes ou encore la prévention des attaques de robots, avec des bénéfices à la clef clairement identifiés. Nous utilisons également l'IA et le ML pour optimiser l’ingénierie logicielle.&lt;/p&gt;&lt;p&gt;L’utilisation de l’IA et du ML dans l’ingénierie logicielle en est encore à ses balbutiements. On commence à voir apparaître des cas d’usage autour de la programmation assistée par l’IA (code completion) ou encore autour de la génération automatique de code par les solutions no-code/low-code. Mais, pour l’instant, l’utilisation de l’IA et du ML pour optimiser l’architecture d’une application logicielle reste encore peu répandue.  Dans ce billet, nous allons aborder l’amélioration d’un workload de pipeline de données en utilisant les principes d’optimisation d’une « Black-Box » à l’aide de Vertex AI Vizier de Google.&lt;/p&gt;&lt;p&gt;Pour rappel, on appelle « boîte noire » ou « black-box » le principe qui consiste à observer le comportement d’une tâche informatique à travers les résultats qu’elle produit et en fonction de différents paramètres donnés en entrée. Un tel principe est utilisé lorsqu’il n’est pas possible d’accéder à son fonctionnement interne. Les techniques BBO (Black-Box Optimization) cherchent à optimiser le fonctionnement de telles tâches dont on ne peut influer sur la conception mais dont le comportement peut varier en fonction de paramètres passés en entrée. L’optimisation de grands réseaux de neurones est un exemple typique de BBO.&lt;/p&gt;&lt;h2&gt;Optimisation des performances&lt;/h2&gt;&lt;p&gt;Processus itératif et essentiellement manuel, l'optimisation logicielle repose aujourd’hui surtout sur des « profileurs » (ou outils de profiling) qui identifient les goulots d'étranglement au sein du code source. Ces profileurs mesurent les performances et génèrent des rapports, utilisés ensuite par les développeurs pour optimiser leur code. Cette approche manuelle présente un inconvénient majeur : l’optimisation repose sur les compétences et l’expérience du développeur. Elle est donc très subjective. De plus, le processus est lent, non-exhaustif, et l’optimisation peut comporter des erreurs ou être sujette aux préjugés humains.  La nature distribuée des applications cloud natives complique encore le processus d'optimisation manuelle.&lt;/p&gt;&lt;p&gt;En ingénierie de la performance, il existe une autre approche plus globale quoiqu’encore sous exploitée : elle repose sur les expérimentations de performance et les algorithmes d’optimisation des boîtes noires (algorithmes BBO). L’objectif consiste à optimiser le coût opérationnel d’un système complexe doté d’une multitude de paramètres. Signalons qu’il existe d’autres techniques d’optimisation des performances basées sur l’expérimentation, tel le profilage causal (Causal Profiling), mais elles sortent du cadre de cet article.&lt;/p&gt;&lt;p&gt;Un processus BBO d’optimisation des performances est par nature itératif et automatisé, comme l’illustre la figure 1. Une succession d'essais contrôlés est réalisée sur un système pour étudier la valeur d’une fonction « coût » caractérisant le système à optimiser. De nouveaux paramètres possibles sont générés et d’autres essais sont réalisés jusqu’à ce que l’amélioration soit trop infime pour être rentable (cf plus loin).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_Vertex_AI_Vizier.max-1000x1000.jpg"
        
          alt="1 Vertex AI Vizier.jpg"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p&gt;Figure 1 : Optimisation en Boîte Noire : des expérimentations successives pour arriver à un résultat optimal sur une fonction “côut”&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Quel est le problème ?&lt;/h3&gt;&lt;p&gt;Commençons par planter le décor – inspiré en partie de notre propre expérience mais aussi en partie fictif pour mieux illustrer le propos.&lt;/p&gt;&lt;p&gt;Notre objectif ici est de construire un moyen efficace de transférer des données de PubSub vers BigQuery. Google Cloud propose un service entièrement managé de traitement des données, Dataflow, pour l'exécution d'une grande variété de modèles de traitement des données, que nous utilisons pour de nombreux autres besoins de streaming en temps réel.&lt;/p&gt;&lt;p&gt;Dans le cadre de cet article, nous avons choisi de tirer parti d'un processeur de flux personnalisé simplifié - une sorte de modèle &amp;quot;E(t)LT&amp;quot; - afin de traiter et de transformer les données tout en bénéficiant de l'orientation &amp;quot;en colonnes&amp;quot; de BigQuery. &lt;/p&gt;&lt;p&gt;La configuration mise en œuvre est illustrée plus en détail figure 2. Le notebook central joue le rôle d'orchestrateur pour l'étude du &amp;quot;système à optimiser&amp;quot;.  Les principaux objectifs (et composants impliqués) sont les suivants :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Reproductibilité : en plus d'un processus automatisé, un snapshot pub/sub est utilisé pour initialiser un abonnement spécifiquement créé pour alimenter le processeur de flux afin de reproduire les mêmes conditions pour chaque expérience.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Évolutivité : Vertex AI Workbench met en œuvre un ensemble de procédures automatisées utilisées pour exécuter plusieurs expériences en parallèle avec différents paramètres d'entrée afin d'accélérer le processus d'optimisation global. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Déboguabilité : pour chaque expérience, les identifiants de l'étude et de l'essai sont systématiquement injectés comme étiquettes pour chaque log et métrique produits par le processeur de flux. De cette façon, nous pouvons facilement isoler, analyser et comprendre les raisons de l’échec ou de résultats surprenants ou incohérents d'une expérience.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_Vertex_AI_Vizier.max-1000x1000.jpg"
        
          alt="2 Vertex AI Vizier.jpg"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;Figure 2 : représentation de haut niveau de l’architecture utilisée pour réaliser nos expérimentations&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Pour transférer efficacement les données de PubSub vers BigQuery, nous avons conçu et développé un code que nous voulons maintenant affiner pour qu'il soit le plus performant possible. Nous disposons d'un programme que nous voulons l'optimiser en nous basant sur des mesures de performance faciles à obtenir en l'exécutant. Notre question est maintenant de savoir comment sélectionner la meilleure variante.&lt;/p&gt;&lt;p&gt;Sans surprise, il s'agit là d'un problème typique d'optimisation : le monde en est rempli ! Essentiellement, ces problèmes consistent à optimiser (minimiser ou maximiser) une fonction « objectif » sous certaines contraintes et à trouver où les minima ou maxima se produisent.&lt;/p&gt;&lt;p&gt;De telles pratiques d’optimisation sont applicables à de nombreux domaines.&lt;/p&gt;&lt;p&gt;La formule est classique :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_Vertex_AI_Vizier.max-1000x1000.jpg"
        
          alt="3 Vertex AI Vizier.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;En d'autres termes, nous voulons les x d'un certain domaine X qui minimisent une fonction « coût » f. Comme il s'agit ici d'un problème de minimisation, de tels x sont appelés minima. Les minima n'existent pas nécessairement et lorsqu'ils existent, ils ne sont pas nécessairement uniques. &lt;/p&gt;&lt;p&gt;Bien sûr, tous les problèmes d'optimisation ne sont pas égaux : la programmation linéaire et continue est &amp;quot;facile&amp;quot;, l'optimisation convexe est aussi relativement facile, mais l'optimisation combinatoire est un art plus complexe... Elle présuppose que l’on puisse décrire la fonction « objectif » que nous voulons optimiser - même partiellement, par exemple en étant capable de calculer les gradients. &lt;/p&gt;&lt;p&gt;Dans notre cas, la fonction « objectif » (autrement dit la fonction qui modélise l’objectif recherché) est une certaine performance (qui reste encore à déterminer à ce stade) d'un programme dans un certain environnement d'exécution.&lt;/p&gt;&lt;p&gt;On est donc loin ici d’un classique « f(x)=x2 » : nous n'avons pas d'expression analytique pour la performance de notre programme, pas de dérivées, aucune garantie que la fonction est convexe, l'évaluation est coûteuse et l'observation peut être « bruitée ».&lt;/p&gt;&lt;p&gt;Ce type d'optimisation est appelé « optimisation en boîte noire » pour la raison que nous ne pouvons pas décrire notre fonction « objectif » en termes mathématiques simples. Néanmoins, nous sommes très intéressés par la recherche des paramètres qui donnent le meilleur résultat.&lt;/p&gt;&lt;p&gt;Avant d'introduire l'optimisation de la boîte noire, commençons d’abord par définir notre situation comme un problème d'optimisation concret.&lt;/p&gt;&lt;p&gt;Nous évoquerons ensuite les outils utilisés car il nous faut un moyen d'automatiser la résolution de ce type de problèmes plutôt que de le faire manuellement : &amp;quot;le temps, c'est de l'argent&amp;quot;, comme on dit.&lt;/p&gt;&lt;h3&gt;Définition d’un problème d'optimisation&lt;/h3&gt;&lt;p&gt;Notre problème comporte de nombreux éléments « mobiles », mais tous n'ont pas la même nature. &lt;/p&gt;&lt;h3&gt;Objectif&lt;/h3&gt;&lt;p&gt;Tout d'abord, l'objectif. Dans notre cas, nous voulons minimiser le coût par octet du transfert des données de PubSub vers BigQuery. En supposant que le système évolue linéairement dans le domaine qui nous intéresse, le coût par octet traité est indépendant du nombre d'instances. Ce qui  permet d'extrapoler précisément le coût pour atteindre un débit défini.&lt;/p&gt;&lt;p&gt;Comment y arriver ? &lt;/p&gt;&lt;p&gt;Nous exécutons notre programme sur un volume significatif et connu de données dans un environnement d'exécution spécifié - pensez à un type de machine, un emplacement et une configuration de programme spécifiques -. Nous mesurons alors le temps qu'il faut pour traiter ce volume de données et nous calculons le coût des ressources - nommé `cost_dollar` ci-dessous. C'est notre fonction « coût » f. &lt;/p&gt;&lt;p&gt;Comme nous l'avons mentionné précédemment, il n'existe pas d'expression mathématique simple pour définir la fonction « coût » de notre système. Son évaluation implique donc l'exécution d'un programme, ce qui est en soi &amp;quot;coûteux&amp;quot;.&lt;/p&gt;&lt;h3&gt;Espace des paramètres&lt;/h3&gt;&lt;p&gt;Notre système comporte de nombreux boutons sur lesquels agir : le programme possède de nombreux paramètres de configuration correspondant à des façons alternatives de faire les choses que nous voulons explorer et des paramètres de dimensionnement tels que la taille de la file d'attente ou le nombre de workers.&lt;/p&gt;&lt;p&gt;L'environnement d'exécution définit encore plus de paramètres : La configuration de la VM, le type de machine, l'image du système d'exploitation, l'emplacement, ...&lt;/p&gt;&lt;p&gt;En général, le nombre de paramètres peut varier énormément - pour ce scénario, nous en avons une douzaine.&lt;/p&gt;&lt;p&gt;Au final, notre espace de paramètres est décrit par la Table 1 qui pour chaque `parameter_id` donne le type de valeur (entier, discret ou catégorique).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_Vertex_AI_Vizier.max-1000x1000.jpg"
        
          alt="4 Vertex AI Vizier.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Voilà donc notre objectif identifié. Et nous savons comment l'évaluer en affectant une collection de paramètres identifiés. Nous avons même défini le domaine de ces paramètres.&lt;/p&gt;&lt;p&gt;Tout est donc désormais en place pour nous permettre de réaliser une optimisation en boîte noire.&lt;/p&gt;&lt;h3&gt;Notre Approche&lt;/h3&gt;&lt;p&gt;Maintenant que le décor est planté, revenons à nos moutons : l'optimisation en boîte noire. Comme déjà évoqué, il s'agit d'un problème de minimisation/maximisation d'une fonction pour laquelle nous n'avons pas d'expression. Nous pouvons néanmoins l'évaluer ! Il nous suffit de réaliser une expérience et d'en déterminer le coût.&lt;/p&gt;&lt;p&gt;Le problème est que l'exécution de l'expérience a elle-même un coût. Étant donné l'étendue des paramètres, les explorer tous n'est pas une option viable. En supposant que vous ne choisissiez que 3 valeurs pour chacun des 12 paramètres environ, cela donne 312, autrement dit 531 441 combinaisons possibles et donc 531 441 expérimentations à tester. C'est déjà beaucoup trop ! Cette méthode d'exploration systématique de toutes les combinaisons générées à partir d'un sous-ensemble de chaque paramètre pris individuellement est appelée « recherche par grille » (ou Grid Search).&lt;/p&gt;&lt;p&gt;À la place, nous allons utiliser une forme d'optimisation de substitution : Dans un cas comme celui-ci où il n'y a pas de représentation commode de notre fonction « objectif », il peut être bénéfique d'introduire une fonction de substitution avec de meilleures propriétés qui modélise la fonction réelle.&lt;/p&gt;&lt;p&gt;Certes, au lieu d'un seul problème : minimiser notre fonction « coût », nous en avons désormais deux : adapter une fonction à notre problème et la minimiser.&lt;/p&gt;&lt;p&gt;Mais nous avons acquis une recette pour aller de l'avant : adapter un modèle aux observations et utiliser ce modèle pour aider à choisir un candidat prometteur pour lequel nous devons mener une expérience. Une fois que nous avons le résultat de l'expérience, le modèle peut être affiné et de nouveaux candidats peuvent être générés, jusqu'à ce que les améliorations se révèlent marginales et ne valent plus la peine.&lt;/p&gt;&lt;p&gt;Et justement,&lt;a href="https://cloud.google.com/vertex-ai/docs/vizier/overview"&gt; Google Cloud Vertex AI Vizier&lt;/a&gt; propose ce type d'optimisation sous forme « as a service ». Si vous voulez en savoir plus sur ce qui se cache derrière - spoiler : Google s'appuie sur l'optimisation par processus gaussien (GP) - consultez cette publication pour une description complète :&lt;a href="https://research.google/pubs/pub46180/" target="_blank"&gt; Google Vizier : un service d'optimisation en boîte noire&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;En pratique, nous avons réalisé 148 expériences différentes avec différentes combinaisons de paramètres d'entrée. Qu'avons-nous appris ? &lt;/p&gt;&lt;h3&gt;Les résultats de notre étude&lt;/h3&gt;&lt;p&gt;Le but de ce billet n'est pas de détailler précisément les paramètres que nous avons utilisés pour obtenir le meilleur coût - ce n'est en effet pas une information transférable car votre programme, votre configuration et à peu près tout le reste seront différents.&lt;/p&gt;&lt;p&gt;Ce que nous souhaitons, c’est vous donner une idée du potentiel de la méthode : dans notre cas, avec 148 cycles, notre fonction « coût » est passée de 0,0780 $/cycle avec notre configuration initiale supposée à 0,0443 $/cycle avec les meilleurs paramètres - soit une réduction des coûts de 43 % !  Sans surprise, le paramètre `machine_type` joue ici un rôle majeur ici. Mais même avec le même type de machine que celui offrant les meilleurs résultats, la partie (explorée) de notre fonction « coût » varie entre $0.0443/run et $0.0531/run - une variation de 16% qui est loin d’être négligeable.&lt;/p&gt;&lt;p&gt;Les runs les plus prometteurs sont représentés dans la figure 3. Tous les axes, sauf les deux derniers, correspondent à des paramètres. Les deux derniers représentent respectivement l'objectif `cost_dollar`, et si le run s'est terminé ou non. Les lignes représentent les runs successifs et relient entre elles les valeurs de chaque axe qui leur correspondent.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_Vertex_AI_Vizier.max-1000x1000.jpg"
        
          alt="5 Vertex AI Vizier.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Dit autrement, nous avons découvert une amélioration substantielle des coûts avec presque aucune intervention de notre part. Nous allons explorer cet aspect plus en détail dans la section suivante.&lt;/p&gt;&lt;h3&gt;Qu’avons-nous appris ?&lt;/h3&gt;&lt;p&gt;L'un des principaux avantages de cette méthode est qu'elle peut fonctionner de manière autonome et ne nécessiter que peu ou pas d'intervention humaine. À condition, bien sûr, d’avoir fait l'effort initial de configurer les choses correctement.&lt;/p&gt;&lt;p&gt;L'optimisation en boîte noire suppose que l'évaluation de f(x) ne dépende que de x et non de ce qui se passe au même moment. Nous ne voulons pas voir d'interactions entre les différentes évaluations de f(x).&lt;/p&gt;&lt;p&gt;L'une des principales applications de Vizier est l'optimisation des hyperparamètres des modèles d'apprentissage profond. La formation et l'évaluation sont essentiellement dépourvues d'effets secondaires - coût mis à part, mais nous avons déjà dit que les méthodes d'optimisation en boîte noire supposent que l'évaluation est coûteuse et sont conçues de sorte à réduire le nombre d'exécutions nécessaires pour trouver les paramètres optimaux. Notre scénario a définitivement des effets secondaires : il déplace des données d'un endroit à un autre.&lt;/p&gt;&lt;p&gt;Donc, si nous nous assurons que tous les effets secondaires sont supprimés de notre expérience de performance, la vie devrait être facile pour nous. Dès lors, les méthodes d'optimisation de type boîte noire peuvent s'appliquer et Vizier en particulier peut être utilisé.&lt;/p&gt;&lt;p&gt;Pour supprimer les effets secondaires, nous avons enveloppé l'exécution de notre scénario dans une logique de mise en place et de démantèlement d'un environnement isolé.&lt;/p&gt;&lt;p&gt;Quelques leçons sur l'exécution de ce type de tests méritent d'être soulignées :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Il faut tout paramétrer, même s'il n'y a qu'une seule valeur au départ : si une autre valeur devient nécessaire, il est facile de l'ajouter. Dans le pire des cas, les valeurs sont enregistrées avec vos données, ce qui facilite la comparaison entre différentes expériences si nécessaire.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Il faut veiller à l’isolation entre les exécutions (runs) et d'autres choses : si une telle isolation n'est pas paramétrée et qu'elle a un impact sur l'objectif, les mesures seront « bruitées » et il sera plus difficile pour le processus d'optimisation d'être décisif lors de la prochaine exploration.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Il faut veiller à l’isolation entre les exécutions (runs) simultanées : de sorte que l’on puisse exécuter plusieurs expériences à la fois.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Il faut s’assurer de la robustesse des exécutions (runs) : toutes les combinaisons de paramètres ne sont pas réalisables, et Vizier permet de les signaler comme telles.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Il faut s’assurer d’un nombre suffisant d’exécutions (runs) : Vizier s'appuie sur les résultats des expériences précédentes pour décider de ce qu'il faut explorer ensuite et vous pouvez demander à ce qu'un certain nombre d'expériences soient exécutées en même temps - sans avoir à fournir les mesures. C'est utile pour commencer à exécuter des expériences en parallèle, mais d'après notre expérience, c'est aussi utile pour s'assurer que vous avez une large couverture de l'espace des paramètres avant que l'exploration ne commence pour essayer d'identifier les extrema locaux. Par exemple, dans la série d'exécutions que nous avons décrite plus haut dans ce billet, 'n2-highcpu-4' n'a pas été essayé avant l'exécution 107. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Des outils existent aujourd'hui : Vizier est un exemple disponible sous forme de service. Il existe également de nombreuses bibliothèques Python pour l'optimisation en boîte noire. Il s'agit d'un outil à avoir dans sa boîte à outils si l'on ne veut pas passer des heures à manipuler manuellement des paramètres et que l'on préfère une machine pour le faire.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;h3&gt;Conclusion et prochaines étapes&lt;/h3&gt;&lt;p&gt;L'optimisation en boîte noire est inévitable pour le réglage des hyperparamètres ML. Google Vertex AI Vizier est un service d'optimisation en boîte noire avec une gamme d'applications plus large. Nous pensons qu'il s'agit également d'un excellent outil pour l'ingénierie de systèmes complexes caractérisés par de nombreux paramètres dont les interactions sont essentiellement inconnues ou difficiles à décrire.&lt;/p&gt;&lt;p&gt;Bien sûr, pour les petits systèmes, l'exploration manuelle et/ou systématique des paramètres peut être possible, mais l'intérêt de ce billet est de rappeler qu'elle peut aussi être automatisée !&lt;/p&gt;&lt;p&gt;L'optimisation des performances est un défi récurrent car tout change et de nouvelles options et/ou de nouveaux modes d'utilisation apparaissent.&lt;/p&gt;&lt;p&gt;La configuration présentée dans ce billet est relativement simple et très statique. Il existe des extensions naturelles de cette configuration à l'optimisation continue en ligne qui méritent d'être explorées du point de vue du génie logiciel, comme les « bandits à bras multiples ».&lt;/p&gt;&lt;p&gt;Et si l'avenir de l'optimisation des applications était déjà là, mais pas très bien réparti, pour paraphraser William Gibson ?&lt;/p&gt;&lt;p&gt;Vous pensez que tout ceci est définitivement très cool ? Alors, sachez que&lt;a href="https://www.f5.com/company/careers" target="_blank"&gt; le groupe AI &amp;amp; Data de F5 recrute&lt;/a&gt; !&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 05 Apr 2022 09:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/ai-machine-learning/optimisez-vos-applications-avec-google-vertex-ai-vizier/</guid><category>Application Modernization</category><category>AI &amp; Machine Learning</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Optimisez vos applications avec Google Vertex AI Vizier</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/ai-machine-learning/optimisez-vos-applications-avec-google-vertex-ai-vizier/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Laurent Querel</name><title>Distinguished Engineer - F5</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sebastien Soudan</name><title>Senior Architect - F5</title><department></department><company></company></author></item></channel></rss>