<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Analyse de données</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/</link><description>Analyse de données</description><atom:link href="https://cloudblog.withgoogle.com/blog/fr/products/analyse-de-donnees/rss/" rel="self"></atom:link><language>fr</language><lastBuildDate>Mon, 22 Dec 2025 16:57:39 +0000</lastBuildDate><image><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/static/blog/images/google.a51985becaa6.png</url><title>Analyse de données</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/</link></image><item><title>Envie de pouvoir dialoguer avec vos données où et quand vous le voulez ? Découvrez l’API Conversational Analytics de Google</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="0li23"&gt;Décideurs, collaborateurs, clients… tout le monde veut trouver ses réponses dans son environnement de travail. Autrement dit, directement dans les applications utilisées chaque jour. Ces dernières années, l’essor de la BI augmentée par l’IA a changé notre rapport aux données, en permettant de poser des questions en langage naturel et d’obtenir des réponses instantanément. Mais il y a une limite : les insights restent confinés à l’outil de BI. Pour y accéder, il faut passer par cette interface. Dit autrement, ces insights ne suivent pas l’utilisateur dans ses autres applications. Et chez Google Cloud, nous voulons changer ça.&lt;/p&gt;&lt;p data-block-key="2c7mb"&gt;Lors de Google Cloud Next 25, &lt;a href="https://cloud.google.com/blog/products/data-analytics/looker-bi-platform-gets-ai-powered-data-exploration?hl=en"&gt;nous avons présenté l’API Conversational Analytics&lt;/a&gt;. Elle permet aux développeurs d’intégrer des fonctionnalités de requêtage en langage naturel au cœur même de leurs applications, outils internes ou workflows, tout en s’appuyant sur des bases solides : un accès aux données sécurisé et fiable, ainsi qu’une modélisation évolutive et robuste.&lt;br/&gt; Cette technologie est déjà utilisée par Google Cloud pour ses propres fonctionnalités conversationnelles, notamment dans Looker et BigQuery Data Canvas.&lt;/p&gt;&lt;p data-block-key="3t64m"&gt;&lt;b&gt;Nous sommes ravis d’annoncer que l’API Conversational Analytics est désormais disponible en aperçu public (public preview)&lt;/b&gt; pour tous les développeurs : donnez libre cours à votre créativité en l’intégrant dans vos projets. &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr"&gt;Une documentation complète est également à votre disposition pour bien démarrer&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="e6hq9"&gt;Avec l’API &lt;b&gt;Conversational Analytics&lt;/b&gt;, vous pouvez imagine une infinité de cas d’usage nécessitant d’interagir avec vos données. Les réponses peuvent prendre la forme de chiffres, de graphiques ou encore de texte. Pour garantir la précision des résultats, vous pouvez vous appuyer sur le modèle sémantique éprouvé de Looker, ou fournir aux agents BigQuery le contexte métier et data dont ils ont besoin. Ces fonctionnalités peuvent être intégrées directement dans vos applications afin d’offrir aux utilisateurs des expériences intuitives, leur donner accès à des analyses complexes en langage naturel, et même orchestrer des agents conversationnels d’analyse, chacun jouant le rôle d’un « outil » spécialisé, au service d’un agent orchestrateur, grâce à &lt;a href="https://cloud.google.com/vertex-ai/generative-ai/docs/agent-development-kit/quickstart"&gt;Agent Development Kit&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_veKmF4a.gif"
        
          alt="1.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Découvrir l’API Conversational Analytics&lt;/h3&gt;&lt;p data-block-key="821ai"&gt;L’API Conversational Analytics vous permet d’interagir avec vos données dans BigQuery ou Looker via une fenêtre de chat, où que vous soyez. Vous pouvez, par exemple, ajouter une fenêtre de conversation à coté de vos tableaux de bord Looker, invoquer des agents dans des applications de messagerie comme Slack, personnaliser les applications web de votre entreprise ou encore construire des systèmes multi-agents.&lt;/p&gt;&lt;p data-block-key="47dr5"&gt;Avec cette API, vos équipes accèdent aux bonnes réponses, au bon moment, directement à partir de leurs outils de travail habituels. Pour ce faire, l’API combine la puissance des modèles IA avancés et les capacités d’orchestration d’agents de Google, avec la couche sémantique de Looker et les services de contextualisation de BigQuery. Résultat : des échanges en langage naturel, faciles à partager à l’échelle de l’entreprise et qui rendent l’accès aux informations clés aussi fluide que possible dans les applications couramment utilisées.&lt;/p&gt;&lt;p data-block-key="5ck01"&gt;La pile Analytics et IA de Google apporte de solides atouts pour garantir la précision des réponses :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="e5nmh"&gt;Une IA de pointe conçue pour l’analytique des données&lt;/li&gt;&lt;li data-block-key="c15mm"&gt;Une architecture à base d’agents, capable de comprendre son environnement et d’agir en conséquence&lt;/li&gt;&lt;li data-block-key="b8mtb"&gt;La puissance de la couche sémantique de Looker, gage de fiabilité des réponses&lt;/li&gt;&lt;li data-block-key="4573g"&gt;&lt;a href="https://cloud.google.com/blog/products/business-intelligence/use-conversational-analytics-api-for-natural-language-ai?e=48754805&amp;amp;hl=en"&gt;Des outils très performants pour créer et faire évoluer vos agents&lt;/a&gt; (fonctions logicielles, graphiques, API), développés et maintenus par des équipes dédiées.&lt;/li&gt;&lt;li data-block-key="fi4v8"&gt;Un interpréteur Python intégré, pour réaliser des analyses avancées&lt;/li&gt;&lt;li data-block-key="4q5h5"&gt;La possibilité d’affiner vos agents grâce à du contexte structuré et des prompts adaptés&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="5o6u3"&gt;Avec API Conversational Analytics, vous disposez d’une flexibilité totale pour concevoir des applications vraiment adaptées à vos besoins. Cette flexibilité permet de :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="cvsu9"&gt;Créer, mettre à jour et partager des agents permettant à vos utilisateurs d’échanger en langage naturel avec les données de BigQuery ou de Looker&lt;/li&gt;&lt;li data-block-key="v573"&gt;Réduire la charge de maintenance grâce à des API &lt;i&gt;stateful&lt;/i&gt; dédiées à la gestion des agents et des conversations&lt;/li&gt;&lt;li data-block-key="c057s"&gt;Garder la maîtrise de l’expérience utilisateur via notre API de chat &lt;i&gt;stateless&lt;/i&gt;&lt;/li&gt;&lt;li data-block-key="7pk03"&gt;Développer des architectures multi-agents en encapsulant les API avec l’&lt;a href="https://github.com/google/adk-python" target="_blank"&gt;ADK&lt;/a&gt; et &lt;a href="https://github.com/googleapis/genai-toolbox" target="_blank"&gt;MCP&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="etjpa"&gt;Aider les agents IA à mieux comprendre votre métier et vos données grâce à l’ingénierie de contexte assistée par l’IA&lt;/li&gt;&lt;li data-block-key="9qlu8"&gt;Assurer un contrôle de version sur vos agents, en mettant à jour les prompts sans perturber l’usage en production&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cdpel"&gt;Et bien entendu, vous bénéficiez aussi des contrôles et de la sécurité (adaptés aux usages professionnels) de Google Cloud Platform, permettant :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="b71mb"&gt;D’encadrer l’utilisation des agents grâce à des contrôles d’accès basés sur les rôles (RBAC)&lt;/li&gt;&lt;li data-block-key="9oro1"&gt;De protéger vos données avec, par défaut, des contrôles d’accès au niveau des lignes et des colonnes&lt;/li&gt;&lt;li data-block-key="bcdan"&gt;De se prémunir contre les requêtes coûteuses grâce à des limitations intégrées des requêtes&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="7elu"&gt;Associée à Looker, l’API Conversational Analytics bénéficie de sa couche sémantique qui réduit jusqu’à deux tiers les erreurs dans les requêtes en langage naturel générées par l’IA. Les résultats reposent ainsi sur la donnée de référence définie par l’entreprise, garantissant des réponses fiables et cohérentes plutôt que des interprétations approximatives.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_F9tAD9S.max-1800x1800.png"
        
          alt="2.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Un workflow agentique, boosté par la puissance des modèles IA de Google&lt;/h3&gt;&lt;p data-block-key="bhg7d"&gt;L’API Conversational Analytics s’appuie sur des modèles spécialement conçus pour interroger et analyser les données afin de fournir des réponses précises. Elle expose un workflow agentique flexible, permettant de décider quelles briques - analyse SQL, génération de graphiques, exécution de code, etc. - l’agent conversationnel utilisera pour répondre aux questions des utilisateurs.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_7qaisEh.max-1600x1600.png"
        
          alt="3.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="0li23"&gt;En tant que développeur, vous pouvez concevoir des agents dopés à l’IA à l’aide des outils suivants :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="75auo"&gt;Text-to-SQL, solution éprouvée adoptée par les clients qui utilisent Gemini dans BigQuery&lt;/li&gt;&lt;li data-block-key="da9cm"&gt;Récupération de contexte, personnalisée selon l’utilisateur et alignée sur l’usage de l’entreprise&lt;/li&gt;&lt;li data-block-key="2pl3t"&gt;NL-to-Looker Query Engine de Looker, pour tirer parti de la couche sémantique préparée par les analystes&lt;/li&gt;&lt;li data-block-key="ahs2k"&gt;Code Interpreter, pour des analyses avancées comme les prévisions ou l’analyse de causes profondes&lt;/li&gt;&lt;li data-block-key="38v51"&gt;Charting, pour créer des visualisations percutantes et donner vie à vos données&lt;/li&gt;&lt;li data-block-key="blb84"&gt;Insights, pour expliquer les réponses en langage clair&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3t31d"&gt;Ces outils de génération par l’IA s’appuient sur les derniers modèles Gemini de Google et sont ajustés pour des tâches spécifiques d’analyse de données, afin d’offrir un haut niveau de précision. On peut encore compléter cette panoplie d’outils avec Code Interpreter for Conversational Analytics, solution qui permet d’effectuer des calculs allant de l’analyse de cohortes aux comparaisons entre périodes. Actuellement en mode preview, Code Interpreter vous permet d’agir comme un véritable data scientist, sans avoir besoin de maîtriser le code avancé ni les méthodes statistiques. Vous pouvez dès à présent vous inscrire - &lt;a href="https://cloud.google.com/looker/docs/studio/conversational-analytics-code-interpreter?hl=fr"&gt;ici&lt;/a&gt; - pour obtenir un accès anticipé.&lt;/p&gt;&lt;h3 data-block-key="d3gui"&gt;Récupération et génération de contexte&lt;/h3&gt;&lt;p data-block-key="bjj2i"&gt;Un bon analyste de données n’est pas seulement compétent : il connaît aussi en profondeur l’activité de son entreprise et ses données. Pour délivrer des résultats comparables, une expérience de type « chat avec vos données » doit disposer du même niveau de connaissance sur l’entreprise et ses données. C’est pourquoi l’API Conversational Analytics accorde la priorité à la collecte de contexte autour de vos données et de vos requêtes.&lt;/p&gt;&lt;p data-block-key="toem"&gt;Grâce au RAG (retrieval augmented generation), nos agents Conversational Analytics connaissent suffisamment bien vos données pour comprendre que lorsque vous demandez les ventes à « New York » ou « NYC », il s’agit de « New York City ». L’API interprète le sens de votre question afin de la faire correspondre aux champs les plus pertinents à interroger, et apprend aussi des usages de votre organisation : par exemple, elle reconnaît que « revenue_final_calc » est plus souvent sollicité que « revenue_intermediate » dans votre projet BigQuery, et adapte ses choix en conséquence. Enfin, l’API apprend également de vos interactions passées : elle se souvient que vous avez interrogé la valeur « customer lifetime value » dans BigQuery Studio mardi, lorsque vous reposez la même question le vendredi.&lt;/p&gt;&lt;p data-block-key="9m570"&gt;Toutes les bases de données ne disposent pas du contexte nécessaire permettant à l’agent de réaliser ce travail. Les descriptions de colonnes, les glossaires métiers et les associations question-requête peuvent améliorer sa précision, mais leur création manuelle est fastidieuse, surtout quand votre entreprise gère 1 000 tables comportant chacune 500 champs. Pour accélérer l’apprentissage de votre agent, nous avons ajouté la fonctionnalité AI-assisted context : Gemini suggère automatiquement des métadonnées utiles à l’agent, tout en vous laissant la possibilité d’approuver ou de rejeter ses propositions.&lt;/p&gt;&lt;h3 data-block-key="2j25f"&gt;Une maintenance réduite au minimum&lt;/h3&gt;&lt;p data-block-key="aa4tm"&gt;L’API Conversational Analytics vous donne accès aux derniers outils d’agents pour données de Google Cloud, afin que vous puissiez vous concentrer sur le développement de votre activité plutôt que sur la création de nouveaux agents. Vous bénéficiez en outre des avancées continues de Google en matière d’IA générative pour le code et l’analyse de données.&lt;/p&gt;&lt;p data-block-key="amtum"&gt;Lorsque vous créez un agent, vos données sont protégées par la sécurité de Google, ses meilleures pratiques et ses contrôles d’accès basés sur les rôles. Une fois votre agent Looker ou BigQuery partagé, il peut être utilisé par l’ensemble des solutions Google Cloud — comme &lt;a href="https://developers.googleblog.com/en/agent-development-kit-easy-to-build-multi-agent-applications/" target="_blank"&gt;Agent Development Kit&lt;/a&gt; — ainsi que dans vos propres applications.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/4_NcRs0F5.gif"
        
          alt="4.API Conversational Analytics de Google"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="0li23"&gt;Des échanges en langage naturel, partout où vous en avez besoin grâce à l’API&lt;/h3&gt;&lt;p data-block-key="7kbkb"&gt;Grâce à des agents accessibles via API, vous pouvez mettre les informations clés à disposition partout où les décideurs en ont besoin, que ce soit lors d’un échange avec un client lors d’un appel au support, sur une tablette utilisée par vos équipes sur le terrain, ou directement au sein de vos applications de messagerie.&lt;/p&gt;&lt;p data-block-key="bod16"&gt;L’API Conversational Analytics a été conçue pour apporter de la valeur à tous les utilisateurs : qu’il s’agisse de profils métiers, d’analystes de données qui construisent des agents, ou de développeurs logiciels. Avec les agents conversationnels, lorsqu’un utilisateur pose une question, la réponse est fournie rapidement, accompagnée du raisonnement de l’agent. L’utilisateur peut ainsi vérifier que les résultats reposent sur la démarche d’analyse appropriée. Des contrôles granulaires permettent aux développeurs de définir ce qui est visible par l’utilisateur — comme les réponses et les graphiques — et ce qui est journalisé pour un audit ultérieur par les analystes — comme le code SQL ou Python.&lt;/p&gt;&lt;p data-block-key="4k1s9"&gt;Pour bien débuter avec notre API Conversational Analytics, n’hésitez pas à consulter notre &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr"&gt;documentation&lt;/a&gt; et les &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/reference/rest?hl=fr"&gt;références techniques de l’API&lt;/a&gt;, que ce soit en REST ou via SDK. Vous pouvez également vous appuyer sur des exemples de code disponibles dans des &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/overview?hl=fr#interactive-colab-notebooks"&gt;notebooks Colab&lt;/a&gt;, &lt;a href="https://github.com/looker-open-source/ca-api-quickstarts" target="_blank"&gt;une application Streamlit sur GitHub&lt;/a&gt; ou encore &lt;a href="https://github.com/looker-open-source/ca-demos-and-tools" target="_blank"&gt;une application de référence en TypeScript&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 23 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</guid><category>Business Intelligence</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Envie de pouvoir dialoguer avec vos données où et quand vous le voulez ? Découvrez l’API Conversational Analytics de Google</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/envie-de-pouvoir-dialoguer-avec-vos-donnees-ou-et-quand-vous-le-voulez-decouvrez-lapi-conversational-analytics-de-google/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Richard Kuzma</name><title>Group Product Manager, Data Agents</title><department></department><company></company></author></item><item><title>Redéfinir les données d’entreprise grâce aux agents et aux fondations IA-natives</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;Le monde ne se contente pas de changer : il se reconstruit, se réinvente, sous nos yeux, propulsé par la donnée et l’intelligence artificielle. Notre rapport aux données se métamorphose. Nous entrons dans une nouvelle ère, &lt;i&gt;l’ère agentique&lt;/i&gt;, où l’analyse n’est plus le seul fruit de l’expertise humaine mais repose sur une synergie collaborative avec des agents IA capables d’agir, d’apprendre et de coopérer entre eux et avec l’humain pour libérer des insights à une vitesse et une ampleur inédite.&lt;br/&gt; Depuis le début, chez Google Cloud, nous ne voulons pas rester spectateurs de cette transformation : à l’inverse nous bâtissons les fondations de l’IA, les modèles, les écosystèmes interconnectés et les plateformes de données « IA natives » qui l’alimentent.&lt;/p&gt;&lt;p data-block-key="dg2oj"&gt;Pour rendre cette réalité agentique possible, il faut un autre type de plateforme de données : non pas une collection d’outils en silos, mais un cloud unique, unifié et natif de l’IA. C’est justement ce qu’est Google Data Cloud.&lt;br/&gt;Au cœur de cette plateforme, nos moteurs analytiques et opérationnels unifiés effacent la fracture historique entre données transactionnelles métiers et analyses stratégiques. Google Data Cloud offre ainsi aux agents une compréhension complète et en temps réel de l’entreprise, transformant celle-ci d’un ensemble de processus en une organisation auto-analytique, auto-optimisée et fiable.&lt;/p&gt;&lt;p data-block-key="blcpl"&gt;Pour donner corps à cette vision, nous lançons trois innovations majeures :&lt;/p&gt;&lt;p data-block-key="fbtbf"&gt;* &lt;b&gt;Une collection d’agents de données nouvelle génération&lt;/b&gt; : des agents d’IA spécialisés, conçus pour agir comme partenaires experts auprès de tous les utilisateurs de données, qu’il s’agisse de data-scientists, d’ingénieurs ou d’analystes métier.&lt;/p&gt;&lt;p data-block-key="4vu2c"&gt;* &lt;b&gt;Un réseau interconnecté pour la collaboration entre agents &lt;/b&gt;: un ensemble d’API, d’outils et de protocoles permettant aux développeurs d’intégrer les agents Google à leurs propres agents et projets IA, créant ainsi un écosystème intelligent unifié.&lt;/p&gt;&lt;p data-block-key="fmavg"&gt;* &lt;b&gt;Une fondation unifiée et IA native &lt;/b&gt;: une plateforme qui rend possible l’action d’agents intelligents en unifiant les données, en offrant une mémoire persistante et en intégrant un raisonnement piloté par l’IA.&lt;/p&gt;&lt;h3 data-block-key="dgq0i"&gt;Des agents de données experts à vos côtés&lt;/h3&gt;&lt;p data-block-key="2ik1o"&gt;Bienvenue dans l’ère agentique : une nouvelle force de travail vous assiste, composée d’agents IA spécialisés, conçus pour comprendre vos intentions et les transformer instantanément en actions concrètes grâce à une interface pensée IA dès le départ.&lt;/p&gt;&lt;p data-block-key="d51vs"&gt;* &lt;b&gt;Pour les data engineers &lt;/b&gt;: nous lançons un Data Engineering Agent dans BigQuery afin de simplifier et automatiser les pipelines de données complexes. Il est désormais possible d’utiliser des requêtes en langage naturel pour fluidifier l’ensemble du workflow, depuis l’ingestion des données issues de sources comme Google Cloud Storage jusqu’aux transformations et au contrôle de la qualité des données. Il suffit de décrire ce dont vous avez besoin. Par exemple, il suffit de demander &lt;i&gt;« Crée un pipeline pour charger un fichier CSV, nettoyer ces colonnes et le joindre à une autre table »&lt;/i&gt; et l’agent génère et orchestre automatiquement l’ensemble du processus.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_YdkRyqo.gif"
        
          alt="Fig. 1 – Data Engineering Agent en action pour l’automatisation de pipelines de données complexes"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;Fig. 1 – Data Engineering Agent en action pour l’automatisation de pipelines de données complexes&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;&lt;b&gt;* Pour les data scientists&lt;/b&gt; : nous repensons l’expérience &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/ai-first-colab-notebooks-in-bigquery-and-vertex-ai"&gt;Colab Enterprise Notebook&lt;/a&gt; avec une logique IA-native, intégrée à BigQuery et Vertex AI. Au cœur de cette évolution : le &lt;i&gt;Data Science Agent&lt;/i&gt;, propulsé par Gemini, prend en charge des workflows entiers, de l’analyse exploratoire au nettoyage, de la création de features aux prédictions ML. Il planifie, code, interprète les résultats et restitue ses insights, tout en restant interactif : vous pouvez corriger, commenter et collaborer en temps réel avec lui.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/2_ErovIfP.gif"
        
          alt="Fig. 2 – Data science agent métamorphose chaque étape des tâches de science des données"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;Fig. 2 – Data science agent métamorphose chaque étape des tâches de science des données&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="4nuyb"&gt;&lt;b&gt;* Pour les utilisateurs métiers et les analystes&lt;/b&gt; : l’an dernier, nous avions lancé le &lt;i&gt;Conversational Analytics Agent&lt;/i&gt;, permettant d’interroger ses données en langage naturel. Place désormais à &lt;i&gt;Code Interpreter&lt;/i&gt;, pensé pour répondre aux questions stratégiques qu’une requête SQL simple ne suffit pas à résoudre. Par exemple : &lt;i&gt;« Réaliser une analyse de segmentation client pour regrouper les clients en cohortes distinctes »&lt;/i&gt;. Grâce au raisonnement avancé de Gemini 2.5 et au savoir-faire de DeepMind, l’agent &lt;i&gt;Code Interpreter&lt;/i&gt; traduit des questions en langage naturel en code Python exécutable, explique clairement chaque étape et génère des visualisations interactives. out ça, directement dans l’environnement gouverné et sécurisé de Google Data Cloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/3_YlX9gTN.gif"
        
          alt="Fig. 3 – Exemple de BI conversationnelle avec Code Interpreter pour des analyses avancées"&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="p3s5o"&gt;Fig. 3 – Exemple de BI conversationnelle avec Code Interpreter pour des analyses avancées&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;Construire un écosystème d'agents IA interconnectés&lt;/h3&gt;&lt;p data-block-key="6qa6q"&gt;Imaginez un monde où les agents intelligents ne travaillent pas en vase clos, mais se connectent, s’enrichissent mutuellement et s’intègrent à vos propres outils. Google Cloud propose une plateforme ouverte où les développeurs ne se contentent pas d’utiliser ce qui existe, mais créent des liens, ajoutent leurs briques et bâtissent un réseau plus vaste et puissant d’agents collaborants.&lt;/p&gt;&lt;p data-block-key="5pkvb"&gt;Nos agents propriétaires offrent des fonctionnalités puissantes, prêtes à l’emploi, ainsi que des éléments fondamentaux — API, outils et protocoles — permettant de créer des agents personnalisés, d’intégrer l’intelligence conversationnelle dans des applications existantes et d’orchestrer des flux de travail complexes, multi-agents, capables de résoudre des problématiques métier uniques.&lt;/p&gt;&lt;p data-block-key="cadqb"&gt;Et pour concrétiser cette vision, nous lançons les &lt;a href="https://cloud.google.com/gemini/docs/conversational-analytics-api/reference/rest"&gt;&lt;i&gt;Gemini Data Agents APIs&lt;/i&gt;&lt;/a&gt;, dont la première est la nouvelle &lt;i&gt;Conversational Analytics API&lt;/i&gt;. Cette API fournit les briques nécessaires pour intégrer directement dans vos applications, produits et workflows, les puissantes capacités de traitement du langage naturel de Looker ainsi que celles de l’agent &lt;i&gt;Code Interpreter&lt;/i&gt;. Elle permet ainsi de créer des expériences data uniques, taillées pour vos besoins métiers spécifiques.&lt;/p&gt;&lt;p data-block-key="cpg8o"&gt;Il est temps d’aller plus loin que les simples expériences conversationnelles : place à la création d’agents sur mesure, bâtis de toutes pièces. Avec la &lt;b&gt;Data Agents API&lt;/b&gt; et l’&lt;b&gt;ADK (&lt;/b&gt;&lt;a href="https://developers.googleblog.com/en/agent-development-kit-easy-to-build-multi-agent-applications/" target="_blank"&gt;&lt;b&gt;Agent Development Kit&lt;/b&gt;&lt;/a&gt;&lt;b&gt;)&lt;/b&gt;, les entreprises peuvent façonner des agents spécialisés qui épousent leurs propres processus métier. Le tout repose sur un socle de confiance solide et sécurisé : le &lt;b&gt;Model Context Protocol (MCP)&lt;/b&gt;, renforcé par notre boîte à outils &lt;a href="https://cloud.google.com/blog/products/ai-machine-learning/mcp-toolbox-for-databases-now-supports-model-context-protocol"&gt;&lt;b&gt;MCP Toolbox for Databases&lt;/b&gt;&lt;/a&gt; et par notre nouveau &lt;a href="https://googleapis.github.io/genai-toolbox/resources/tools/looker/" target="_blank"&gt;&lt;b&gt;Looker MCP Server&lt;/b&gt;&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/4_v0frcSc.gif"
        
          alt="Fig. 4 – Interrogation de la couche sémantique depuis le serveur Looker MCP via le Gemini CLI."&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;Une base de données unifiée et native à l’IA&lt;/h3&gt;&lt;p data-block-key="6uoai"&gt;Les agents intelligents, ainsi que les réseaux qu’ils forment, ne peuvent se contenter d’une infrastructure de données traditionnelle. Ils ont besoin d’un socle “cognitif” qui rassemble toutes les données de l’entreprise, offre de nouvelles capacités pour comprendre le sens et procure une mémoire persistante sur laquelle raisonner.&lt;/p&gt;&lt;p data-block-key="ad416"&gt;Pour que cette base « native IA » tienne toutes ses promesses, elle doit réconcilier données transactionnelles temps réel et données analytiques historiques et donc combiner systèmes OLTP et OLAP. Nous avons ouvert la voie avec un &lt;a href="https://cloud.google.com/blog/products/databases/alloydb-for-postgresql-columnar-engine?e=48754805"&gt;moteur en colonnes pour AlloyDB&lt;/a&gt;, qui a boosté l’analytique des workloads PostgreSQL.&lt;br/&gt;Aujourd’hui nous franchissons un nouveau cap de performances : avec notre nouveau moteur colonnaire pour Spanner (le &lt;a href="https://cloud.google.com/blog/products/databases/spanners-columnar-engine-unites-oltp-and-analytics"&gt;Spanner Columnar Engine&lt;/a&gt;), notre base de données à très grande échelle, certaines requêtes analytiques s’exécutent jusqu’à 200 fois plus vite (que sur le stockage en ligne classique) directement sur vos données transactionnelles.&lt;br/&gt;Dans le cadre de notre &lt;b&gt;Data Cloud unifié&lt;/b&gt;, cette innovation profite aussi directement à notre moteur analytique &lt;a href="https://cloud.google.com/spanner/docs/databoost/databoost-overview"&gt;&lt;b&gt;Data Boost&lt;/b&gt;&lt;/a&gt; dans&lt;b&gt; BigQuery&lt;/b&gt;, qui exploite le moteur colonnaire de Spanner pour réduire l’écart entre charges transactionnelles et analytiques et accélérer l’analyse des données opérationnelles en temps réel.&lt;/p&gt;&lt;p data-block-key="1rb17"&gt;Un tel plan de données unifié en place, un autre enjeu clé demeure : doter les agents IA d’une mémoire solide, enracinée dans les faits de l’entreprise. Pour être fiables et éviter les hallucinations, ces derniers doivent s’appuyer sur le &lt;b&gt;RAG (Retrieval-Augmented Generation)&lt;/b&gt;. Son efficacité dépend d’une recherche vectorielle capable de naviguer aussi bien dans les données opérationnelles en temps réel que dans les archives analytiques profondes. C’est pourquoi nous avons intégré ces capacités de recherche et de génération directement au cœur de nos fondations data : vos agents peuvent ainsi puiser, en un instant, dans toute la mémoire transactionnelle et analytique de l’entreprise.&lt;/p&gt;&lt;p data-block-key="9fbk4"&gt;Optimiser la recherche vectorielle est un vrai casse-tête : son usage implique souvent de douloureux compromis entre vitesse, précision et complexité opérationnelle. Dans &lt;b&gt;AlloyDB AI&lt;/b&gt;, de nouvelles fonctionnalités, comme le &lt;b&gt;filtrage adaptatif (Preview)&lt;/b&gt; résolvent ce défi pour la mémoire transactionnelle, en maintenant automatiquement les index vectoriels et en optimisant les requêtes rapides sur les données opérationnelles en temps réel.&lt;br/&gt; Parallèlement, pour offrir une mémoire analytique plus profonde, nous introduisons des &lt;b&gt;vector embeddings autonomes&lt;/b&gt; et la génération dans &lt;b&gt;BigQuery&lt;/b&gt;. Désormais, BigQuery peut automatiquement préparer et indexer des données multimodales pour la recherche vectorielle, une étape essentielle pour construire une mémoire sémantique riche et durable pour vos agents IA.&lt;/p&gt;&lt;p data-block-key="85m9c"&gt;Enfin, par‑dessus ces données unifiées et accessibles, nous intégrons directement des capacités de raisonnement de l’IA dans nos moteurs de requêtes. Avec le nouveau &lt;b&gt;AI Query Engine dans BigQuery (Preview)&lt;/b&gt;, tous les professionnels de la donnée peuvent exécuter des calculs enrichis par l’IA, aussi bien sur des données structurées que non structurées, directement au sein de BigQuery. Ils obtiennent ainsi rapidement et simplement des réponses à des questions subjectives et complexes, comme : &lt;i&gt;« Parmi ces avis clients, lesquels semblent exprimer le plus de frustration ? »&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_vEIO71S.max-1000x1000.png"
        
          alt="AI Query Engine apporte la puissance des LLM (Large Language Models) directement dans SQL."&gt;
        
        &lt;/a&gt;
      
        &lt;figcaption class="article-image__caption "&gt;&lt;p data-block-key="yd5ru"&gt;AI Query Engine apporte la puissance des LLM (Large Language Models) directement dans SQL.&lt;/p&gt;&lt;/figcaption&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="4nuyb"&gt;L’avenir est agentique&lt;/h3&gt;&lt;p data-block-key="918fa"&gt;Toutes ces annonces — des agents spécialisés pour chaque utilisateur jusqu’à la fondation native IA qui les alimente — représentent bien plus qu’une simple feuille de route. Elles constituent les briques essentielles d’une nouvelle entreprise « agentique ». Désormais, toute une main-d’œuvre d’agents intelligents peut collaborer dans un réseau ouvert, interconnecté et s’appuyer sur un cloud unifié qui gomme la frontière entre données opérationnelles et analytiques. Vous disposez ainsi d’une plateforme qui vous met en position d’innovateur, pas seulement d’intégrateur.&lt;br/&gt; C’est une rupture majeure : l’analyse des données ne repose plus sur les seuls efforts humains, mais sur un puissant partenariat entre vos équipes et des agents IA.&lt;/p&gt;&lt;p data-block-key="bvuch"&gt;L’ère agentique est là. Nous avons hâte de voir ce que vous en ferez — et vous invitons à embarquer dans ce passionnant voyage dès aujourd’hui pour redéfinir les possibles de la donnée.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 09 Dec 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Redéfinir les données d’entreprise grâce aux agents et aux fondations IA-natives</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/redefinir-les-donnees-dentreprise-grace-aux-agents-et-aux-fondations-ia-natives/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Yasmeen Ahmad</name><title>Managing Director, Data Cloud, Google Cloud</title><department></department><company></company></author></item><item><title>Cloud Composer 3 : découvrez la nouvelle génération d’orchestration des pipelines de données</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/cloud-composer-3-decouvrez-la-nouvelle-generation-dorchestration-des-pipelines-de-donnees/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="nfah5"&gt;N’importe quelle équipe data vous le dira : la gestion d'Apache Airflow est souvent un véritable casse-tête, nécessitant d'innombrables heures consacrées aux problèmes de fiabilité, de sécurité et d'optimisation des ressources. Ce temps précieux pourrait être mieux investi dans l'analyse de données et la création de valeur pour l'entreprise.&lt;/p&gt;&lt;p data-block-key="2vkdt"&gt;Désormais officiellement disponible, &lt;a href="https://cloud.google.com/composer/docs/composer-3/composer-overview"&gt;Cloud Composer 3&lt;/a&gt; change la donne. Cette nouvelle version de notre service Apache Airflow entièrement managé, dédié à l’orchestration des workflows de données, simplifie non seulement la mise en œuvre des pipelines mais réduit aussi la charge opérationnelle tout en accélérant la création de valeur.&lt;/p&gt;&lt;h3 data-block-key="fljqu"&gt;Cloud Composer : la solution Airflow managée la plus avancée&lt;/h3&gt;&lt;p data-block-key="3p3h1"&gt;Cloud Composer 3 permet aux équipes data de créer, d'exécuter et de gérer des pipelines de données avec une efficacité et un contrôle accrus. Son interface utilisateur simplifiée, ses performances améliorées et ses fonctionnalités de sécurité robustes en font la plateforme idéale pour accélérer tous vos projets data.&lt;/p&gt;&lt;p data-block-key="ahvlk"&gt;Adopté par de nombreuses entreprises, Cloud Composer s’est imposé comme la solution de référence dans le domaine de l’analytique pour automatiser les workflows data. Aujourd’hui, elle joue également un rôle clé dans l’orchestration des workflows IA/ML, simplifiant ainsi la mise en œuvre des pratiques MLOps, essentielles à la réussite des projets IA.&lt;/p&gt;&lt;h3 data-block-key="egsce"&gt;Principales nouveautés apportées par Cloud Composer 3&lt;/h3&gt;&lt;p data-block-key="6eo04"&gt;La nouvelle version de Cloud Composer propose de nombreuses nouvelles fonctionnalités puissantes ainsi que nombre d’améliorations conçues pour simplifier la gestion des pipelines de données et gagner en efficacité :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="7qgsb"&gt;&lt;b&gt;Configuration réseau simplifiée&lt;/b&gt; : configurez facilement vos paramètres réseau grâce à des options prêtes à l’emploi et plus intuitives, réduisant la complexité et la charge opérationnelle.&lt;/li&gt;&lt;li data-block-key="daejg"&gt;&lt;b&gt;Versioning en continu&lt;/b&gt; (&lt;i&gt;evergreen&lt;/i&gt;) : vous bénéficiez automatiquement des dernières versions de Cloud Composer : nouvelles fonctionnalités, correctifs de sécurité et améliorations de performance.&lt;/li&gt;&lt;li data-block-key="87k3l"&gt;&lt;b&gt;Fin des problématiques d’infrastructure&lt;/b&gt; : concentrez-vous sur vos pipelines de données, pas sur l’infrastructure. Cloud Composer 3 prend en charge la couche sous-jacente pour vous permettre de vous focaliser sur la conception et l’exécution de vos DAGs (Directed Acyclic Graph).&lt;/li&gt;&lt;li data-block-key="114r2"&gt;&lt;b&gt;Performances et fiabilité renforcées&lt;/b&gt; : gagnez en performances et en stabilité grâce à une infrastructure optimisée et une gestion étendue des ressources.&lt;/li&gt;&lt;li data-block-key="a4mrs"&gt;&lt;b&gt;Gestion fine des ressources CPU et mémoire&lt;/b&gt;: ajustez précisément l’allocation CPU et mémoire pour chaque tâche, afin d’optimiser les performances tout en maîtrisant les coûts.&lt;/li&gt;&lt;li data-block-key="f3nne"&gt;&lt;b&gt;Renforcement de la sécurité&lt;/b&gt; : en s’appuyant sur l’infrastructure sous-jacente de Google, Cloud Composer 3 bénéficie automatiquement des meilleures pratiques en matière de sécurité.&lt;/li&gt;&lt;li data-block-key="8rdnb"&gt;… et bien d’autres améliorations encore.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="3e3ek"&gt;Bénéfices pour les équipes data&lt;/h3&gt;&lt;p data-block-key="1njjp"&gt;Cloud Composer 3 apporte des avantages concrets aux ingénieurs data, data scientists et architectes de données :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="42vdc"&gt;&lt;b&gt;Une productivité accrue :&lt;/b&gt; grâce à des workflows optimisés et une gestion simplifiée, les équipes data libèrent un temps précieux qu’elles peuvent consacrer à des tâches à plus forte valeur ajoutée.&lt;/li&gt;&lt;li data-block-key="d37ll"&gt;&lt;b&gt;Une charge opérationnelle réduite :&lt;/b&gt; la gestion automatisée de l'infrastructure et le versioning « evergreen » (qui garantit que les utilisateurs ont toujours accès aux versions les plus récentes du service) allègent la charge opérationnelle, laissant ainsi plus de temps aux équipes pour innover.&lt;/li&gt;&lt;li data-block-key="4vhtv"&gt;&lt;b&gt;Un ROI plus rapide :&lt;/b&gt; l’amélioration des performances et de la scalabilité favorise une mise en œuvre plus rapide. Les entreprises peuvent ainsi obtenir des insights plus vite, réduire les délais de mise en production de leurs projets data, et en tirer plus rapidement de la valeur.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="bstjk"&gt;Passez à Cloud Composer 3 dès aujourd'hui&lt;/h3&gt;&lt;p data-block-key="endj0"&gt;Prêt à découvrir la nouvelle génération d'orchestration de pipelines de données ? Consultez notre &lt;a href="https://cloud.google.com/composer/docs/composer-2/migrate-composer-3"&gt;documentation&lt;/a&gt;  pour obtenir des instructions détaillées et &lt;b&gt;rejoignez les nombreuses entreprises qui utilisent déjà Cloud Composer.&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 30 Jun 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/cloud-composer-3-decouvrez-la-nouvelle-generation-dorchestration-des-pipelines-de-donnees/</guid><category>Streaming</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Cloud Composer 3 : découvrez la nouvelle génération d’orchestration des pipelines de données</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/cloud-composer-3-decouvrez-la-nouvelle-generation-dorchestration-des-pipelines-de-donnees/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Rafał Biegacz</name><title>Senior Engineering Manager, Cloud Composer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Piotr Wieczorek</name><title>Senior Product Manager, Google</title><department></department><company></company></author></item><item><title>La nouvelle tour de Babel ? Exemple d’utilisation des embeddings multilingues et de la recherche vectorielle dans BigQuery</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/la-nouvelle-tour-de-babel-exemple-dutilisation-des-embeddings-multilingues-et-de-la-recherche-vectorielle-dans-bigquery/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="da53g"&gt;Dans un marché aujourd’hui mondialisé, trouver et comprendre des avis exprimés dans la multitude des langues humaines constitue un véritable défi pour n’importe quelle entreprise. &lt;b&gt;BigQuery&lt;/b&gt; est conçu pour gérer et analyser de grands ensembles de données, y compris bien sûr des avis d’internautes dans toutes les langues.&lt;/p&gt;&lt;p data-block-key="8jilb"&gt;Dans cet article, nous présentons une solution qui utilise les « &lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-embedding#text-multilingual-embedding"&gt;&lt;b&gt;embeddings multilingues&lt;/b&gt;&lt;/a&gt;&lt;b&gt; »&lt;/b&gt;, &lt;a href="https://cloud.google.com/bigquery/docs/vector-index"&gt;l'&lt;b&gt;indexation vectorielle&lt;/b&gt;&lt;/a&gt; et &lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/search_functions#vector_search"&gt;la &lt;b&gt;recherche vectorielle&lt;/b&gt;&lt;/a&gt; de BigQuery, pour permettre aux clients de rechercher des avis sur des produits ou des entreprises dans leur langue préférée et de recevoir des résultats dans cette même langue. Combinées, ces technologies convertissent les données textuelles en vecteurs numériques, débloquant ainsi des capacités de recherche avancées qui s’affranchissent des barrières linguistiques et dépassent la traditionnelle correspondance par mots-clés, tout en améliorant la précision et la pertinence des résultats de recherche.&lt;/p&gt;&lt;p data-block-key="75dto"&gt;Pour améliorer l’accessibilité des résultats de recherche et introduire un niveau supplémentaire de raffinement, notre solution va également s’appuyer sur &lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-translate"&gt;&lt;b&gt;l'API de Traduction de Google&lt;/b&gt;&lt;/a&gt;&lt;b&gt;.&lt;/b&gt; Intégrée de manière transparente dans BigQuery, elle va nous permettre de traduire les avis exprimés dans diverses langues vers la langue de l'utilisateur.&lt;/p&gt;&lt;p data-block-key="arkr0"&gt;Comme le démontre l’exemple ci-dessous, en combinant les capacités vectorielles et l’API de traduction au cœur de BigQuery, les entreprises peuvent non seulement facilement analyser des avis rédigés dans différentes langues mais également permettre à leurs clients d’accéder et comprendre les avis exprimés en les affichant automatiquement dans leur langue de prédilection.&lt;/p&gt;&lt;p data-block-key="42va7"&gt;Le diagramme d'architecture ci-dessous donne la représentation visuelle d’une telle solution.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Image1_rkwgkbY.max-1000x1000.png"
        
          alt="Image1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="7gqm8"&gt;Pour illustrer notre propos par la pratique, nous avons extrait des données d'avis Google Local (incluant les notes, le texte, etc.) et des métadonnées d'entreprises (comme l'adresse, la catégorie, etc.) pour les entreprises du Texas jusqu'en septembre 2021. Cet ensemble de données comprend des avis rédigés dans diverses langues. Pour les clients qui préfèrent lire les avis dans leur propre langue, notre solution leur permet de poser des questions dans leur langue maternelle et de recevoir les avis les plus pertinents dans leur langue préférée, même si ces avis ont été initialement rédigés dans une langue différente.&lt;/p&gt;&lt;p data-block-key="9r16s"&gt;Par exemple, pour explorer les boulangeries du Texas, nous avons posé la question "&lt;i&gt;Où puis-je trouver d'authentiques tartelettes aux œufs et des brioches de style cantonais à Houston ?&lt;/i&gt;"&lt;br/&gt; Ces deux produits de boulangerie sont très populaires en Asie, mais moins courants à Houston, ce qui rend difficile la localisation d'avis pertinents parmi des milliers de profils d'entreprises.&lt;br/&gt; Notre solution permet ainsi aux touristes de poser leurs questions en chinois et d'obtenir les réponses les plus pertinentes dans cette langue, même si les avis ont été initialement écrits en anglais, japonais ou dans d'autres langues.&lt;br/&gt; Quelle que soit la langue d'origine des commentaires, notre système rassemble les informations les plus utiles et les traduit dans celle de l'utilisateur. Cela améliore considérablement la capacité des internautes à tirer parti des avis rédigés par des personnes parlant différentes langues.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Image2_u7wUJTy.max-1000x1000.png"
        
          alt="Image2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="da53g"&gt;&lt;b&gt;Après traduction dans BigQuery :&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="1verp"&gt;Dans la démo présentée sous forme de GIF un peu plus bas, nous montrons notre fonctionnalité de recherche en trois langues : chinois, anglais, espagnol.&lt;/p&gt;&lt;p data-block-key="31d0e"&gt;Les principales fonctions intégrées de BigQuery utilisées par notre solution sont listées ci-après sous forme de requêtes SQL :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;Generate Embeddings for Source data:\r\n\r\nCREATE OR REPLACE TABLE `xxxxxxx.reviews.multilingual_texas_reviews_Bakery_embedding` AS\r\n(SELECT *\r\nFROM ML.GENERATE_EMBEDDING(\r\n MODEL `xxxxxxx.reviews.multilingual_embedding`,\r\n (SELECT CONCAT(extracted_text,\&amp;#x27;,\&amp;#x27;,rating,\&amp;#x27;,\&amp;#x27;,category) AS content\r\n FROM `xxxxxxx.reviews.multilingual_texas_reviews` )\r\n)\r\n);\r\n\r\n\r\nCreate Vector Index for Vector Search:\r\nCREATE OR REPLACE VECTOR INDEX multilingual_review_index\r\nON `xxxxxxx.reviews.multilingual_texas_reviews_Bakery_embedding`(ml_generate_embedding_result)\r\nOPTIONS(index_type = \&amp;#x27;IVF\&amp;#x27;,\r\n distance_type = \&amp;#x27;COSINE\&amp;#x27;,\r\n ivf_options = \&amp;#x27;{&amp;quot;num_lists&amp;quot;:500}\&amp;#x27;)\r\n\r\n\r\nCheck information schema that vector indexes are created\r\nSELECT table_name, index_name, index_status,\r\ncoverage_percentage, last_refresh_time, disable_reason\r\nFROM `xxxxxxx.reviews.INFORMATION_SCHEMA.VECTOR_INDEXES`\r\n\r\n\r\nVector Search  for your question \r\nSELECT query.query, base.content, base.rating, base.category\r\nFROM VECTOR_SEARCH(\r\nTABLE `xxxxxxx.reviews.multilingual_texas_reviews_Bakery_embedding`, \&amp;#x27;ml_generate_embedding_result\&amp;#x27;,\r\n(\r\nSELECT ml_generate_embedding_result, content AS query\r\nFROM ML.GENERATE_EMBEDDING(\r\nMODEL `xxxxxxx.reviews.multilingual_embedding`,\r\n(SELECT &amp;quot;休士頓哪裡有正宗的葡式蛋撻和港式麵包？&amp;quot; AS content))\r\n),\r\ntop_k =&amp;gt; 10, options =&amp;gt; \&amp;#x27;{&amp;quot;fraction_lists_to_search&amp;quot;: 0.08}\&amp;#x27;)\r\n\r\n\r\nTranslation API to detect source language:\r\nSELECT\r\n       ml_translate_result.languages[0].language_code AS target_language_code\r\n   FROM\r\n       ML.TRANSLATE(MODEL `xxxxxxx.reviews.model_cloud_translate`, (\r\n           SELECT &amp;quot;休士頓哪裡有正宗的葡式蛋撻和港式麵包？&amp;quot; AS text_content),\r\n           STRUCT(&amp;quot;detect_language&amp;quot; AS translate_mode))\r\n\r\n\r\nTranslation API to translate reviews:\r\nSELECT\r\n   text_content AS `Original Text`,\r\n   &amp;quot;zh-CN&amp;quot; AS `Destination Language`,\r\n   STRING(ml_translate_result.translations[0].translated_text) AS Translation\r\n     FROM ML.TRANSLATE(\r\n   MODEL `xxxxxxx.reviews.model_cloud_translate`,\r\n   (select \&amp;#x27;{txt_}\&amp;#x27; as text_content),\r\n   STRUCT(\&amp;#x27;translate_text\&amp;#x27; AS translate_mode, \&amp;#x27;{lang_}\&amp;#x27; AS target_language_code))&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;lang-sql&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f8af6ec6280&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3 data-block-key="da53g"&gt;Démonstration de la solution&lt;/h3&gt;&lt;p data-block-key="47gri"&gt;Chose promise, chose due… Voici ci-dessous un GIF présentant notre solution en fonctionnement :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/original_images/Image3.gif"
        
          alt="Image3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="da53g"&gt;Dans cette application exemple, les clients peuvent rechercher et lire des avis dans leur langue de prédilection sans barrières linguistiques. Vous pourriez ensuite enrichir cette solution avec Gemini pour résumer ou classer les avis recherchés par exemple.&lt;/p&gt;&lt;p data-block-key="6lk25"&gt;Vous pouvez également adapter cette solution pour implémenter dans vos propres applications une fonction de recherche multilingue sur des produits, commentaires et autres ensembles de données multilingues, afin de permettre à vos utilisateurs d'obtenir des réponses à leurs questions dans la langue de leur choix.&lt;/p&gt;&lt;p data-block-key="5bpve"&gt;À votre tour d’imaginer comment aller plus loin et développer d'autres outils précieux de données et d'IA en explorant le potentiel de BigQuery et ses fonctionnalités avancées ! N’hésitez pas à nous en parler !&lt;/p&gt;&lt;p data-block-key="19ifa"&gt;&lt;b&gt;Références :&lt;/b&gt;&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="e5t6l"&gt;&lt;a href="https://cloud.google.com/bigquery?utm_source=google&amp;amp;utm_medium=cpc&amp;amp;utm_campaign=na-US-all-en-dr-bkws-all-all-trial-e-dr-1707554&amp;amp;utm_content=text-ad-none-any-DEV_c-CRE_665665924750-ADGP_Hybrid+%7C+BKWS+-+MIX+%7C+Txt-Data+Analytics-BigQuery-KWID_43700077225652785-aud-2232802565252:kwd-327307220781&amp;amp;utm_term=KW_gcp+bigquery-ST_gcp+bigquery&amp;amp;gad_source=1&amp;amp;gclid=CjwKCAjw65-zBhBkEiwAjrqRMKcUU7BzX5DwIEGBCusEixDZ9BWpWtv2NrSWM0iZxjtYWa1rZCSKvRoCzDwQAvD_BwE&amp;amp;gclsrc=aw.ds&amp;amp;e=48754805"&gt;&lt;b&gt;BigQuery&lt;/b&gt;&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="97ans"&gt;&lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-embedding"&gt;&lt;b&gt;BigQuery embedding&lt;/b&gt;&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="bc06"&gt;&lt;a href="https://cloud.google.com/bigquery/docs/vector-index"&gt;&lt;b&gt;BigQuery Vector Index&lt;/b&gt;&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="3tsql"&gt;&lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/search_functions#vector_search"&gt;&lt;b&gt;BigQuery Vector Search&lt;/b&gt;&lt;/a&gt;&lt;/li&gt;&lt;li data-block-key="6u2oi"&gt;&lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-translate"&gt;&lt;b&gt;BigQuery Translation&lt;/b&gt;&lt;/a&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Mon, 10 Feb 2025 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/la-nouvelle-tour-de-babel-exemple-dutilisation-des-embeddings-multilingues-et-de-la-recherche-vectorielle-dans-bigquery/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>La nouvelle tour de Babel ? Exemple d’utilisation des embeddings multilingues et de la recherche vectorielle dans BigQuery</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/la-nouvelle-tour-de-babel-exemple-dutilisation-des-embeddings-multilingues-et-de-la-recherche-vectorielle-dans-bigquery/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ginny Gao</name><title>Customer Engineer - Data &amp; Analytics, Google</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Layolin Jesudhass</name><title>Customer Engineer - Data &amp; Analytics, Google</title><department></department><company></company></author></item><item><title>L'atout stratégique du marketeur moderne : les « data clean rooms » alimentées par l'IA</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/latout-strategique-du-marketeur-moderne-les-data-clean-rooms-alimentees-par-lia/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vv8le"&gt;Toutes les entreprises, quel que soit leur secteur, cherchent à obtenir toujours plus de données pour mieux comprendre leurs clients et stimuler leurs ventes. Prenons l'exemple d'une marque de produits de consommation courante qui vend principalement via un distributeur. Elle pourrait obtenir des informations précieuses sur ses clients en analysant les actifs de valeur (HVAs) et les actions clés que ces derniers communiquent ou effectuent sur le site du distributeur avant d’effectuer un achat. Sauf que les distributeurs se montrent généralement très réticents à partager ces données clients sensibles, ce qui complique la collaboration, combien même un tel partage a commercialement du sens.&lt;/p&gt;&lt;p data-block-key="c0k0t"&gt;Les conseils d'administration, PDG et directeurs financiers se tournent vers les directeurs marketing (et leurs équipes) pour obtenir des réponses. Ce qui nous amène directement à la question clé : « Qu’est-ce que les marketeurs modernes recherchent vraiment dans les données ? » :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="dehie"&gt;&lt;b&gt;Obtenir des insights précis :&lt;/b&gt; analyser en toute sécurité des données de sources variées sans compromettre la confidentialité ;&lt;/li&gt;&lt;li data-block-key="fqhvr"&gt;&lt;b&gt;Exploiter ces insights pour des décisions plus éclairées :&lt;/b&gt; utiliser des outils d'IA puissants afin de détecter des tendances et des opportunités cachées ;&lt;/li&gt;&lt;li data-block-key="e6dgj"&gt;&lt;b&gt;Booster la performance de l'entreprise :&lt;/b&gt; stimuler la croissance grâce à un marketing ciblé et des expériences client personnalisées.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="59g74"&gt;La solution commune à ces trois enjeux tient en un concept : la « data clean room ». Cet environnement sécurisé et conforme aux règles de confidentialité permet aux marketeurs modernes de déverrouiller des informations précieuses grâce à l'analyse collaborative des données émanant de différents secteurs, favorisant ainsi la prise de décisions stratégiques et la croissance des entreprises.&lt;/p&gt;&lt;h3 data-block-key="dvkdq"&gt;Google BigQuery Data Clean Room : la solution sécurisée&lt;/h3&gt;&lt;p data-block-key="69kk7"&gt;Lancées en 2023, les « BigQuery Data Clean Rooms » offrent un environnement sécurisé pour partager, collaborer et analyser des données sensibles, tout en profitant des avantages de l'écosystème BigQuery.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_SuryaBlog.max-1000x1000.png"
        
          alt="1 SuryaBlog"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vv8le"&gt;Pour rappel, une « Data Clean Room » (ou DCR) est un environnement sécurisé et isolé où plusieurs entreprises peuvent partager et analyser des données de manière anonyme et sécurisée. C’est un espace de travail virtuel où les données de différentes entreprises sont combinées et analysées sans révéler d’informations personnellement identifiables. Les données sont anonymisées et les accès sont strictement contrôlés pour garantir la confidentialité et la sécurité.&lt;/p&gt;&lt;h3 data-block-key="f04b4"&gt;Fonctionnement et architecture&lt;/h3&gt;&lt;p data-block-key="babv3"&gt;&lt;b&gt;BigQuery data clean rooms&lt;/b&gt; est une application spécialisée &lt;b&gt;d'Analytics Hub&lt;/b&gt;, la plateforme intégrée à BigQuery pour le partage et l'échange sécurisé de données. Analytics Hub permet aux organisations de créer un écosystème où les jeux de données sont partagés sur place, donnant ainsi aux fournisseurs le contrôle et la visibilité sur l'utilisation de leurs données.&lt;/p&gt;&lt;p data-block-key="6vnes"&gt;En s'appuyant sur Analytics Hub et l'architecture serverless de BigQuery, nos data clean rooms créent un environnement sécurisé pour la collaboration multipartite. Les données restent à leur emplacement d'origine, permettant aux participants d'exécuter des requêtes et de partager des résultats agrégés, tout en garantissant la confidentialité des données.&lt;/p&gt;&lt;h3 data-block-key="8ufda"&gt;Focus sur l’architecture sous-jacente&lt;/h3&gt;&lt;p data-block-key="5j6mp"&gt;Socle de la solution, BigQuery sert de plateforme de données où contributeurs et abonnés stockent leurs jeux d’information. Pour rappel, Google Cloud BigQuery est un entrepôt de données serverless entièrement managé, capable de monter en charge facilement et qui permet de réaliser des analyses sur de grosses volumétries à moindre coût. La solution se démarque par son architecture découplée, séparant calcul et stockage, qui permet une mise à l'échelle indépendante pour une performance et une efficacité économique optimales.&lt;/p&gt;&lt;p data-block-key="ci63"&gt;Big Query tire parti du concept de jeux de données partagés de l'Analytics Hub, afin d’offrir au propriétaire de la « salle blanche » (la Clean Room) d’apporter son jeu de données en spécifiant ses règles spécifiques d’utilisation et d'analyse.&lt;/p&gt;&lt;p data-block-key="fqlf7"&gt;Pour une compréhension détaillée de l'architecture, consultez la &lt;a href="https://cloud.google.com/bigquery/docs/data-clean-rooms?hl=fr"&gt;documentation Google Cloud&lt;/a&gt;.&lt;/p&gt;&lt;h3 data-block-key="2263p"&gt;Cas d’usage par secteur&lt;/h3&gt;&lt;p data-block-key="90pbq"&gt;Les data clean rooms transforment les activités des entreprises dans tous les secteurs. Voici quelques exemples de cas d'usage :&lt;/p&gt;&lt;h3 data-block-key="4q49j"&gt;Cas d'usage 1 : mesurer l'acquisition de nouveaux clients via la publicité digitale&lt;/h3&gt;&lt;p data-block-key="3ideh"&gt;Une entreprise lance une campagne publicitaire digitale sur diverses plateformes pour attirer de nouveaux clients ou susciter le réengagement de clients inactifs. À la fin de la campagne, les données des plateformes publicitaires (impressions, clics, etc.) sont intégrées dans une data clean room.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_SuryaBlog.max-1000x1000.png"
        
          alt="2 SuryaBlog"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vv8le"&gt;Au sein de cet environnement sécurisé, l'entreprise peut combiner les données de la campagne publicitaire avec ses propres données clients internes. Cela permet de lier les interactions publicitaires (comme les clics) aux conversions réelles des clients. La clean room garantit que les informations sensibles des clients restent confidentielles et ne sont utilisées que pour des analyses agrégées (autrement dit des analyses globales). L'entreprise peut ainsi obtenir des indicateurs clés, comme le nombre de nouveaux clients acquis grâce à la campagne, le coût par acquisition et le retour global sur les dépenses publicitaires. Ces insights aident à évaluer le succès de la campagne et à prendre des décisions éclairées pour les futures stratégies publicitaires.&lt;/p&gt;&lt;h3 data-block-key="dar7o"&gt;Cas d'usage 2 : Collaboration entre distributeurs et marques de grande consommation&lt;/h3&gt;&lt;p data-block-key="cvc5f"&gt;Lorsque les réseaux des distributeurs travaillent avec leurs partenaires de l'industrie des produits de grande consommation (PGC), les BigQuery data clean rooms peuvent fournir de nouvelles informations précieuses. Grâce à cette collaboration, une entreprise de PGC peut évaluer l'efficacité de ses campagnes publicitaires sur la plateforme du distributeur, notamment auprès des audiences communes aux deux entreprises. Cela permet à l'entreprise de PGC de mieux comprendre l'impact de ses campagnes et de prendre des décisions plus éclairées pour optimiser ses stratégies marketing.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_SuryaBlog.max-1000x1000.png"
        
          alt="3 SuryaBlog"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;ul&gt;&lt;li data-block-key="vv8le"&gt;Données PGC : l'entreprise PGC fournit des données sur son audience existante (1p).&lt;/li&gt;&lt;li data-block-key="f154v"&gt;Données du distributeur : le distributeur possède des données indiquant quels clients ont effectué des achats.&lt;/li&gt;&lt;li data-block-key="fea2d"&gt;Data clean room : Un environnement sécurisé et respectueux de la vie privée, la data clean room, permet à l'entreprise PGC et au distributeur de faire correspondre les « hash » des identifiants des clients. Cela leur permet de déterminer si les clients ciblés ont fini par acheter les produits mis en avant par la campagne publicitaire.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="3fipo"&gt;Les acteurs PGC peuvent évaluer l'efficacité de leurs publicités et améliorer leurs campagnes. Parallèlement, le distributeur peut démontrer la valeur de sa plateforme publicitaire à ses partenaires PGC.&lt;/p&gt;&lt;h3 data-block-key="c7238"&gt;Cas d'usage 3 : collaboration entre distributeur et éditeur&lt;/h3&gt;&lt;p data-block-key="ciupe"&gt;Un distributeur peut collaborer avec un éditeur, tel un service de streaming. Le distributeur apporte ses données de fidélité et ses données mobiles, tandis que le service de streaming contribue avec ses données d'engagement. La data clean room agit comme un environnement neutre et sécurisé où ces jeux de données peuvent être combinés et analysés sans qu'aucune partie n'accède directement aux données brutes de l'autre.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_SuryaBlog.max-1000x1000.png"
        
          alt="4 SuryaBlog"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vv8le"&gt;Le distributeur peut comprendre les habitudes de visionnage (consommation des contenus streamés) des membres de son programme de fidélité et repérer de nouveaux clients potentiels. De son côté, le service de streaming peut mieux cerner les comportements d'achat des abonnés et personnaliser ses recommandations. Les deux tirent profit de l'analyse conjointe des données, obtenant ainsi des informations sur la concurrence tout en identifiant les tendances du marché et les comportements des clients sur les différentes plateformes.&lt;/p&gt;&lt;h3 data-block-key="d5mkk"&gt;Cas d'utilisation 4 : collaboration entre distributeur et fabricant&lt;/h3&gt;&lt;p data-block-key="55qj4"&gt;Un distributeur peut collaborer avec un fabricant dans une data clean room en partageant ses données de ventes et de stocks, tandis que le fabricant partage ses données de produit.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_SuryaBlog.max-1000x1000.png"
        
          alt="5 SuryaBlog"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="vv8le"&gt;L'analyse de leurs données combinées leur permet de dégager des tendances et de formuler des recommandations concrètes. Elle peut aussi favoriser une optimisation des gammes de produits ainsi que la mise en place d’une tarification stratégique et de campagnes marketing ciblées.&lt;/p&gt;&lt;h3 data-block-key="k2n0"&gt;Au-delà du marketing : collaborer de manière sécurisée en interne&lt;/h3&gt;&lt;p data-block-key="de17u"&gt;Les atouts des Data Clean Rooms ne se limitent pas au seul domaine du marketing : elles peuvent aussi être très utiles pour mettre en place des collaborations en interne, permettant ainsi aux équipes d’une organisation de partager et exploiter des données sensibles tout en respectant des normes strictes de confidentialité. En anonymisant ou pseudonymisant des informations, les équipes peuvent collaborer efficacement sans compromettre la vie privée des individus.&lt;/p&gt;&lt;p data-block-key="531jb"&gt;&lt;b&gt;Quelques cas d’usage :&lt;/b&gt;&lt;/p&gt;&lt;p data-block-key="dunf"&gt;&lt;b&gt;Analyses RH&lt;/b&gt; : les services RH peuvent s'associer aux équipes de data science pour analyser les données des employés, identifier les tendances en matière de performance et de turnover, et développer des modèles prédictifs pour retenir les talents. Les data clean rooms garantissent la protection des informations sensibles des employés tout au long du processus d'analyse.&lt;/p&gt;&lt;p data-block-key="8mnlp"&gt;&lt;b&gt;Engagement des employés&lt;/b&gt; : les équipes chargées de la communication en interne peuvent analyser les sentiments des employés via des enquêtes et des données provenant de médias sociaux tout en préservant l'anonymat. Cela permet aux organisations de comprendre les points de vue des employés et d'identifier les axes d'amélioration sans compromettre la vie privée individuelle.&lt;/p&gt;&lt;p data-block-key="bis7q"&gt;Les data clean rooms facilitent une collaboration interne sécurisée entre divers services et donc la prise de décision basée sur les données tout en protégeant les informations sensibles. Dès lors, elles contribuent à la mise en œuvre d’une culture de confiance et de conformité, permettant aux organisations d'exploiter pleinement le potentiel de leurs données sans compromettre la confidentialité.&lt;/p&gt;&lt;h3 data-block-key="epaq3"&gt;En résumé, quelles sont les stratégies efficaces pour les marketeurs modernes ?&lt;/h3&gt;&lt;p data-block-key="1q5u8"&gt;Les Data Clean Rooms permettent aux entreprises de :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5917l"&gt;&lt;b&gt;Détecter de nouvelles tendances :&lt;/b&gt; l’analyse permet d’obtenir des informations d’exploitation à partir des données tout en préservant la confidentialité et la sécurité ;&lt;/li&gt;&lt;li data-block-key="e0dar"&gt;&lt;b&gt;Stimuler l'innovation&lt;/b&gt; : en prenant des décisions basées sur les données pour améliorer l'expérience client et stimuler la croissance ;&lt;/li&gt;&lt;li data-block-key="73to5"&gt;&lt;b&gt;Favoriser la collaboration&lt;/b&gt; : en brisant les silos et permettant un partage sécurisé des données.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="9so2c"&gt;Pour les marketeurs modernes, les Data Clean Rooms alimentées par l'IA constituent un avantage stratégique. En identifiant les cas d’usage, en établissant des accords de partage de données, en utilisant des outils d'IA et en surveillant les résultats, ils peuvent exploiter la puissance des données pour faire avancer leur entreprise. Découvrez plus de détails sur le fonctionnement des  &lt;a href="https://cloud.google.com/blog/products/data-analytics/bigquery-data-clean-rooms-now-generally-available?e=48754805"&gt;BigQuery data clean rooms work&lt;/a&gt; et explorez leur &lt;a href="https://cloud.google.com/bigquery/docs/data-clean-rooms"&gt;architecture&lt;/a&gt;. Vous pouvez commencer dès aujourd'hui à explorer leur potentiel en profitant de l’offre d’essai gratuite de &lt;a href="https://cloud.google.com/bigquery?hl=fr"&gt;BigQuery&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 28 Jan 2025 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/latout-strategique-du-marketeur-moderne-les-data-clean-rooms-alimentees-par-lia/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>L'atout stratégique du marketeur moderne : les « data clean rooms » alimentées par l'IA</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/latout-strategique-du-marketeur-moderne-les-data-clean-rooms-alimentees-par-lia/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Surya Kunju</name><title>Marketing Transformation &amp; Retail Media Lead, Google Cloud</title><department></department><company></company></author></item><item><title>Libérez tout le potentiel de l'IA générative avec BigQuery et Vertex AI</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="77lvi"&gt;Quelle organisation n’ambitionne pas aujourd’hui de &lt;a href="https://cloud.google.com/blog/products/databases/bigquery-and-alloydb-hit-major-milestone-with-ai-enabled-updates"&gt;s’ouvrir de nouvelles perspectives et de gagner en efficacité grâce à l’IA&lt;/a&gt; ? Mais pour concrétiser cette volonté, elle doit pouvoir s’appuyer sur une plateforme à même d’agréger toutes les données de l’entreprise, qu’elles soient structurées ou non, de façon simple, sécurisée, gouvernée, en toute transparence.&lt;/p&gt;&lt;p data-block-key="7031b"&gt;Pour les y aider, nous avons fait évoluer &lt;b&gt;BigQuery&lt;/b&gt; et &lt;a href="https://cloud.google.com/vertex-ai"&gt;&lt;b&gt;Vertex AI&lt;/b&gt;&lt;/a&gt; pour encore mieux interconnecter les données et les IA. Cette série d’innovations et d’améliorations change la donne dans l’adoption pratique de l’IA :&lt;/p&gt;&lt;p data-block-key="un9f"&gt;- Elle simplifie l'IA générative multimodale pour les données d'entreprise en rendant les modèles Gemini disponibles via BigQuery ML.&lt;/p&gt;&lt;p data-block-key="ehujh"&gt;- Elle permet d’exploiter toute la valeur des données non structurées en étendant l'intégration de BigQuery aux API de traitement de documents et de synthèse vocale de Vertex AI.&lt;/p&gt;&lt;p data-block-key="52i4t"&gt;- Elle libère la recherche assistée par l'IA dans toutes vos données d'entreprise grâce à l’intégration d’une recherche vectorielle au cœur de BigQuery.&lt;/p&gt;&lt;p data-block-key="eebhq"&gt;Cette intégration de l’IA au cœur de vos données grâce à la combinaison de BigQuery, de Vertex AI et de modèles développés par Google Cloud permet de démocratiser la puissance de l'IA générative à toutes vos équipes Data. Elle vous aide également à mieux tirer profit des LLM pour analyser et interpréter votre patrimoine informationnel, le plus simplement du monde, en langage naturel, afin d’améliorer vos prises de décision et faire parler vos données. La création d'analyses basées sur l'IA devient plus simple, plus rapide et plus sûre, tirant profit de l'architecture Serverless unique de BigQuery.&lt;/p&gt;&lt;h3 data-block-key="3v17n"&gt;Simplifier les cas d’usage de l'IA générative avec les modèles Gemini&lt;/h3&gt;&lt;p data-block-key="2ffk3"&gt;BigQuery ML vous permet de créer, d'entraîner et d'exécuter des modèles ML (Machine Learning) directement dans BigQuery en utilisant un langage SQL familier. Avec des clients qui exécutent des centaines de millions de requêtes de prédiction et d'entraînement chaque année, l'utilisation du ML intégré dans BigQuery a augmenté de 250 % en un an.&lt;/p&gt;&lt;p data-block-key="9qjrv"&gt;Aujourd'hui, nous allons un cran plus loin avec l'intégration de &lt;a href="https://cloud.google.com/vertex-ai/docs/generative-ai/model-reference/gemini"&gt;&lt;b&gt;Gemini 1.0 Pro&lt;/b&gt;&lt;/a&gt; via Vertex AI. Le modèle Gemini 1.0 Pro est conçu pour travailler à plus grande échelle et offrir une meilleure qualité de résultats dans un large éventail de tâches telles que le résumé de texte et l'analyse des sentiments. Vous pouvez désormais y accéder à l'aide de simples instructions SQL ou de &lt;a href="https://cloud.google.com/blog/products/data-analytics/building-aiml-apps-in-python-with-bigquery-dataframes"&gt;&lt;b&gt;l'API DataFrame&lt;/b&gt;&lt;/a&gt; intégrée à BigQuery.&lt;/p&gt;&lt;p data-block-key="m3o1"&gt;Vous pouvez ainsi facilement créer des pipelines de données qui mélangent des données structurées, des données non structurées et des modèles d'IA génératifs pour proposer à vos utilisateurs une nouvelle génération d'applications analytiques. Par exemple, vous pouvez analyser les commentaires des clients en temps réel et les combiner avec l'historique des achats et la disponibilité actuelle des produits pour générer des messages et des offres personnalisés, le tout sans quitter BigQuery. Pour en savoir plus sur l'intégration des modèles BigQuery et Gemini, &lt;a href="https://cloud.google.com/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-text"&gt;cliquez ici&lt;/a&gt;.&lt;/p&gt;&lt;p data-block-key="c3qb0"&gt;Et ce n’est qu’un début. Dans les prochains mois, nous débloquerons des cas d'usage encore plus ambitieux grâce à l'IA générative multimodale et la prise en charge du modèle &lt;a href="https://cloud.google.com/vertex-ai/docs/generative-ai/learn/models#gemini-models"&gt;&lt;b&gt;Gemini 1.0 Pro Vision&lt;/b&gt;&lt;/a&gt;. Il deviendra alors possible d'analyser des images, des vidéos et d'autres données complexes à l'aide de simples requêtes SQL familières. Par exemple, si vous travaillez avec un grand ensemble de données d'images dans BigQuery, vous pourrez exploiter le modèle Gemini 1.0 Pro Vision pour générer des descriptions d'images, les catégoriser pour en simplifier la recherche, identifier leurs caractéristiques clés comme les couleurs, l'ambiance générale, l’aspect visuel, et bien plus encore.&lt;/p&gt;&lt;h3 data-block-key="em5hu"&gt;Exploiter la valeur des données non structurées grâce à l'IA&lt;/h3&gt;&lt;p data-block-key="b8b89"&gt;Les données non structurées telles que les images, les documents et les vidéos représentent une grande partie des données inexploitées des entreprises. Cependant, elles se révèlent souvent difficiles à interpréter et en extraire des informations significatives n’est pas une mince affaire.&lt;/p&gt;&lt;p data-block-key="5vmni"&gt;&lt;a href="https://cloud.google.com/biglake"&gt;BigLake&lt;/a&gt; unifie les data lakes et les entrepôts de données sous un seul et même framework, vous offrant ainsi la possibilité d'analyser, de rechercher, de sécuriser, de gérer et de partager des données non structurées. Avec l'augmentation des volumes de données, l'utilisation de BigLake par nos clients a atteint plusieurs centaines de pétaoctets. Grâce à la puissance de BigLake, nos clients peuvent déjà &lt;a href="https://cloud.google.com/blog/products/data-analytics/how-simplify-unstructured-data-analytics-using-bigquery-ml-and-vertex-ai"&gt;analyser des images&lt;/a&gt; en utilisant une large gamme de modèles d'IA, notamment &lt;a href="https://cloud.google.com/vision?hl=en"&gt;les API de vision&lt;/a&gt; de Vertex AI, les modèles open-source de TensorFlow Hub ou leurs propres modèles personnalisés.&lt;/p&gt;&lt;p data-block-key="89aqc"&gt;Désormais, nous élargissons ces fonctionnalités pour vous aider à extraire aisément des insights à partir de documents et de fichiers audio en utilisant les API de traitement de documents et de transcription vocale de Vertex AI. Avec ces nouvelles fonctionnalités, vous pouvez aisément concevoir des applications d'IA générative capables de créer automatiquement du contenu, de catégoriser des données non structurées, d'analyser des sentiments, d'extraire des entités, de résumer des documents, etc.&lt;/p&gt;&lt;p data-block-key="45a3"&gt;Par exemple, pour effectuer une analyse financière plus poussée, il est possible de tirer parti de données telles que les revenus, les bénéfices et les actifs provenant de divers rapports financiers, puis de les combiner avec un ensemble de données BigQuery contenant l’historique des performances boursières. Autre exemple, pour améliorer le service client, il est possible d'analyser les enregistrements d'appels du support client pour détecter les sentiments, identifier les problèmes récurrents et corréler les informations issues des appels avec l'historique des achats.&lt;/p&gt;&lt;h3 data-block-key="a6i9q"&gt;Combiner la recherche vectorielle à vos données non structurées&lt;/h3&gt;&lt;p data-block-key="4rn"&gt;À l’occasion de Google Cloud NEXT’2024, nous avons annoncé la disponibilité générale de BigQuery Vector Search, le moteur de recherche vectorielle intégré à BigQuery et Vertex AI, permettant de réaliser simplement des recherches de similarité dans vos données BigQuery. Cette fonctionnalité, communément appelée « recherche de plus proche voisin approché », est essentielle pour déverrouiller de nouveaux cas d'usage de l'IA tels que la recherche sémantique, la détection de similarité et bien évidemment la génération augmentée par récupération (RAG) combinée à un LLM. Cette recherche vectorielle peut également améliorer la qualité de vos modèles IA en renforçant la compréhension du contexte, en réduisant l'ambiguïté, en assurant l'exactitude factuelle et en permettant une adaptabilité à différentes tâches et domaines.&lt;/p&gt;&lt;p data-block-key="2hd1j"&gt;Exemple typique, la recherche vectorielle peut aider les sites de vente à améliorer les recommandations de produits présentés aux clients. Prenons l’exemple d’une acheteuse en train de regarder une robe rouge sur votre site Web. La recherche vectorielle permet de proposer aisément d’autres produits en fonction de préférences stylistiques comme la couleur, la coupe, ou une réduction applicable. Grâce à cette technologie, le site peut automatiquement suggérer d’autres robes similaires même si leurs descriptions textuelles sont différentes (n’ont pas les mêmes mots clés par exemple) de sorte que les clients puissent néanmoins trouver plus facilement ce qu’ils cherchent ou leur suggérer des articles plus susceptibles de leur plaire (et donc d’être achetés).&lt;/p&gt;&lt;p data-block-key="40a74"&gt;En s'appuyant sur nos capacités d'intégration de texte et en adhérant à vos politiques de gouvernance de l'IA et à vos contrôles d'accès, la recherche vectorielle BigQuery peut ainsi offrir de nouveaux cas d'usage de l'IA, tels que :&lt;/p&gt;&lt;p data-block-key="4jtg2"&gt;&lt;b&gt;* La génération augmentée par la recherche (RAG)&lt;/b&gt; : Cette technique permet de combiner vos propres données aux capacités conversationnelles des LLM. Elle consiste à récupérer (grâce à la recherche vectorielle) des données pertinentes pour une question ou une tâche (dans votre patrimoine informationnel) et les fournir à un LLM en les contextualisant. Par exemple : utiliser un ticket d'assistance pour trouver dix cas antérieurs étroitement liés, et les transmettre comme contexte à un LLM pour qu’il résume les informations et suggère une résolution.&lt;/p&gt;&lt;p data-block-key="432fc"&gt;&lt;b&gt;* La recherche sémantique&lt;/b&gt; : La recherche vectorielle permet de trouver des documents sémantiquement similaires à une requête donnée, même si les documents ne contiennent pas exactement les mêmes mots. Cette recherche sémantique se révèle très utile pour des tâches telles que la recherche d'articles connexes, de produits similaires ou de réponses à des questions.&lt;/p&gt;&lt;p data-block-key="906k7"&gt;&lt;b&gt;* Le regroupement de textes&lt;/b&gt; : La recherche vectorielle permet de regrouper des textes en groupes de documents similaires. Cela permet de les organiser automatiquement, de repérer des doublons ou d'identifier des tendances dans un corpus.&lt;/p&gt;&lt;p data-block-key="23cb3"&gt;&lt;b&gt;* La synthèse de documents&lt;/b&gt; : Il s'agit de condenser des documents en repérant ceux les plus proches du texte initial et en en dégageant les idées principales. Cet outil se révèle très pratique pour des opérations telles que l'élaboration de synthèses pour les cadres dirigeants, la production d'abstracts ou la condensation d'articles de presse.&lt;/p&gt;&lt;h3 data-block-key="9tueu"&gt;Entrez dans la révolution de l’IA générative avec vos données&lt;/h3&gt;&lt;p data-block-key="9thqk"&gt;L'amélioration de vos données d'entreprise grâce à l'IA générative est un enjeu majeur. Pour en savoir plus sur tout ce potentiel, ne manquez pas Next '24 et découvrez nos dernières innovations pour accélérer votre transformation.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 17 Oct 2024 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</guid><category>BigQuery</category><category>AI &amp; Machine Learning</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Libérez tout le potentiel de l'IA générative avec BigQuery et Vertex AI</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/liberez-tout-le-potentiel-de-lia-generative-avec-bigquery-et-vertex-ai/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Gerrit Kazmaier</name><title>Vice President &amp; General Manager, Databases, Analytics &amp; Looker</title><department></department><company></company></author></item><item><title>Un arbre de décision pour optimiser le pilotage des projets data et d'analyse de données dans Google Cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-arbre-de-decision-pour-optimiser-le-pilotage-des-projets-data-et-danalyse-de-donnees-dans-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="8jyjf"&gt;Google Cloud propose une large gamme de services pour animer vos workloads data et d’analyse de données. Un large choix qui implique parfois de passer au crible un grand nombre d'informations afin de choisir les outils les mieux adaptés à vos cas d’usage spécifiques. De l'ingestion au traitement des données, en passant par le stockage, la gouvernance ou encore l'orchestration, chaque workload s’appuie sur un ensemble de services qui lui est propre. Afin de simplifier le processus de prise de décision, nous avons conçu une roadmap sous forme d’arbre de décision pour vous aider à chercher et sélectionner les services les plus adaptés à vos besoins spécifiques.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/decision-tree-da-v2.max-2200x2200.png"
        
          alt="decision tree"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="8jyjf"&gt;Dans cet article, nous vous proposons un découpage par catégorie de workloads en vous donnant à chaque fois des indications pour choisir le service Google Cloud le mieux adapté à votre besoin.&lt;/p&gt;&lt;h3 data-block-key="1mfga"&gt;Ingestion de données&lt;/h3&gt;&lt;p data-block-key="21in4"&gt;Tout projet data commence forcément par l’agrégation des données dans votre système. L’ingestion de données peut prendre la forme d’un chargement en masse (mode batch), comme dans le cadre d’une migration, ou d’un flux d’alimentation régulier d’un projet en production. Selon le type de données que vous ingérez et leur provenance, vous devrez peut-être utiliser différents services.&lt;/p&gt;&lt;p data-block-key="9d22d"&gt;Pour une ingestion de données en temps réel, vous avez le choix entre deux options :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="boeni"&gt;&lt;a href="https://cloud.google.com/datastream/"&gt;&lt;b&gt;Datastream&lt;/b&gt;&lt;/a&gt;: si vos données proviennent d'une base de données en production, optez pour Datastream. Service serverless d'ingestion en temps réel, non intrusif et fiable, Datastream capture les changements apportés à des données pour les &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=datastream--quickstart-replicate-to-bigquery$c2d2-cgcb-dt001&amp;amp;_ga=2.236452993.-1054570508.1705658401"&gt;dupliquer dans BigQuery&lt;/a&gt; à des fins de streaming ou d’analyse. Interfacé aux templates Dataflow et à Data Fusion, il permet de concevoir des workflows personnalisés avec des transformations de données avancées.&lt;/li&gt;&lt;li data-block-key="207g4"&gt;&lt;a href="https://cloud.google.com/pubsub"&gt;&lt;b&gt;Pub/Sub&lt;/b&gt;&lt;/a&gt; : si vous devez traiter et analyser vos données en temps réel au fil de l’eau, optez plutôt pour Pub/Sub. Service de messagerie entièrement managé conçu pour &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=dataflow--quickstart-templates$c2d2-cgcb-dt001&amp;amp;_ga=2.4038320.-1054570508.1705658401"&gt;l'ingestion de données en temps réel&lt;/a&gt;, il s'intègre directement à nos services de traitement de données, y compris BigQuery.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="cfpqg"&gt;Pour une ingestion en mode batch, vous disposez d’un large éventail d’options :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="equcg"&gt;&lt;a href="https://cloud.google.com/storage"&gt;&lt;b&gt;Cloud Storage&lt;/b&gt;&lt;/a&gt;: les buckets de stockage objet constituent une solution très pratique pour importer des données dans Google Cloud. Vous pouvez utiliser l’outil en ligne de commandes &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=storage--storage_upload_to_bucket$c2d2-cgcb-dt001&amp;amp;_ga=2.240639363.-1054570508.1705658401"&gt;gsutil&lt;/a&gt; pour optimiser le déplacement des données d'un client ou d'autres buckets vers un bucket Cloud Storage tout en optimisant le parallélisme.&lt;/li&gt;&lt;li data-block-key="frccd"&gt;&lt;a href="https://cloud.google.com/storage-transfer-service"&gt;&lt;b&gt;Storage Transfer Service&lt;/b&gt;&lt;/a&gt; (service de transfert de stockage) : si vous transférez une grande quantité de données à partir de votre site ou d'autres clouds, vous pouvez utiliser le service de transfert de stockage.&lt;/li&gt;&lt;li data-block-key="bod3j"&gt;&lt;a href="https://cloud.google.com/transfer-appliance/docs/4.0/overview?hl=fr"&gt;&lt;b&gt;Appliance de transfert&lt;/b&gt;&lt;/a&gt; : si vous devez transférer de grandes quantités de données sur site avec une faible bande passante, Transfer Appliance offre une option plus sûre et plus efficace grâce à un équipement physique sur lequel vous stockez vos données et que vous expédiez ensuite à Google Cloud.&lt;/li&gt;&lt;li data-block-key="528r8"&gt;&lt;a href="https://cloud.google.com/bigquery/docs/dts-introduction?hl=fr"&gt;&lt;b&gt;Service de transfert BigQuery&lt;/b&gt;&lt;/a&gt; : Si vous souhaitez ingérer des données provenant d'applications SaaS ou tierces dans votre entrepôt de données BigQuery, vous pouvez utiliser BigQuery Transfer Service. Il propose des connecteurs prédéfinis pour les sources de données les plus courantes, ainsi que des fonctions de planification, de surveillance et de gestion.&lt;/li&gt;&lt;li data-block-key="39cp9"&gt;&lt;a href="https://cloud.google.com/dataflow"&gt;&lt;b&gt;Dataflow&lt;/b&gt;&lt;/a&gt; : dans sa version complète, Dataflow vous permet de gérer de manière fiable l'ingestion de gros volumes de données complexes, provenant de milliers de sources.&lt;/li&gt;&lt;li data-block-key="81e9h"&gt;&lt;a href="https://cloud.google.com/dataproc"&gt;&lt;b&gt;Dataproc&lt;/b&gt;&lt;/a&gt;: vous pouvez également utiliser Dataproc, un service Hadoop/Spark entièrement managé et 100 % open source. Dataproc vous &lt;a href="https://console.cloud.google.com/welcome?walkthrough_id=dataproc--dataproc_serverless_quickstart$c2d2-cgcb-dt001&amp;amp;_ga=2.212335764.-1054570508.1705658401"&gt;permet d'ingérer des données provenant de vos sites ou d'autres cloud&lt;/a&gt;s grâce à des &lt;a href="https://github.com/GoogleCloudPlatform/dataproc-templates" target="_blank"&gt;modèles prêts à l'emploi, personnalisables&lt;/a&gt;, alimentés par Dataproc Serverless.&lt;/li&gt;&lt;li data-block-key="61a5l"&gt;&lt;a href="https://cloud.google.com/data-fusion"&gt;&lt;b&gt;Data Fusion&lt;/b&gt;&lt;/a&gt;: proposant plus de 150 connecteurs, Data Fusion vous permet d'ingérer des données par lots avec une interface conviviale de type « point-and-click » (et avec une analyse sans code !).&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="4v04b"&gt;Traitement des données&lt;/h3&gt;&lt;p data-block-key="7pe1c"&gt;Une fois les données brutes intégrées, vous devrez probablement les traiter pour les rendre plus exploitables. Ces traitements incluent le nettoyage, le filtrage, l'agrégation et la transformation afin de rendre vos données plus accessibles, mieux organisées et plus compréhensibles. Dans ce cadre, le choix des bons outils Google Cloud dépend avant tout de l'endroit et de la manière dont vous souhaitez traiter vos données pour ensuite les stocker dans votre datalake, vos bases et autres entrepôts de données.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="df80v"&gt;&lt;a href="https://cloud.google.com/dataflow"&gt;&lt;b&gt;Dataflow&lt;/b&gt;&lt;/a&gt; : service serverless entièrement managé, évolutif et fiable, Dataflow permet de traiter les données &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=dataflow--quickstart-wordcount$c2d2-cgcb-dt001&amp;amp;_ga=2.218037398.-1054570508.1705658401"&gt;par lots&lt;/a&gt; &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=dataflow--quickstart-wordcount$c2d2-cgcb-dt001&amp;amp;_ga=2.218037398.-1054570508.1705658401"&gt;ou en mode streaming&lt;/a&gt; en s’appuyant sur Apache Beam et des langages de programmation tels que Java, Python et Go.&lt;/li&gt;&lt;li data-block-key="fekjk"&gt;&lt;a href="https://cloud.google.com/dataproc"&gt;&lt;b&gt;Dataproc&lt;/b&gt;&lt;/a&gt; : pour vos workloads Apache Hadoop/Spark, vous pouvez utiliser Dataproc pour &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=console--quickstart-dataproc-console$c2d2-cgcb-dt001&amp;amp;_ga=2.244109573.-1054570508.1705658401"&gt;traiter de grandes quantités de données&lt;/a&gt; stockées dans différents formats de fichiers, y compris des formats de table tels que Delta, Iceberg ou Hudi.&lt;/li&gt;&lt;li data-block-key="bdnqb"&gt;&lt;a href="https://cloud.google.com/data-fusion"&gt;&lt;b&gt;Data Fusion&lt;/b&gt;&lt;/a&gt;: si vous préférez effectuer des traitements sans avoir à écrire une seule ligne de code, vous pouvez utiliser Data Fusion qui prend en charge une &lt;a href="https://www.cloudskillsboost.google/users/sign_in" target="_blank"&gt;grande variété de tâches de transformation&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="9d1jj"&gt;&lt;a href="https://cloud.google.com/bigquery"&gt;&lt;b&gt;BigQuery&lt;/b&gt;&lt;/a&gt;: Si votre workload peut être gérée avec un traitement ELT en SQL, vous pouvez bénéficier des avantages en termes de prix et de performances de BigQuery, notre &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=bigquery--ui-tour-data-analyst$c2d2-cgcb-dt001&amp;amp;_ga=2.213900692.-1054570508.1705658401"&gt;entrepôt de données&lt;/a&gt;, cloud et serverless, hautement évolutif et très économique.&lt;/li&gt;&lt;li data-block-key="2afgp"&gt;&lt;a href="https://cloud.google.com/dlp"&gt;&lt;b&gt;Cloud Data Loss Prevention&lt;/b&gt;&lt;/a&gt; : Cloud DLP est un service entièrement managé qui vous aide à découvrir, classer et protéger les données sensibles. Dans le cadre de votre pipeline de traitement des données, il peut appliquer une anonymisation des données personnelles lors d’une migration, sur des workloads de données ainsi que sur des &lt;a href="https://console.cloud.google.com/welcome?walkthrough_id=logging--cloud-ops-log-redacting-on-ingestion$c2d2-cgcb-dt001&amp;amp;_ga=2.37732000.-1054570508.1705658401"&gt;flux de collecte de données en temps réel&lt;/a&gt;.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="5l93v"&gt;Stockage des données&lt;/h3&gt;&lt;p data-block-key="bniv3"&gt;Après le traitement, vient forcément le stockage. Vous avez nécessairement besoin d’une solution qui permette de stocker vos données de manière sécurisée et efficace afin de pouvoir y accéder facilement, de les analyser et de les utiliser dans des applications telles que la BI (Business Intelligence) ou le ML (Machine Learning). Il existe de nombreuses options de stockage des données dans Google Cloud et le service spécifique que vous choisirez dépendra, là encore, du cas d’usage. Voici quelques exemples, axés sur des workloads data ou d’analytiques :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="cb98m"&gt;&lt;a href="https://cloud.google.com/storage"&gt;&lt;b&gt;Cloud Storage&lt;/b&gt;&lt;/a&gt; : idéal pour concevoir des &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=storage--storage_create_bucket$c2d2-cgcb-dt001&amp;amp;_ga=2.215464983.-1054570508.1705658401"&gt;datalakes&lt;/a&gt;, Cloud Storage propose un service de stockage objet évolutif, durable et hautement disponible. Vous pouvez l’utiliser pour stoker une grande variété de données, compris des données structurées, semi-structurées et non structurées. Les données sont &lt;a href="https://cloud.google.com/blog/products/storage-data-transfer/store-it-analyze-it-back-it-up-cloud-storage-updates-bring-new-replication-options?hl=en"&gt;stockées sur deux régions Cloud&lt;/a&gt; afin de garantir la redondance avec une très faible latence. Vous éviterez ainsi la réplication manuelle et Cloud Storage gère automatiquement le basculement en cas de besoin.&lt;/li&gt;&lt;li data-block-key="anqup"&gt;&lt;a href="https://cloud.google.com/bigquery"&gt;&lt;b&gt;BigQuery&lt;/b&gt;:&lt;/a&gt; Vous pouvez aussi stocker les données structurées ou semi-structurées (type JSON natif, champs imbriqués) dans BigQuery afin de &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=security--secured-data-warehouse-simple-example$c2d2-cgcb-dt001&amp;amp;_ga=2.9843381.-1054570508.1705658401"&gt;réaliser très rapidement des analyses en langage SQL&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="96hch"&gt;&lt;a href="https://cloud.google.com/filestore"&gt;&lt;b&gt;Filestore&lt;/b&gt;&lt;/a&gt; : si vous travaillez sur un projet très exigeant en performances et nécessitant une très faible latence et une multitude d’accès concurrents - comme dans le cadre de workloads d’apprentissage ML ou d’analytiques nécessitant une grande quantité d’opérations d’entrée/sortie (E/S) - optez pour &lt;a href="https://console.cloud.google.com/welcome/new?walkthrough_id=filestore--quickstart-filestore$c2d2-cgcb-dt001&amp;amp;_ga=2.215464983.-1054570508.1705658401"&gt;Filestore&lt;/a&gt;.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="5c4qk"&gt;Comme vos données peuvent être stockées dans BigQuery, Cloud Storage et même d'autres Clouds, il est important de les unifier et de les rendre accessibles à l'aide de &lt;a href="https://cloud.google.com/biglake?hl=fr"&gt;BigLake&lt;/a&gt;. BigLake est un moteur d'accès aux données qui vous permet &lt;a href="https://www.cloudskillsboost.google/users/sign_in" target="_blank"&gt;d'unifier les accès, de gérer et d'analyser les données éparpillées entre vos datalakes et entrepôts de données&lt;/a&gt;. Outre ses excellentes performances, BigLake propose également des fonctionnalités supplémentaires de gouvernance et de sécurité (au niveau des colonnes et des lignes).&lt;/p&gt;&lt;h3 data-block-key="8cr42"&gt;Gouvernance&lt;/h3&gt;&lt;p data-block-key="87neq"&gt;Quelle que soit l’entreprise ou le projet, dès qu’on aborde le sujet data, il est essentiel de définir des lignes directrices et de meilleures pratiques pour gérer ses données afin de s'assurer qu’elles sont exactes, cohérentes, protégées et conformes aux réglementations. Une démarche de gouvernance des données peut inclure le catalogage, le lignage, la gestion de la qualité, l'identification des informations confidentielles et personnelles ou encore le contrôle de l'accès aux données.&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="11gum"&gt;&lt;a href="https://cloud.google.com/dataplex"&gt;&lt;b&gt;Dataplex&lt;/b&gt;&lt;/a&gt; excelle dans toutes ces tâches de gouvernance, centralisant la gestion de vos datalakes, datawarehouses et datamarts hébergés sur Google Cloud ou ailleurs. Dans Dataplex, vous trouverez également Data Catalog, un référentiel de métadonnées entièrement managé, que vous pouvez utiliser pour vous aider à découvrir, comprendre et enrichir vos données.&lt;/li&gt;&lt;/ul&gt;&lt;p data-block-key="aoncm"&gt;Google Cloud propose également des fonctionnalités de gouvernance embarquées dans d’autres solutions. Typiquement, BigQuery prend en charge les clés de chiffrement gérées par le client (CMEK) et la sécurité au niveau des colonnes et des lignes. Cette fonctionnalité s'étend au stockage d'objets via les tables BigLake.&lt;/p&gt;&lt;h3 data-block-key="jjlv"&gt;Orchestration&lt;/h3&gt;&lt;p data-block-key="51bj9"&gt;Vous aurez également besoin d’orchestration pour combiner et gérer les différents composants de vos pipelines. Avec l’orchestration, vous définissez des pipelines, vous planifiez des tâches de traitement des données et vous surveillez vos pipelines afin de vous assurer que vos données sont traitées en temps voulu et de manière efficace.&lt;/p&gt;&lt;p data-block-key="f766d"&gt;Google Cloud propose deux services d'orchestration :&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="5lisf"&gt;&lt;a href="https://cloud.google.com/composer"&gt;&lt;b&gt;Composer&lt;/b&gt;&lt;/a&gt;: vous pouvez &lt;a href="https://console.cloud.google.com/getting-started?walkthrough_id=composer--cloud-composer-create-environment$c2d2-cgcb-dt001&amp;amp;_ga=2.208378130.-1054570508.1705658401"&gt;écrire, planifier et surveiller vos pipelines de données&lt;/a&gt; avec ce service Airflow entièrement managé qui s'intègre aux solutions de traitement des données mentionnées ci-dessus.&lt;/li&gt;&lt;li data-block-key="b3krc"&gt;&lt;a href="https://cloud.google.com/dataform"&gt;&lt;b&gt;Dataform&lt;/b&gt;&lt;/a&gt;: si vous souhaitez construire et gérer des pipelines de données de type ETL/ELT en SQL, Dataform vous permet de développer et d’opérer des pipelines évolutifs de transformation de données au sein de BigQuery.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="bsco2"&gt;Consommation des données&lt;/h3&gt;&lt;p data-block-key="cfcq6"&gt;Une fois vos flux de données mis en place, vous êtes prêts pour utiliser les données là où vous le souhaitez !&lt;/p&gt;&lt;ul&gt;&lt;li data-block-key="19j1q"&gt;Vous voulez effectuer des analyses SQL rapides ? Optez pour &lt;a href="https://cloud.google.com/bigquery"&gt;&lt;b&gt;BigQuery&lt;/b&gt;&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="bdg8c"&gt;Vous voulez partager en toute sécurité des données et des informations à grande échelle sans avoir à déplacer les données ? Adoptez &lt;a href="https://cloud.google.com/analytics-hub"&gt;&lt;b&gt;Analytics Hub&lt;/b&gt;&lt;/a&gt;.&lt;/li&gt;&lt;li data-block-key="41tij"&gt;Vous voulez visualiser des données ou créer des tableaux de bord pour faire du reporting ? &lt;a href="https://cloud.google.com/looker-studio"&gt;&lt;b&gt;Looker Studio&lt;/b&gt;&lt;/a&gt; est une solution BI robuste et intuitive.&lt;/li&gt;&lt;li data-block-key="9vne2"&gt;Vous souhaitez développer des modèles ML personnalisés à partir de vos données ? Laissez &lt;a href="https://cloud.google.com/vertex-ai"&gt;&lt;b&gt;Vertex AI&lt;/b&gt;&lt;/a&gt; fluidifier vos workflows ML de bout en bout.&lt;/li&gt;&lt;/ul&gt;&lt;h3 data-block-key="330pt"&gt;Pour aller plus loin&lt;/h3&gt;&lt;p data-block-key="6a5qq"&gt;De l'ingestion de données provenant de diverses sources aux traitements, en passant par le stockage, la gestion, l'orchestration et le partage des données… les projets liés aux données et à l'analyse se construisent en plusieurs étapes. Nous espérons à travers cet article vous avoir aidé à trouver la combinaison de solutions la plus adaptée à vos besoins. N’hésitez pas à mettre cet arbre de décision dans vos favoris et consultez régulièrement notre site car nous publierons régulièrement d'autres arbres de décision pour d’autres types de projets.&lt;/p&gt;&lt;p data-block-key="1d9ts"&gt;N’hésitez pas à nous faire savoir ce que vous pensez de cet article et de l'arbre de décision en vous rendant sur notre canal Discord &lt;a href="https://discord.com/channels/1009525727504384150/1030523049340047451" target="_blank"&gt;Cloud Analytics&lt;/a&gt;! Assurez-vous au préalable d'avoir rejoint le programme &lt;a href="https://cloud.google.com/innovators"&gt;Innovators&lt;/a&gt; et la chaine &lt;a href="https://discord.com/invite/googledevelopersonline" target="_blank"&gt;Google Developers Discord&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 19 Jul 2024 06:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-arbre-de-decision-pour-optimiser-le-pilotage-des-projets-data-et-danalyse-de-donnees-dans-google-cloud/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Un arbre de décision pour optimiser le pilotage des projets data et d'analyse de données dans Google Cloud</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-arbre-de-decision-pour-optimiser-le-pilotage-des-projets-data-et-danalyse-de-donnees-dans-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Alicia Williams</name><title>Developer Advocate, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Priyanka Vergadia</name><title>Developer Advocate, Google Cloud</title><department></department><company></company></author></item><item><title>Comment déployer son datawarehouse dans le cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/comment-deployer-son-datawarehouse-dans-le-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p data-block-key="fyvmu"&gt;&lt;i&gt;Automatisez le redéploiement de votre entrepôt de données vers BigQuery grâce à des nouvelles fonctionnalités de redéploiements des données&lt;/i&gt;&lt;/p&gt;&lt;p data-block-key="eb45e"&gt;La transformation numérique est en général un long voyage jonché d’escales qui sont autant de défis à résoudre. Parmi elles, le redéploiement des datawarehouses (les entrepôts de données) vers le Cloud est souvent l’une des étapes les plus cruciales et chronophages. De quoi engloutir une part conséquente des énergies et efforts dépensés dans cette essentielle modernisation numérique.&lt;/p&gt;&lt;p data-block-key="erlue"&gt;Aujourd&amp;#x27;hui, pour accélérer les redéploiements de vos datawarehouses vers BigQuery, nous annonçons des nouveaux services, concrétisés sous forme d&amp;#x27;un outil de redéploiement de données qui automatise le redéploiement des entrepôts de données sur site vers BigQuery.&lt;/p&gt;&lt;p data-block-key="5d0ae"&gt;Disponible en Preview, cet outil construit sur Google Cloud prend en charge les phases clés du redéploiement d&amp;#x27;un entrepôt de données, du redéploiement des schémas et des données historiques à la traduction et à la validation SQL.&lt;/p&gt;&lt;p data-block-key="buu04"&gt;Pour réaliser une telle transformation, cet outil fonctionne en étroite coordination avec des accélérateurs de redéploiement tels que &lt;a href="https://cloud.google.com/blog/products/databases/automate-data-validation-with-dvt"&gt;&lt;b&gt;Data Validation Tool&lt;/b&gt;&lt;/a&gt; et les services de redéploiement BigQuery. Une telle collaboration nous permet ainsi d’automatiser un redéploiement de bout en bout de vos entrepôts de données. Les redéploiement à partir de Teradata, Hive, Redshift et Oracle sont actuellement prises en charge et d&amp;#x27;autres entrepôts de données le seront à l&amp;#x27;avenir.&lt;br/&gt;&lt;br/&gt;Solution open source entièrement configurable, ce nouvel outil peut aisément être déployé via Terraform et déclenché avec un simple fichier de configuration JSON. Vous pouvez augmenter ou réduire la capacité de calcul en fonction du volume ou de la complexité des données.&lt;/p&gt;&lt;p data-block-key="c3jtb"&gt;Ses principaux avantages sont les suivants :&lt;/p&gt;&lt;p data-block-key="ccvjq"&gt;&lt;br/&gt;- Une approche éprouvée du redéploiement des entrepôts de données d&amp;#x27;entreprise avec un risque réduit d&amp;#x27;erreurs, de bogues et d&amp;#x27;incohérences dans les données.&lt;br/&gt;- Une orchestration automatisée du redéploiement des données, de la traduction et de la validation SQL&lt;br/&gt; - Un tableau de bord de reporting avec les résultats de la validation des données, de l&amp;#x27;exécution des tâches et de la traduction SQL affichés dans Looker&lt;br/&gt;- Une réduction du temps nécessaire au transfert initial des données et des artefacts SQL dans Google Cloud&lt;br/&gt;- Une réduction du coût total du redéploiement&lt;br/&gt;- Un besoin limité d&amp;#x27;équipe de développement client supplémentaire&lt;br/&gt;- Une courbe d&amp;#x27;apprentissage réduite&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_ubIsmEg.max-1000x1000.png"
        
          alt="data analytics"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p data-block-key="fyvmu"&gt;En exemple, voici comment l'outil de redéploiement des données facilite un redéploiement de Teradata vers BigQuery :&lt;/p&gt;&lt;p data-block-key="73t8o"&gt;1/ Un utilisateur télécharge les fichiers d'entrée pertinents (liste de tables CSV, fichiers SQL/DDL) et un fichier de configuration JSON vers un bucket Cloud Storage, ce qui déclenche automatiquement l'outil de redéploiement des données.&lt;/p&gt;&lt;p data-block-key="esuar"&gt;2/ L'outil de redéploiement des données déclenche le service de transfert de données pour convertir le schéma des tables et transférer les données des tables du datawarehouse source sur site vers les tables BigQuery dans le cloud.&lt;/p&gt;&lt;p data-block-key="f7j7e"&gt;3/ Une fois le transfert de données terminé, l'outil de redéploiement de données déclenche le service de transfert de données pour comparer les tables source et cible sur les valeurs de colonne agrégées, et envoie le résultat de la validation vers les tables de reporting BigQuery.&lt;/p&gt;&lt;p data-block-key="1ngo6"&gt;4/ L'outil de redéploiement des données déclenche alors le service de traduction BigQuery SQL pour traduire les requêtes SQL (téléchargées dans un bucket Cloud Storage) de la syntaxe source vers BigQuery SQL, et restitue le SQL traduit dans un bucket différent. L'outil de redéploiement des données écrit les statistiques de traduction dans les tables de reporting BigQuery.&lt;/p&gt;&lt;p data-block-key="clpim"&gt;5/ L'outil déclenche ensuite un outil de validation des données pour comparer le code SQL source et le code SQL cible sur leur ensemble de résultats.&lt;/p&gt;&lt;p data-block-key="603jv"&gt;6/ L'outil de redéploiement des données écrit des statistiques de validation dans les tables de reporting BigQuery.&lt;/p&gt;&lt;p data-block-key="87orc"&gt;7/ L'utilisateur consulte le tableau de bord de redéploiement dans Looker Studio pour inspecter les résultats de le redéploiement des données, de la traduction SQL et de la validation des données.&lt;/p&gt;&lt;p data-block-key="5r6f1"&gt;Le tour est joué ! En quelques étapes très automatisées, l'outil de redéploiement des données orchestre ce qui peut autrement se révéler être un processus chronophage, sujet à de multiples erreurs.&lt;/p&gt;&lt;p data-block-key="9er4c"&gt;Cette approche pour un redéploiement simple et éprouvée peut vous aider à réduire les risques et à accélérer le processus de modernisation vers le cloud, libérant ainsi du temps et des ressources pour vous concentrer sur d'autres aspects de votre parcours de transformation numérique. Mieux encore, l'utilisation de l'outil de redéploiement des données sur Google Cloud n'entraîne aucun frais de licence supplémentaire ; les seuls coûts sont ceux du stockage et du calcul utilisé pour les services consommés.&lt;br/&gt; Pour en savoir plus sur l'outil de redéploiement des données, consultez &lt;a href="https://github.com/googlecloudplatform/data-migration-tool" target="_blank"&gt;le projet sur Github&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 08 Nov 2023 07:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/comment-deployer-son-datawarehouse-dans-le-cloud/</guid><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/google_cloud_2022_H7glFJz.max-2436x985.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Comment déployer son datawarehouse dans le cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/google_cloud_2022_H7glFJz.max-2436x985.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/comment-deployer-son-datawarehouse-dans-le-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Preethi Igoor</name><title>Data &amp; Analytics Cloud Consultant</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Abdullateef Abdulsalam</name><title>Data &amp; Analytics Cloud Consultant</title><department></department><company></company></author></item><item><title>Faciliter le passage à Google Cloud et à des technologies Open Source</title><link>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Pendant des décennies, avant que le cloud ne vienne bouleverser notre vision des bases de données et des applications, Oracle et SQL Server constituaient la clef de voûte des infrastructures applicatives des entreprises. Mais aujourd’hui, alors que vous entamez votre redéploiement vers le cloud, vous réévaluez probablement les choix effectués autrefois à la lumière des tendances actuelles et des vastes opportunités offertes par le cloud. &lt;br/&gt;&lt;/p&gt;&lt;p&gt;Dans le domaine des bases de données, plusieurs hypothèses s’offrent à vous : adoption des technologies open source (en particulier MySQL, PostgreSQL et leurs dérivés), bases de données non relationnelles, stratégies multicloud et cloud hybrides… pour supporter des applications à la fois globales et qui fonctionnent en 24/7. &lt;br/&gt;Redéploiement rapide de type « lift-and-shift », modernisation d’un existant ou transformation complète avec adoption d’une base « cloud first » … selon l’application, l’évolution vers le cloud peut prendre des chemins différents.&lt;/p&gt;&lt;p&gt;Google Cloud propose &lt;a href="https://cloud.google.com/products/databases"&gt;un ensemble de services de bases de données managées&lt;/a&gt; qui couvrent les moteurs des bases open source mais également des bases provenant de tiers ainsi que les bases « cloud-first ». Nous avons publié cinq vidéos spécialement destinées aux clients qui cherchent à passer au cloud ou à se libérer complètement des problématiques de gestion des licences et autres restrictions. Nous espérons que ces vidéos vous permettront de mieux évaluer vos options, que vous envisagiez un redéploiement homogène (en utilisant la même base de données qu'aujourd'hui) ou un redéploiement hétérogène (en passant à un moteur de base de données différent).&lt;/p&gt;&lt;p&gt;Voici les cinq vidéos en question :&lt;/p&gt;&lt;p/&gt;&lt;h3&gt;#1 Exécuter des applications Oracle Database dans Google Cloud&lt;/h3&gt;Par Jagdeep Singh et Andy Colvin&lt;br/&gt;&lt;p/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=53fmFPaHyQ8"
      data-glue-modal-trigger="uni-modal-53fmFPaHyQ8-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/53fmFPaHyQ8/maxresdefault.jpg"
             alt="Exécuter des applications Oracle Database dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-53fmFPaHyQ8-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="53fmFPaHyQ8"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=53fmFPaHyQ8"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Migrer vers le cloud peut s’avérer difficile si l’activité de votre entreprise repose sur des applications fonctionnant avec des bases de données Oracle. Cette dépendance peut s’expliquer par des problématiques de licences, de compatibilité ou encore d’administration. &lt;br/&gt;À travers cette vidéo, nous vous proposons de découvrir différentes options proposées par Google Cloud et adaptées à cette situation, qu’il s’agisse de &lt;a href="https://cloud.google.com/bare-metal"&gt;Bare Metal Solution for Oracle&lt;/a&gt; (solution matérielle certifiée et optimisée pour les workloads Oracle) ou de solutions émanant de partenaires tels VMware et Equinix. Profitez-en pour découvrir comment vous pouvez continuer à exécuter votre existant dans le cloud tout en capitalisant sur les dernières avancées technologiques pour développer de nouveaux services.&lt;/p&gt;&lt;h3&gt;#2 Exécuter des applications SQL Server dans Google Cloud&lt;/h3&gt;Par Isabella Lubin&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Hu3L7T07RQY"
      data-glue-modal-trigger="uni-modal-Hu3L7T07RQY-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Hu3L7T07RQY/maxresdefault.jpg"
             alt="Exécuter des applications SQL Server dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Hu3L7T07RQY-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Hu3L7T07RQY"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Hu3L7T07RQY"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Aujourd’hui encore, Microsoft SQL Server reste une base très populaire en entreprise. Apprenez à exécuter SQL Server de manière fiable et sécurisée avec &lt;a href="https://cloud.google.com/sql"&gt;Cloud SQL&lt;/a&gt;, un service de base de données entièrement managé permettant d'exécuter des workloads MySQL, PostgreSQL et SQL Server. Plus de 90 % des 100 plus gros clients de Google Cloud utilisent Cloud SQL. Autrement dit, les plus grandes entreprises du monde font aujourd’hui confiance à Cloud SQL. Dans cette vidéo, nous vous proposons de découvrir comment sélectionner la bonne instance de base de données, comment migrer votre base, comment travailler avec les outils SQL Server standards ou encore comment superviser votre base et la maintenir à jour.&lt;/p&gt;&lt;h3&gt;#3 Opter pour une base PostgreSQL dans Google Cloud&lt;/h3&gt;Par Mohsin Imam&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Dkri6GlbRDo"
      data-glue-modal-trigger="uni-modal-Dkri6GlbRDo-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Dkri6GlbRDo/maxresdefault.jpg"
             alt="Opter pour une base PostgreSQL dans Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Dkri6GlbRDo-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Dkri6GlbRDo"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Dkri6GlbRDo"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Plébiscitée pour la souplesse de son modèle de licence open source, sa richesse fonctionnelle, ses solides références ou encore pour l’étendue de sa communauté de développeurs et de ses outils, PostgreSQL est une base relationnelle leader sur le marché. Google Cloud propose, aux utilisateurs de PostgreSQL, trois services de bases de données entièrement managés:&lt;br/&gt; * &lt;a href="https://cloud.google.com/sql"&gt;Cloud SQL&lt;/a&gt;, un service de base de données entièrement managé et facile à utiliser pour PostgreSQL open source ;&lt;br/&gt; * &lt;a href="https://cloud.google.com/alloydb"&gt;AlloyDB&lt;/a&gt;, un service de base de données compatible avec PostgreSQL pour les applications nécessitant plus d'évolutivité, de disponibilité et de performances;&lt;br/&gt; * et &lt;a href="https://cloud.google.com/spanner"&gt;Cloud Spanner&lt;/a&gt;, une base de données &amp;quot;cloud-first&amp;quot; avec une montée en charge illimitée, une disponibilité de 99,999 % et une interface PostgreSQL.&lt;br/&gt; Découvrez quelle solution convient le mieux à votre application, comment migrer votre base de données vers le cloud et comment bien démarrer.&lt;br/&gt;&lt;/p&gt;&lt;h3&gt;#4 Comment migrer et moderniser vos applications avec les bases de données Google Cloud&lt;/h3&gt;Par Sandeep Brahmarouthu&lt;p/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=Gwzz20xcWmE"
      data-glue-modal-trigger="uni-modal-Gwzz20xcWmE-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/Gwzz20xcWmE/maxresdefault.jpg"
             alt="Comment migrer et moderniser vos applications avec les bases de données Google Cloud"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-Gwzz20xcWmE-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="Gwzz20xcWmE"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=Gwzz20xcWmE"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Le redéploiement de vos applications et bases de données vers le cloud n'est pas toujours facile. Si des workloads simples peuvent se contenter d’un simple transfert de SGBD sur le mode « lift-and-shift », les applications d'entreprise de plus grande envergure et personnalisées ont, en revanche, parfois besoin d’être modernisées, voire entièrement transformées. Découvrez les services managés de bases de données proposés par Google Cloud ainsi que notre approche de la « modernisation progressive ». Explorez également nos frameworks de redéploiement pour bases de données et découvrez comment nous pouvons vous aider à mieux démarrer, avec notre offre gratuite d’évaluation des risques.&lt;/p&gt;&lt;h3&gt;#5 Bien démarrer avec Database Migration Service&lt;/h3&gt;Par Shachar Guz &amp;amp; Inna Weiner&lt;br/&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=3LjpirPFc2g"
      data-glue-modal-trigger="uni-modal-3LjpirPFc2g-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/3LjpirPFc2g/maxresdefault.jpg"
             alt="Bien démarrer avec Database Migration Service"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-3LjpirPFc2g-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="3LjpirPFc2g"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=3LjpirPFc2g"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;L’augmentation des coûts de maintenance peut aussi être une excellente raison de migrer ses bases vers le cloud. Que vous envisagiez un simple transfert, une modernisation avec adoption d’une alternative plus moderne et open source ou une transformation complète d’une application, Google Cloud peut vous accompagner dans votre démarche. Découvrez comment &lt;a href="https://cloud.google.com/database-migration"&gt;Database Migration Service&lt;/a&gt; simplifie votre modernisation par le cloud avec son approche serverless et sa plateforme sécurisée qui s’appuie sur des mécanismes de réplication native afin d’effectuer des redéploiements  plus fidèles et plus fiables. Moins complexe, le redéploiement est aussi moins long et moins risqué. Résultat, vous pouvez redémarrer en moins d’une heure après le redéploiement…&lt;/p&gt;&lt;h3&gt;Nous avons hâte de vous aider à réussir votre redéploiement&lt;/h3&gt;&lt;p&gt;Quelle que soit votre approche du cloud, nous avons la solution pour vous accompagner dans votre démarche avec des bases de données évolutives, fiables, sécurisées et ouvertes. Nous sommes d’ores et déjà enchantés à l’idée d’offrir un nouveau « foyer » à vos applications.&lt;/p&gt;&lt;p&gt;N’hésitez pas à profiter de l’offre d’essai gratuite pour explorer les avantages de &lt;a href="https://console.cloud.google.com/freetrial?redirectPath=/sql"&gt;Cloud SQL&lt;/a&gt; ou &lt;a href="https://console.cloud.google.com/freetrial?redirectPath=/spanner"&gt;Spanner&lt;/a&gt; et accélérer votre redéploiement vers Google Cloud avec &lt;a href="https://cloud.google.com/resources/database-migration-program"&gt;Database Migration Program&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Mon, 12 Jun 2023 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</guid><category>Application Development</category><category>Application Modernization</category><category>Data Analytics</category><category>Infrastructure</category><category>Databases</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Faciliter le passage à Google Cloud et à des technologies Open Source</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/bases-de-donnees/faciliter-le-passage-a-google-cloud-et-a-des-technologies-open-source/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Yoav Eilat</name><title>Product Marketing Manager, Databases</title><department></department><company></company></author></item><item><title>Établir un langage métier cohérent pour plus de confiance dans ses données</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/etablir-un-langage-metier-coherent-pour-plus-de-confiance-dans-ses-donnees/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Le “business glossary” (ou glossaire des termes métiers aussi appelé glossaire d’entreprise en français) de Dataplex est disponible en mode preview publique. &lt;/p&gt;&lt;p&gt;Brique d’infrastructure data intelligente,&lt;a href="https://cloud.google.com/dataplex?hl=fr"&gt; Dataplex&lt;/a&gt; permet de gérer, surveiller et gouverner les données distribuées à grande échelle. Solution cloud native, le &lt;a href="https://console.cloud.google.com/dataplex/glossaries?pli=1"&gt;business glossary ou glossaire d’entreprise&lt;/a&gt; de Dataplex permet aux utilisateurs de définir et gérer les termes métier, favorisant ainsi la contextualisation des données et le partage d’un langage métier cohérent au sein de l’entreprise. Dès lors, la confiance dans les données grandit et l’utilisation de la data en libre-service s’en trouve simplifiée.&lt;/p&gt;&lt;p&gt;Qu'elles soient petites, moyennes ou grandes, les entreprises sont organisées en équipes qui développent leur propre langage au fil du temps. Typiquement, certaines équipes interpréteront le terme « client » comme une « entité juridique » alors que d’autres y verront un « individu » ou une « entité gouvernementale ». Ces différences peuvent engendrer des problèmes de compréhension et de collaboration. Pire, elles peuvent entraîner une mauvaise interprétation des données et affecter la perception des informations et la prise de décision. Par ailleurs, ces différences tendent également à isoler et bloquer les collaborateurs qui ne maîtrisent pas le langage métier spécifique à chaque équipe, les obligeant à d’abord apprendre à maîtriser les différents jargons utilisés par chaque « clan » au sein de l’entreprise. Ce qui engendre bien entendu une surcharge de travail d’autant plus importante qu’il faut sans cesse mettre à jour ses connaissances.&lt;/p&gt;&lt;p&gt;Grâce au glossaire d’entreprise de Dataplex, les utilisateurs peuvent désormais :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Capturer, saisir et définir leur terminologie métier dans des glossaires communs ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Enrichir les données cataloguées avec leur terminologie métier (en rattachant leurs définitions aux colonnes des données) afin d’améliorer la compréhension et l’organisation des informations par tous les collaborateurs de l’entreprise ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Décrire les relations sémantiques entre des termes en les associant et en les rapprochant.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Dataplex_business_glossary.max-2000x2000.jpg"
        
          alt="Dataplex"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Le glossaire d’entreprise (business glossary) de Dataplex constitue ainsi une aide précieuse pour tous les utilisateurs de données, et ce à différents niveaux.&lt;/p&gt;&lt;p&gt;Tout d’abord, il favorise la cohérence sémantique et une interprétation partagée des données entre les différentes équipes, réduisant par la même occasion les redondances ainsi que les risques de confusion et de mauvaise interprétation lors de l’exploitation de ces données. Typiquement, lorsque deux équipes partagent une définition centralisée du terme "transaction de vente", elles peuvent capturer des informations sur une vente sous des angles différents mais structurer l’information de manière cohérente pour l’entreprise, selon une terminologie prédéfinie et partagée.&lt;/p&gt;&lt;p&gt;Cette cohérence sémantique favorise aussi une compréhension partagée et renforce la confiance dans les données. Lorsqu’ils sont associés aux données, les termes du glossaire apportent une couche supplémentaire - centralisée et cohérente - de contextualisation des données métier, permettant ainsi aux utilisateurs d’avoir la certitude d’utiliser les bonnes données pour remplir leurs objectifs. Dans l'exemple évoqué plus haut, l’analyste effectue une requête pour remonter toutes les tables comportant des données clients. Il n’a pas à s’inquiéter des potentielles différentes interprétations, à savoir si les données se réfèrent à des clients personnels, des entités légales, etc., la notion de client ayant été préalablement définie dans le glossaire par des termes associés. Dès lors, l’analyste peut exploiter ses données remontées en toute confiance.&lt;/p&gt;&lt;p&gt;Combinées, cohérence sémantique, compréhension partagée et confiance renforcée, libèrent le potentiel de l’utilisation des données en libre-service. Les collaborateurs peuvent utiliser le contenu du glossaire pour mieux exploiter le patrimoine de données avec des requêtes telles que : « montre-moi toutes entrées qui contiennent des termes de glossaire faisant référence à ‘transaction de vente’ dans leurs définitions ». Au passage, on notera qu’une recherche peut prendre en compte les métadonnées associées aux différents termes comme leurs descriptions ou leurs propriétaires. Dotés d’une meilleure compréhension des jeux de données remontés, les collaborateurs peuvent aussi identifier les meilleurs scénarios d’usage pour ces données.&lt;/p&gt;&lt;p&gt;Enfin, le glossaire d’entreprise de Dataplex contribue à une meilleure (et nécessaire) gouvernance des données. Les équipes chargées de la gouvernance peuvent en effet s’appuyer sur ce glossaire commun pour décider des politiques et règles à mettre en place. Par exemple, elles peuvent décréter que toutes les interrogations associées au terme « client » du glossaire seront soumises à des contrôles d'accès supplémentaires.&lt;/p&gt;&lt;p&gt;En d’autres termes, le glossaire d’entreprise de Dataplex peut être utilisé en complément des autres fonctionnalités de gouvernance de Dataplex pour favoriser la mise en place d’un langage métier commun et cohérent, renforcer la confiance dans les données, promouvoir l'utilisation en libre-service et ainsi obtenir plus de valeur de vos données.&lt;/p&gt;&lt;h3&gt;Par où commencer ?&lt;/h3&gt;&lt;p&gt;Vous pouvez commencer à utiliser le&lt;a href="https://console.cloud.google.com/projectselector2/dataplex/glossaries?_ga=2.227109469.-1985363896.1624427574&amp;amp;supportedpurview=project"&gt; glossaire d’entreprise de Dataplex&lt;/a&gt; dès maintenant en cliquant sur « Glossaires » dans la liste à gauche sur la page. Vous pouvez arrêter votre terminologie métier en créant des glossaires, en définissant des termes et en établissant des liens entre les termes.&lt;/p&gt;&lt;p&gt;Vous pouvez ensuite associer vos données existantes aux termes prédéfinis en parcourant les entrées de données avec &lt;a href="https://pantheon.corp.google.com/dataplex/search" target="_blank"&gt;Dataplex Search&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;Une fois le contenu du glossaire défini et associé aux entrées de données, vous pouvez exploiter le contenu du glossaire pour rechercher des informations et explorer vos jeux de donnes.&lt;/p&gt;&lt;p&gt;Pour plus d'informations :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Apprendre à utiliser le&lt;a href="https://cloud.google.com/dataplex/docs/create-glossary"&gt; glossaire d’entreprise de Dataplex&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Visitez la page&lt;a href="https://cloud.google.com/dataplex?hl=fr"&gt; Dataplex&lt;/a&gt; sur Google Cloud&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Fri, 26 May 2023 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/etablir-un-langage-metier-coherent-pour-plus-de-confiance-dans-ses-donnees/</guid><category>Databases</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Établir un langage métier cohérent pour plus de confiance dans ses données</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/etablir-un-langage-metier-coherent-pour-plus-de-confiance-dans-ses-donnees/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Ragi Mahil</name><title>Head of Product Marketing, Advanced Analytics</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Andrew Ikonnikov</name><title>Product Manager</title><department></department><company></company></author></item><item><title>Des indicateurs fiables grâce à l’automatisation de la qualité des données</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/des-indicateurs-fiables-grace-a-lautomatisation-de-la-qualite-des-donnees/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Dataplex s’enrichit deux nouvelles fonctionnalités pour automatiser la qualité des données (AutoDQ) et le profilage (Data Profiling). Elles sont toutes deux disponibles en version preview publique dès aujourd’hui. &lt;/p&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/dataplex"&gt;Dataplex&lt;/a&gt; est une « smart data fabric » qui permet d’unifier vos données distribuées et de gérer, surveiller et gouverner la data à grande échelle. Au sein de cette « fabric », &lt;a href="https://cloud.google.com/dataplex/docs/auto-data-quality-overview"&gt;AutoDQ&lt;/a&gt; permet de définir et mesurer la qualité des données. La fonctionnalité propose des recommandations de règles, du reporting intégré et une exécution en serverless pour garantir une haute qualité de données. Parallèlement, la nouvelle fonctionnalité &lt;a href="https://cloud.google.com/dataplex/docs/data-profiling-overview"&gt;de profilage&lt;/a&gt; de données (ou Data Profiling) offre une meilleure compréhension des données grâce à l’identification de caractéristiques communes.&lt;/p&gt;&lt;p&gt;Quand elles sont fiables et cohérentes, les données constituent un patrimoine inestimable pour les entreprises, en termes d’innovation mais aussi de prises de décision critiques et d’expériences client innovantes. À l’inverse, des données de mauvaise qualité peuvent entraîner l’inefficacité des processus et même des pertes financières. &lt;br/&gt;La qualité des données était plus facile à gérer autrefois, quand « l’empreinte des données » était de plus faible taille (stockages et traitements limités à une zone géographique ou à une base par exemple) et que les consommateurs de données étaient moins nombreux. Les utilisateurs pouvaient s’entendre plus facilement pour définir des règles et les intégrer dans leurs analyses. &lt;/p&gt;&lt;p&gt;&lt;br/&gt;Mais les entreprises éprouvent désormais une difficulté grandissante à adapter ce processus manuel à l’augmentation des volumes et à la diversité croissante des données, sans oublier l’arrivée de nouveaux utilisateurs et la multiplication des cas d’usages. La difficulté est également accentuée par la prolifération de solutions de gestion de la qualité des données en interne qui rend la mise en place de règles de qualité communes et normalisées encore plus complexes. La plupart du temps, cet héritage sème de l’incohérence et de la confusion.&lt;/p&gt;&lt;p&gt;Avec Dataplex AutoDQ et Data Profiling, vous pouvez désormais mettre en place des solutions de nouvelle génération qui automatisent la création de règles et la gestion à grande échelle de la qualité des données. Les fonctionnalités de profilage permettent aussi d'améliorer la découverte et l'auditabilité des données. &lt;/p&gt;&lt;p&gt;Les principaux avantages de ces solutions sont :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Une approche intelligente et intégrée : avec AutoDQ et Data Profiling, la courbe d’apprentissage disparaît. La mise en place de règles est intuitive grâce aux recommandations et ne nécessite aucune configuration. De plus, les rapports « clé en main » fournis permettent de déployer sans effort un reporting standardisé. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Gestion de toutes les catégories de données sans générer de silos : AutoDQ et Data Profiling s’adaptent à tous les types de données, permettant ainsi aux producteurs de s’approprier la gestion de la qualité et aux consommateurs d’enrichir les rapports en fonction de leurs besoins métier spécifiques.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Automatisation à grande échelle : ces solutions sont conçues pour s’adapter automatiquement et de façon transparente à la volumétrie. Elles s’appuient sur les mécanismes de stockage d’attributs de Dataplex (l’Attribute Store de Dataplex qui permet de stocker ensemble métadonnées, règles de qualité et politiques de sécurité) afin d’adapter la définition et la supervision aux besoins, au fur et à mesure que la volumétrie augmente.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;Ces fonctionnalités en mode preview constituent le socle d’un futur où la qualité fera partie intégrante de la découverte et de l’analyse de données au quotidien.&lt;/p&gt;&lt;p&gt;&amp;quot;Des données fiables sont incroyablement importantes pour notre prise de décision afin de conserver la confiance de nos clients. Les nouvelles fonctionnalités de qualité des données et de profilage de nouvelle génération de Dataplex nous offrent une automatisation et une intelligence qui nous permettent de simplifier nos processus actuels, de réduire le travail manuel et de normaliser la qualité des données grâce aux rapports et alertes intégrés.&amp;quot; - Jyoti Chawla, directeur technique et responsable de l'architecture, CDO, Deutsche Bank.&lt;/p&gt;&lt;p&gt;&amp;quot;Nous utilisons des données sur l’énergie pour construire des modèles innovants de prévision de la puissance, de planification des ressources et de recommandations pour le marché de l'énergie. Pour valider les données d'entraînement et de prédiction, nous évaluons activement la fonction ‘Qualité automatique des données (AutoDQ)’ de Dataplex. Jusqu'à présent, nous avons été impressionnés par sa simplicité, son intuitivité et ses recommandations intelligentes&amp;quot;. - João Caldas, responsable de l'analyse et de l'innovation à Casa dos Ventos.&lt;/p&gt;&lt;h3&gt;Un modèle de données flexible&lt;/h3&gt;&lt;p&gt;Ces nouvelles fonctionnalités de Dataplex s’appuient sur un modèle capable de s’adapter à de multiples catégories de données et différents types de déploiement, En tant qu’utilisateur, vous pouvez créer un ou plusieurs « data scans » pour une table.&lt;/p&gt;&lt;p&gt;Ces data scans :&lt;/p&gt;&lt;p/&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;sont de type « profilage des données » ou de type « qualité des données » ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;reposent entièrement sur une exécution serverless ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;peuvent être déclenchés à l’aide d’un scheduler (outil de planification) serverless intégré ou à la demande avec des schedulers externes ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;peuvent être exécutées de manière incrémentale (sur les données les plus récentes) ou sur l'ensemble des données ;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Et, si vous êtes un producteur de données, vous pouvez configurer la solution, de façon à publier les résultats dans le catalogue de données (fonctionnalité à venir prochainement !).&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_AutoDQ.max-2000x2000.jpg"
        
          alt="Data1"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Avec ce modèle, les producteurs peuvent aisément créer et tester de nouveaux « data scans » avant de les passer en production en publiant les résultats. Les consommateurs peuvent exploiter les résultats publiés et ajouter leur propres « data scans » si nécessaire.&lt;/p&gt;&lt;p&gt;Ce modèle est enrichi « d’intelligence » et d’une interface utilisateur pensée pour un usage intuitif et une prise en main simplifiée. &lt;/p&gt;&lt;p&gt;Afin d’aller plus loin dans l’utilisation de ces nouvelles fonctionnalités, nous vous proposons un exemple d’application, basé sur « Taxi Trips » tiré des jeux de données publiques de &lt;a href="https://cloud.google.com/datasets"&gt;BigQuery public datasets&lt;/a&gt;  (&lt;a href="https://data.cityofchicago.org/Transportation/Taxi-Trips/wrvz-psew" target="_blank"&gt;source : -chicago-taxi-trips&lt;/a&gt;). Nous allons passer en revue les capacités de définition, d'exécution, de supervision et de dépannage des règles offertes par ces nouvelles fonctionnalités.&lt;/p&gt;&lt;h3&gt;Profilage de vos données en quelques clics&lt;/h3&gt;Il suffit de quelques clics pour créer un scan de profilage de données pour cette table dans Dataplex. Les résultats du scan sont ensuite disponibles dans l'interface utilisateur et comprennent des statistiques et graphiques sur les colonnes. La capture d’écran suivante affiche par exemple le pourcentage de données Null, de données uniques et autres statistiques sur les colonnes, ainsi que les 10 valeurs les plus récurrentes de chaque colonne.&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_AutoDQ.0816032816320656.max-1300x1300.jpg"
        
          alt="Data2"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Obtenir des recommandations de règles pour gérer la qualité des données&lt;/h3&gt;Pour mettre en place un scan de qualité de données, nous proposons à la fois des recommandations de règles et une expérience visuelle de création de règles.  Vous pouvez créer de nouvelles règles directement en code SQL ou en partant des quelques types de règles prédéfinies.&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_AutoDQ.max-1100x1100.jpg"
        
          alt="Data3"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Notez que chaque règle est associée à une dimension « qualité des données » et possède un seuil de validation.&lt;/p&gt;&lt;p&gt;Par exemple, voici une règle recommandée qui reconnaît que payment_type doit absolument adopter l'une des quelques valeurs automatiquement détectées dans la colonne.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/4_AutoDQ.1000064520000259.max-2000x2000.jpg"
        
          alt="Data4"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Une exécution sans copie des données &lt;/h3&gt;&lt;p&gt;Les contrôles de qualité des données sont exécutés de la manière la plus performante directement sur les ressources internes Bigquery, et aucune copie de données n'est pratiquée lors de l'exécution de ces requêtes.&lt;/p&gt;&lt;h3&gt;Visualisation des rapports dans Dataplex&lt;/h3&gt;&lt;p&gt;Vous pouvez planifier ces contrôles de qualité directement dans Dataplex ou les exécuter à l’aide de schedulers externes. Dans les deux cas, les résultats s’affichent dans Dataplex sous forme d'un rapport sur la qualité des données.&lt;/p&gt;&lt;p&gt;Un tableau de bord permet de visualiser les exécutions (7 dans notre exemple) :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/5_AutoDQ.1000068120000532.max-2000x2000.jpg"
        
          alt="Data5"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Vous pouvez également effectuer des recherches dans les exécutions précédentes. &lt;br/&gt;Les règles utilisées pour chaque exécution sont conservées.&lt;/p&gt;&lt;h3&gt;Définir des alertes avec Google Cloud Logging &lt;/h3&gt;&lt;p&gt;Les scans de qualité des données génèrent des entrées dans les journaux Google Cloud sur lesquelles vous pouvez vous appuyer pour définir des alertes en cas d’échec d’un scan spécifique ou d’échec sur une dimension particulière. Votre alerte, communiquée par email, pourrait ressemble à ceci :&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/6_AutoDQ.0291032505590636.max-600x600.jpg"
        
          alt="Data6"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Résolution des problèmes &lt;/h3&gt;&lt;p&gt;Pour résoudre un problème sur une règle de qualité en échec, nous accompagnons les utilisateurs en proposant automatiquement une requête SQL permettant de retrouver les enregistrements qui ont provoqué cet échec (autrement dit, les enregistrements qui ne respectent pas la règle de qualité).&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/7_AutoDQ.1004065119910456.max-2000x2000.jpg"
        
          alt="Data7"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/7_AutoDQ.1004065119910456.max-2000x2000.jpg"
        
          alt="Data7"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Pour plus d’information, reportez-vous à : &lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/dataplex/docs/data-profiling-overview"&gt;Au sujet du profilage des données &lt;/a&gt;&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/dataplex/docs/auto-data-quality-overview"&gt;Au sujet de la qualité des données&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;/div&gt;</description><pubDate>Thu, 27 Apr 2023 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/des-indicateurs-fiables-grace-a-lautomatisation-de-la-qualite-des-donnees/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Des indicateurs fiables grâce à l’automatisation de la qualité des données</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/des-indicateurs-fiables-grace-a-lautomatisation-de-la-qualite-des-donnees/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sandeep Karmarkar</name><title>Product lead</title><department></department><company></company></author></item><item><title>Les nouveautés liées à l’infrastructure data cloud unifiée de Google Cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/nouveautes-apportees-a-linfrastructure-data-cloud-unifiee-ouverte-et-intelligente-de-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Google compte parmi ses clients de nombreuses entreprises qui se distinguent par leur capacité à innover. Beaucoup d’entre elles se sont tournées vers Google Cloud afin de bénéficier de notre expertise reconnue dans le domaine de l’analyse de données et de l’IA.&lt;/p&gt;&lt;p&gt;Au fil de notre collaboration avec ces entreprises bien avancées sur l’exploitation de la donnée, nous avons constaté que la majorité partageait des priorités similaires : éliminer les obstacles liés à la complexité des données, faire émerger de nouveaux cas d’usage et maximiser l’impact de la donnée tout en démocratisant son accès au plus grand nombre.&lt;/p&gt;&lt;p&gt;Pour innover, ces entreprises qui bousculent leur marché s’appuient sur une infrastructure data cloud qui permet à leurs collaborateurs d’avoir accès à tout type de données, provenant de n’importe quelle source quelle que soit sa taille. Et ce, sans limite de capacité et avec des performances optimales. Ce data cloud permet également aux collaborateurs de passer facilement d’un workload à l’autre, en toute sécurité, et avec une configuration d’infrastructure minimale, qu’il s’agisse de basculer de SQL à Spark, de la BI (Business Intelligence) au ML (Machine Learning). Autrement dit, ces entreprises s’appuient sur un data cloud pour donner naissance à un écosystème de données ouvert, socle indispensable pour créer des services que les collaborateurs, les clients et les partenaires utilisent afin de prendre des décisions à même de changer la donne.&lt;/p&gt;&lt;p&gt;Le 11 octobre prochain, à l'occasion du Google Cloud Next '22, vous pourrez découvrir les nouvelles fonctionnalités de notre data cloud. Elles ont été spécialement conçues pour répondre aux attentes des entreprises qui souhaitent mettre en place cette approche moderne de la donnée. Si vous n’êtes pas encore inscrit aux sessions&lt;a href="https://cloud.withgoogle.com/next" target="_blank"&gt; Data Cloud&lt;/a&gt;, réservez votre place dès aujourd’hui !&lt;/p&gt;&lt;p&gt;Je suis toutefois convaincu que les passionnés de data n’auront pas la patience d’attendre. C’est pourquoi je vous propose de découvrir en avant-première certaines des dernières innovations apportées à notre data cloud. La plupart sont disponibles dès à présent. Considérez-les comme un hors-d'œuvre en attendant le foisonnant festin qui vous sera proposé le 11 octobre.&lt;/p&gt;&lt;h3&gt;Supprimer les barrières, obtenir des analyses en temps réel et ouvrir les écosystèmes&lt;/h3&gt;&lt;p&gt;Les données dont vous avez besoin sont rarement stockées dans un seul endroit. Le plus souvent, elles sont éparpillées entre plusieurs sources et dans différents formats. Des mécanismes d’échange entre ces différentes sources ont été mis en place il y a déjà plusieurs années, voire des décennies. Mais les résultats sont plutôt mitigés. L’approche traditionnelle suppose en effet des déplacements de données d’autant plus laborieux qu’ils sont complexifiés par des problématiques de sécurité et de réglementations.&lt;/p&gt;&lt;p&gt;Cette situation nous a conduits à concevoir&lt;a href="https://www.youtube.com/watch?v=h8_xCbTYtTU" target="_blank"&gt; Analytics Hub&lt;/a&gt;. Disponible à tous dès à présent, cette solution se concrétise sous la forme d’une plateforme de partage de données, utilisée par les équipes et les organisations qui veulent réaliser des échanges sécurisés et fiables en interne comme avec l’extérieur de l’entreprise.&lt;/p&gt;&lt;p&gt;Cette innovation permet non seulement de conserver et de partager un large éventail de jeux de données prêts pour l’analyse mais également de les combiner aux jeux de données uniques proposés par Google, tels que Google Search Trends ou encore notre graphe de connaissances Data Commons.&lt;/p&gt;&lt;p&gt;Analytics Hub fait partie intégrante de BigQuery. Autrement dit, vous pouvez l’essayer gratuitement en passant par&lt;a href="https://cloud.google.com/bigquery/docs/sandbox"&gt; BigQuery&lt;/a&gt;, sans avoir à saisir de données de paiement.&lt;/p&gt;&lt;p&gt;Analytics Hub n’est évidemment pas le seul moyen que nous proposons pour simplifier l'intégration de données à des fins analytiques. Nous avons en effet récemment annoncé une solution pour extraire, charger et transformer des données en temps réel dans BigQuery : le nouveau type d’abonnement Pub/Sub "&lt;a href="https://cloud.google.com/blog/products/data-analytics/pub-sub-launches-direct-path-to-bigquery-for-streaming-analytics"&gt;BigQuery Subscription&lt;/a&gt;". Cette innovation apportée à l’ETL simplifie la mise en place de workloads d’ingestion en continu (streaming). Plus facile à mettre en œuvre, cette solution est aussi plus économique car vous n’avez plus besoin d’exécuter de nouveaux traitements pour déplacer vos données et vous n’avez plus à payer pour l’ingestion en continu dans BigQuery.&lt;/p&gt;&lt;p&gt;Dans un monde où de plus en plus d’entreprises cherchent à réconcilier des informations réparties entre différents datalakes, entrepôts, clouds et formats de fichiers, l’approche traditionnelle pour dé-siloter les données peut s’avérer coûteuse, risquée, et difficile à passer à l’échelle.&lt;/p&gt;&lt;p&gt;Afin de les accompagner dans leur démarche, nous avons lancé&lt;a href="https://www.youtube.com/watch?v=UdpNYk0EP0g&amp;amp;feature=emb_title" target="_blank"&gt; BigLake&lt;/a&gt;, un nouveau moteur de stockage qui étend les nouveautés apportées à BigQuery aux formats de fichiers ouverts, stockés sur les « objects store » de clouds publics.&lt;/p&gt;&lt;p&gt;BigLake permet aux clients de créer aisément des datalakes sécurisés à partir de formats de fichiers ouverts. Il propose aussi des contrôles de sécurité fins et cohérents que ce soit pour Google Cloud ou pour des moteurs de requête open-source. La configuration de la sécurité est donc centralisée à un seul endroit et appliquée partout.&lt;/p&gt;&lt;p&gt;Des clients comme&lt;a href="https://cloud.google.com/blog/products/data-analytics/unify-data-lakes-and-warehouses-with-biglake-now-generally-available"&gt; Deutsche Bank, Synapse LLC et Wizard&lt;/a&gt; ont eu l’occasion d’exploiter BigLake avant sa sortie. Cette solution est&lt;a href="https://cloud.google.com/blog/products/data-analytics/unify-data-lakes-and-warehouses-with-biglake-now-generally-available"&gt; depuis peu accessible à tous&lt;/a&gt;. Je vous invite à découvrir dès à présent comment BigLake peut vous aider à construire votre propre écosystème de données.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-video"&gt;



&lt;div class="article-module article-video "&gt;
  &lt;figure&gt;
    &lt;a class="h-c-video h-c-video--marquee"
      href="https://youtube.com/watch?v=UdpNYk0EP0g"
      data-glue-modal-trigger="uni-modal-UdpNYk0EP0g-"
      data-glue-modal-disabled-on-mobile="true"&gt;

      
        &lt;img src="//img.youtube.com/vi/UdpNYk0EP0g/maxresdefault.jpg"
             alt="BigLake in a minute"/&gt;
      
      &lt;svg role="img" class="h-c-video__play h-c-icon h-c-icon--color-white"&gt;
        &lt;use xlink:href="#mi-youtube-icon"&gt;&lt;/use&gt;
      &lt;/svg&gt;
    &lt;/a&gt;

    
  &lt;/figure&gt;
&lt;/div&gt;

&lt;div class="h-c-modal--video"
     data-glue-modal="uni-modal-UdpNYk0EP0g-"
     data-glue-modal-close-label="Close Dialog"&gt;
   &lt;a class="glue-yt-video"
      data-glue-yt-video-autoplay="true"
      data-glue-yt-video-height="99%"
      data-glue-yt-video-vid="UdpNYk0EP0g"
      data-glue-yt-video-width="100%"
      href="https://youtube.com/watch?v=UdpNYk0EP0g"
      ng-cloak&gt;
   &lt;/a&gt;
&lt;/div&gt;

&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt; Simplifier l’exploitation de la donnée&lt;/p&gt;&lt;p&gt;Quand les données sont hétérogènes et éparpillées entre des sources très variées, les entreprises ont généralement du mal à innover car leurs collaborateurs doivent sans cesse changer d’outils en fonction de la tâche à réaliser.&lt;/p&gt;&lt;p&gt;C’est un problème récurrent rencontré en Machine Learning, où les interfaces ML diffèrent généralement de celles utilisées pour la BI. Mais ce n’est pas le cas avec BigQuery ML : les clients ne sont pas freinés dans leur capacité à innover car les fonctionnalités ML sont intégrées à BigQuery (et non pas en option comme dans bien des solutions du marché).&lt;/p&gt;&lt;p&gt;Nous appliquons désormais la même philosophie aux données de logs en proposant un service&lt;a href="https://cloud.google.com/logging/docs/log-analytics#:~:text=Log%20Analytics%20gives%20you%20the,to%20perform%20advanced%20logs%20analysis."&gt; Log Analytics&lt;/a&gt; directement intégré au service&lt;a href="https://cloud.google.com/logging"&gt; Cloud Logging&lt;/a&gt;. Cette nouvelle fonctionnalité, actuellement en « preview », permet d’approfondir l’analyse des données de journalisation avec BigQuery. Log Analytics n'entraîne pas de facturation supplémentaire aux tarifs actuels de Cloud Logging et tire profit des fonctionnalités d’analyse de journaux de BigQuery qui seront bientôt disponibles :&lt;a href="https://cloud.google.com/bigquery/docs/search-intro"&gt; index de recherche&lt;/a&gt; (et son nouveau type de données JSON) et l’&lt;a href="https://cloud.google.com/bigquery/docs/write-api"&gt;API « Storage Write »&lt;/a&gt; (API d’ingestion de données par lots de BigQuery).&lt;/p&gt;&lt;p&gt;Les clients qui stockent, explorent et analysent leurs propres « données machines » (autrement dit des données générées par des machines telles que des serveurs, des capteurs et autres dispositifs) peuvent exploiter ces mêmes fonctionnalités BigQuery pour faciliter l'interrogation de leurs journaux. Les données des journaux opérationnels peuvent ainsi être explorées avec le langage SQL BigQuery, comme n’importe quelle autre donnée de l’entreprise !  &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/log_analytics.max-2000x2000.jpg"
        
          alt="Log Analytics"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Tout ceci n’est bien entendu qu’un avant-goût des surprises que nous vous réservons à l’occasion de Next'22. Nous avons hâte de vous présenter notre nouvelle génération de solutions data cloud, dès le 11 octobre prochain. Pour participer aux sessions dédiées à vos centres d’intérêt ou à votre domaine de compétences, n’hésitez pas à consulter notre sélection des « &lt;a href="https://cloud.withgoogle.com/next" target="_blank"&gt;Top sessions&lt;/a&gt; » pour Data-Engineers, Data-Scientists et Data-Analysts ou à créer vos propres listes et à les partager. &lt;/p&gt;&lt;p&gt;&lt;a href="https://cloud.withgoogle.com/next" target="_blank"&gt;Rejoignez-nous à  Next'22&lt;/a&gt; pour découvrir comment des entreprises leader sur leur marché, telles que Boeing, Twitter, CNA Insurance, Telus, L'Oréal ou encore Wayfair, transforment l’exploitation de leurs données grâce au data cloud de Google.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-related_article_tout_external"&gt;





&lt;div class="uni-related-article-tout h-c-page"&gt;
  &lt;section class="h-c-grid"&gt;
    &lt;a href=""
       data-analytics='{
                       "event": "page interaction",
                       "category": "article lead",
                       "action": "related article - inline",
                       "label": "article: {slug}"
                     }'
       class="uni-related-article-tout__wrapper h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
        h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3 uni-click-tracker"&gt;
      &lt;div class="uni-related-article-tout__inner-wrapper"&gt;
        &lt;p class="uni-related-article-tout__eyebrow h-c-eyebrow"&gt;Related Article&lt;/p&gt;

        &lt;div class="uni-related-article-tout__content-wrapper"&gt;
          &lt;div class="uni-related-article-tout__image-wrapper"&gt;
            &lt;div class="uni-related-article-tout__image" style="background-image: url('')"&gt;&lt;/div&gt;
          &lt;/div&gt;
          &lt;div class="uni-related-article-tout__content"&gt;
            &lt;h4 class="uni-related-article-tout__header h-has-bottom-margin"&gt;&lt;/h4&gt;
            &lt;p class="uni-related-article-tout__body"&gt;&lt;/p&gt;
            &lt;div class="cta module-cta h-c-copy  uni-related-article-tout__cta muted"&gt;
              &lt;span class="nowrap"&gt;Read Article
                &lt;svg class="icon h-c-icon" role="presentation"&gt;
                  &lt;use xmlns:xlink="http://www.w3.org/1999/xlink" xlink:href="#mi-arrow-forward"&gt;&lt;/use&gt;
                &lt;/svg&gt;
              &lt;/span&gt;
            &lt;/div&gt;
          &lt;/div&gt;
        &lt;/div&gt;
      &lt;/div&gt;
    &lt;/a&gt;
  &lt;/section&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Thu, 06 Oct 2022 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/nouveautes-apportees-a-linfrastructure-data-cloud-unifiee-ouverte-et-intelligente-de-google-cloud/</guid><category>Google Cloud Next</category><category>Databases</category><category>AI &amp; Machine Learning</category><category>Google Cloud</category><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/GCN22_A3.max-600x600.jpg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Les nouveautés liées à l’infrastructure data cloud unifiée de Google Cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/GCN22_A3.max-600x600.jpg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/nouveautes-apportees-a-linfrastructure-data-cloud-unifiee-ouverte-et-intelligente-de-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Bruno Aziza</name><title>Head of Data &amp; Analytics, Google Cloud</title><department></department><company></company></author></item><item><title>Un redéploiement simplifiée des données mainframe vers le cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Les mainframes d'IBM existent depuis les années 1950 et demeurent encore essentiels dans de nombreuses organisations. Ces dernières années, certaines d’entre elles ont cependant entrepris un redéploiement de leurs workloads vers le cloud. Cette démarche de modernisation est motivée à la fois par le besoin de rester pertinent, par la pénurie croissante d'experts en mainframes et par les économies promises par les solutions de cloud computing.&lt;/p&gt;&lt;p&gt;L'un des principaux défis du redéploiement des mainframes a toujours été le transfert des données de ces derniers vers le cloud. Heureusement, Google offre en libre accès son connecteur « &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/tree/main/tools/bigquery-zos-mainframe-connector" target="_blank"&gt;bigquery-zos-mainframe&lt;/a&gt; » pour concrétiser de tels transferts avec un effort minimal.&lt;/p&gt;&lt;h3&gt;À la découverte du connecteur Mainframe pour BigQuery et Cloud Storage ?&lt;/h3&gt;&lt;p&gt;Le connecteur Mainframe permet aux utilisateurs de Google Cloud de transférer des données mainframes vers Cloud Storage et de soumettre des tâches BigQuery à partir de jobs mainframes  codés en JCL (le langage de contrôle des jobs des mainframes). Grâce à l'interpréteur Shell inclus et aux versions JVM des utilitaires de ligne de commande gsutil et bq, les équipes mainframes peuvent aisément gérer un pipeline ELT complet entièrement depuis z/OS.&lt;/p&gt;&lt;p&gt;Le connecteur déplace les données situées sur un mainframe vers - et depuis - Cloud Storage et BigQuery. Il transcode ces jeux de données directement au format ORC (un format pris en charge par BigQuery). En outre, il permet aux utilisateurs d'exécuter des tâches BigQuery à partir de JCL, de sorte que les jobs mainframes puissent tirer parti de certains des services les plus puissants de Google Cloud. &lt;/p&gt;&lt;p&gt;Ce connecteur a été testé avec des fichiers plats créés par IBM DB2 EXPORT qui contiennent des champs de caractères binary-integer, packed-decimal et EBCDIC et qui peuvent être facilement représentés par un CopyBook (un fichier de description de données classiquement employé dans l’univers mainframes sous Cobol et DB2). &lt;br/&gt;Les clients disposant de fichiers VSAM peuvent utiliser IDCAMS REPRO pour exporter ces données vers des fichiers plats, ces derniers pouvant ensuite être téléchargés à l'aide du connecteur. &lt;br/&gt;Notez que le transcodage vers ORC nécessite un CopyBook et que tous les enregistrements doivent avoir la même mise en page. Si la mise en page est variable, le transcodage ne fonctionnera pas, mais il est toujours possible de télécharger directement une simple copie binaire du jeu de données.&lt;/p&gt;&lt;h3&gt;Comment utiliser le connecteur bigquery-zos-mainframe ?&lt;/h3&gt;&lt;p&gt;Un workflow de mise en œuvre du connecteur mainframe comprend en général les étapes suivantes :&lt;/p&gt;&lt;p&gt;- Lecture du jeu de données mainframe&lt;/p&gt;&lt;p&gt;- Transcodage du jeu de données en ORC&lt;/p&gt;&lt;p&gt;- Téléchargement de l'ORC vers Cloud Storage&lt;/p&gt;&lt;p&gt;- Enregistrement de cet ORC en tant que table externe&lt;/p&gt;&lt;p&gt;- Exécution d'une instruction DML MERGE pour charger de nouvelles données incrémentielles dans la table cible (sur le cloud).&lt;/p&gt;&lt;p&gt;Notez que si le jeu de données ne nécessite pas de modifications supplémentaires après le chargement, il est préférable d’opter pour un chargement dans une table native plutôt qu’une table externe.&lt;/p&gt;&lt;p&gt;En ce qui concerne l'étape 2, il est important de mentionner que les exportations DB2 sont écrites sous forme de jeux de données séquentiels sur le mainframe et que le connecteur utilise le CopyBook du jeu de données pour le transcoder en ORC.&lt;/p&gt;&lt;p&gt;L'exemple simplifié ci-dessous montre comment lire un jeu de données sur un mainframe, le transcoder au format ORC, copier le fichier ORC sur Cloud Storage, le charger dans une table native BigQuery et exécuter une commande SQL sur cette table.&lt;/p&gt;&lt;p&gt;1 – Vérifier et compiler&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;git clone https://github.com/GoogleCloudPlatform/professional-services\r\ncd ./professional-services/tools/bigquery-zos-mainframe-connector/\r\n \r\n# compile util library and publish to local maven/ivy cache\r\ncd  mainframe-util\r\nsbt publishLocal\r\n \r\n# build jar with all dependencies included\r\ncd ../gszutil\r\nsbt assembly&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f8ae0fbcb80&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;2 - Téléchargez l’assembly jar qui vient d'être créé dans target/scala-2.13 vers un chemin du système de fichiers unix de votre mainframe.&lt;/p&gt;&lt;p&gt;3- Installez la &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/blob/main/tools/bigquery-zos-mainframe-connector/gszutil/proclib/BQSH" target="_blank"&gt;Procédure JCL BQSH&lt;/a&gt; sur n’importe quel jeu de données partitionné sur le mainframe que vous souhaitez utiliser comme PROCLIB. Modifiez la procédure pour mettre à jour le classpath Java avec le chemin du système de fichiers unix où vous avez téléchargé l'assembly jar. Vous pouvez modifier la procédure pour définir toute variable d'environnement spécifique à votre infrastructure.&lt;/p&gt;&lt;p&gt;4- Créer le Job&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 1&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP01 EXEC BQSH\r\n//INFILE DD DSN=PATH.TO.FILENAME,DISP=SHR\r\n//COPYBOOK DD DISP=SHR,DSN=PATH.TO.COPYBOOK\r\n//STDIN DD *\r\ngsutil cp --replace gs://bucket/my_table.orc\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f8ae0fbc8e0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape lit le jeu de données dans INFILE DD et lit le modèle d'enregistrement dans COPYBOOK DD. Le jeu de données d'entrée peut être un fichier plat exporté depuis IBM DB2 ou un fichier VSAM. Les enregistrements lus à partir du jeu de données d'entrée sont écrits dans le fichier ORC à l'adresse gs://bucket/my_table.orc avec le nombre de partitions déterminé par la quantité de données.&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 2&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP02 EXEC BQSH\r\n//STDIN DD *\r\nbq load --project_id=myproject \\\r\n myproject:MY_DATASET.MY_TABLE \\\r\n gs://bucket/my_table.orc/*\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f8ae0fbc310&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape soumet un job BigQuery qui chargera les partitions de fichiers ORC de « my_table.orc » dans MY_DATASET.MY_TABLE. Notez que le chemin est bien celui utilisé à l'étape précédente.&lt;/p&gt;&lt;p&gt;&lt;b&gt;Etape 3&lt;/b&gt;&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-code"&gt;&lt;dl&gt;
    &lt;dt&gt;code_block&lt;/dt&gt;
    &lt;dd&gt;&amp;lt;ListValue: [StructValue([(&amp;#x27;code&amp;#x27;, &amp;#x27;//STEP03 EXEC BQSH\r\n//QUERY DD DSN=PATH.TO.QUERY,DISP=SHR\r\n//STDIN DD *\r\nbq query --project_id=myproject\r\n/*&amp;#x27;), (&amp;#x27;language&amp;#x27;, &amp;#x27;&amp;#x27;), (&amp;#x27;caption&amp;#x27;, &amp;lt;wagtail.rich_text.RichText object at 0x7f8ae0fbcbb0&amp;gt;)])]&amp;gt;&lt;/dd&gt;
&lt;/dl&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette étape soumet un job de requêtage BigQuery (Request Job) pour exécuter une lecture SQL à partir du QUERY DD (un fichier FB au format LRECL 80). En général, la requête sera une instruction MERGE ou SELECT INTO qui entraîne la transformation d'une table BigQuery. &lt;br/&gt;Note : le connecteur enregistrera les métriques du job mais n'écrira pas les résultats de la requête dans un fichier.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Fonctionner hors du mainframe pour économiser les MIPS&lt;/h3&gt;&lt;p&gt;Sur un système de production, planifier des tâches générant de larges transferts de données n’est pas une chose à prendre à la légère.&lt;br/&gt;Il est important de retenir que le connecteur Mainframe s'exécute dans un processus JVM et devrait donc utiliser les processeurs zIIP par défaut, mais si la capacité est épuisée, l'utilisation peut s'étendre aux processeurs généraux.&lt;br/&gt;Étant donné que le transcodage d'enregistrements z/OS et l'écriture de partitions de fichiers ORC nécessitent une quantité non négligeable de traitements, le Mainframe Connector comprend un serveur gRPC conçu pour gérer les opérations de calcul intensif sur un serveur cloud (une instance VM sur Google Cloud Engine). En activant cette fonctionnalité, les traitements intensifs sont réalisés hors du mainframe sur un serveur cloud, le processus exécuté sur z/OS se contentant de télécharger le jeu de données vers Cloud Storage et d’effectuer un appel RPC. &lt;br/&gt;Le passage du connecteur d’un mode d'exécution locale à un mode d’exécution distante ne nécessite qu'un changement de variable d'environnement. Des informations détaillées sur cette fonctionnalité sont &lt;a href="https://github.com/GoogleCloudPlatform/professional-services/blob/main/tools/bigquery-zos-mainframe-connector/gszutil/grecv/README.md" target="_blank"&gt;disponibles ici&lt;/a&gt;.  &lt;/p&gt;&lt;hr/&gt;&lt;p&gt;&lt;i&gt;Remerciements&lt;/i&gt;&lt;/p&gt;&lt;p&gt;&lt;i&gt;Merci à ceux qui ont testé, débogué, maintenu et amélioré cet outil : Timothy Manuel, Catherine Im, Madhavi Kancharla, Suresh Balakrishnan, Viktor Fedinchuk, Pavlo Kravets.&lt;/i&gt;&lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 30 Aug 2022 09:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</guid><category>Application Modernization</category><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_VyHrGAO.max-1000x1000.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Un redéploiement simplifiée des données mainframe vers le cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_VyHrGAO.max-1000x1000.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/un-redeploiement-simplifiee-des-donnees-mainframe-vers-le-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Jason Mar</name><title>Strategic Cloud Engineer</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Franklin Whaite</name><title>Strategic Cloud Engineer</title><department></department><company></company></author></item><item><title>Libérez le potentiel de vos données sur mainframe avec une approche innovante : la « data-first digitization »</title><link>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Dans de nombreuses entreprises, de vénérables mainframes abritent encore des décennies de données sur les clients, les processus et les opérations. Et bien évidemment, ces entreprises aimeraient bien pouvoir y accéder pour effectuer des analyses et créer des rapports avec les outils du big data ou encore pour les utiliser dans le cadre de nouveaux projets de Machine Learning et d’Intelligence Artificielle. &lt;/p&gt;&lt;p&gt;Nous avons hâte chez Google de vous accompagner dans cette démarche en vous aidant à &lt;a href="https://cloud.google.com/blog/topics/developers-practitioners/beyond-mainframe-modernization-art-possibilities"&gt;transformer les ressources mainframe pour l'ère du cloud&lt;/a&gt;. Nous pouvons bien entendu vous aider à moderniser vos applications mainframes en les faisant migrer vers le cloud. Mais en parallèle, nous avons aussi développé une autre alternative avec nos partenaires et nos clients. Plus légère, elle permet de commencer à exploiter les ressources des mainframes sur le cloud beaucoup plus rapidement qu’avec une migration complète de l’existant. Nous avons baptisé cette approche data-first digitization ou, en français, « numérisation des données d'abord ».&lt;/p&gt;&lt;p&gt;Dans un monde numérique qui évolue rapidement, il convient tout d’abord de faire la différence entre « modernisation » et « numérisation ». &lt;br/&gt;Dans une approche classique de modernisation, vous partez de l’existant pour vous projeter dans l’avenir en vous appuyant sur des méthodes de migration d’applications des mainframes, qu’il s’agisse de rehosting (émulation), de refactoring (transformation du code), de réingénierie ou simplement de remplacement d'une application sur mesure par une solution « clés en main ».&lt;br/&gt; À l’inverse, dans une approche « numérisation », on part du résultat attendu et on remonte la chaîne existante en modifiant tout ce qui doit l’être pour atteindre son objectif.  &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_data-first_digitization.max-1000x1000.jpg"
        
          alt="1 data-first digitization.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Cette approche « numérisation » s’appuie sur un framework d’intégration privilégiant les données. Constitué à partir de nos outils et solutions et ceux de nos partenaires, il permet de migrer des sources de données hétérogènes provenant des mainframes vers &lt;a href="https://cloud.google.com/storage"&gt;Google Cloud Storage&lt;/a&gt;. Une fois les données mainframe copiées sur Cloud Storage, elles peuvent ensuite être intégrées et exploitées par les outils Google Cloud, tels que &lt;a href="https://cloud.google.com/bigquery"&gt;BigQuery&lt;/a&gt;, &lt;a href="https://cloud.google.com/products/ai"&gt;les solutions d'IA et de Machine Learning&lt;/a&gt; ou encore les plateformes d’analyse intelligente (&lt;a href="https://cloud.google.com/solutions/smart-analytics"&gt;Smart analytics&lt;/a&gt;) et d’analyse de flux (&lt;a href="https://cloud.google.com/solutions/stream-analytics"&gt;Stream analytics&lt;/a&gt;). &lt;br/&gt;Notre framework d'intégration couvre à la fois le mode batch pour transférer d’un coup des jeux de données volumineux et la réplication en temps réel par capture des modifications apportées aux données (prise en charge du « change data capture »). &lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/Data_First_Overview.max-1000x1000.jpg"
        
          alt="Data First Overview.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;L’approche « numérisation d’abord » repose sur le principe selon lequel « les applications sont éphémères, les données sont permanentes ». &lt;/p&gt;&lt;p&gt;Plutôt que d’utiliser les méthodes traditionnelles de modernisation telles que décrites dans les 7 options de modernisation du Gartner par exemple, les entreprises vont ici privilégier le transfert des données vers Google Cloud, ce qui leur permettra d’accélérer les étapes et de commencer à mettre rapidement en place nouveaux modèles métiers, de nouveaux cas d’usage ou encore de nouvelles façons innovantes de satisfaire leurs clients. &lt;/p&gt;&lt;p&gt;Deux exemples concrets  :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Prendre de meilleures décisions, plus rapidement, en s’appuyant sur les solutions d’analyse en temps réel et intelligentes mais aussi sur les moteurs de Machines Learning et/ou AI. Google est un pionnier dans l'extraction d'informations et de valeur à partir de données brutes structurées et non structurées. Ces outils ont toutefois besoin d’être alimentés en données pour gagner en efficacité. En rendant les données sur mainframe accessibles par des outils comme BigQuery et des modèles AI/ML, les entreprises maximisent leurs capacités d’analyse.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Créer de nouvelles applications de reporting. L’accessibilité des données sur mainframe par des outils Google Cloud, tels que &lt;a href="https://cloud.google.com/looker"&gt;Looker&lt;/a&gt; et &lt;a href="https://cloud.google.com/appsheet"&gt;Appsheet&lt;/a&gt;, permet de créer de nouvelles applications de reporting et ainsi d’accélérer votre transformation globale en décommissionnant plus rapidement les anciennes applications de reporting hébergées sur mainframe.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;br/&gt;&lt;p&gt;D'après notre expérience, l'adoption d'une approche « numérisation » axée sur les données offre un certain nombre d'avantages :&lt;/p&gt;&lt;p&gt;&lt;br/&gt;&lt;/p&gt;&lt;ol&gt;&lt;li&gt;&lt;p&gt;Réactivité métier : cette forme de modernisation s’appuyant sur des outils existants, le cycle de mise en œuvre est beaucoup plus court. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Investissements réduits : l’intégration de produits est moins consommatrice de ressources que le développement d’applications.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Risques minimisés : la démarche data-first repose sur des solutions intégrées aux produits Google Cloud existants, éprouvés et fiables. &lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Transformation plus rapide de l’existant sur mainframe : en déplaçant le centre de gravité de l’application vers les données, vous abordez la question de la modernisation sous l’angle métier, plutôt que de simplement continuer à faire vivre cet existant. Dès lors, seules les applications réellement critiques pour l’entreprise sont modernisées tandis que les applications non essentielles peuvent être mises hors service progressivement, ce qui permet d’accélérer le processus de transformation.&lt;/p&gt;&lt;/li&gt;&lt;/ol&gt;Une telle numérisation centrée sur les données est encore une approche relativement récente, mais les premiers succès de nos clients nous invitent à poursuivre dans cette voie. &lt;br/&gt;N’hésitez pas à consulter régulièrement sur notre site pour obtenir des informations supplémentaires, des architectures de référence et des livres blancs techniques sur l'approche &amp;quot;data-first&amp;quot;. Et si vous pensez qu’elle peut vous convenir, contactez &lt;a href="mailto:mainframe@google.com"&gt;mailto:mainframe@google.com&lt;/a&gt;.&lt;/div&gt;
&lt;div class="block-related_article_tout"&gt;





&lt;div class="uni-related-article-tout h-c-page"&gt;
  &lt;section class="h-c-grid"&gt;
    &lt;a href="https://cloud.google.com/blog/fr/topics/developers-practitioners/ameliorer-la-rapidite-et-la-securite-de-vos-deploiements-dans-le-cloud/"
       data-analytics='{
                       "event": "page interaction",
                       "category": "article lead",
                       "action": "related article - inline",
                       "label": "article: {slug}"
                     }'
       class="uni-related-article-tout__wrapper h-c-grid__col h-c-grid__col--8 h-c-grid__col-m--6 h-c-grid__col-l--6
        h-c-grid__col--offset-2 h-c-grid__col-m--offset-3 h-c-grid__col-l--offset-3 uni-click-tracker"&gt;
      &lt;div class="uni-related-article-tout__inner-wrapper"&gt;
        &lt;p class="uni-related-article-tout__eyebrow h-c-eyebrow"&gt;Related Article&lt;/p&gt;

        &lt;div class="uni-related-article-tout__content-wrapper"&gt;
          &lt;div class="uni-related-article-tout__image-wrapper"&gt;
            &lt;div class="uni-related-article-tout__image" style="background-image: url('')"&gt;&lt;/div&gt;
          &lt;/div&gt;
          &lt;div class="uni-related-article-tout__content"&gt;
            &lt;h4 class="uni-related-article-tout__header h-has-bottom-margin"&gt;Améliorer la rapidité et la sécurité de vos déploiements dans le cloud&lt;/h4&gt;
            &lt;p class="uni-related-article-tout__body"&gt;La rapidité et la sécurité des déploiements figurent parmi les principales priorités des organisations qui bâtissent leur IT dans le cloud.&lt;/p&gt;
            &lt;div class="cta module-cta h-c-copy  uni-related-article-tout__cta muted"&gt;
              &lt;span class="nowrap"&gt;Read Article
                &lt;svg class="icon h-c-icon" role="presentation"&gt;
                  &lt;use xmlns:xlink="http://www.w3.org/1999/xlink" xlink:href="#mi-arrow-forward"&gt;&lt;/use&gt;
                &lt;/svg&gt;
              &lt;/span&gt;
            &lt;/div&gt;
          &lt;/div&gt;
        &lt;/div&gt;
      &lt;/div&gt;
    &lt;/a&gt;
  &lt;/section&gt;
&lt;/div&gt;

&lt;/div&gt;</description><pubDate>Tue, 24 May 2022 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</guid><category>Application Modernization</category><category>Cloud Migration</category><category>Data Analytics</category><category>Cloud First</category><category>Developers &amp; Practitioners</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Blog_CloudMigration_B_L8be8Js.max-220.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Libérez le potentiel de vos données sur mainframe avec une approche innovante : la « data-first digitization »</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Blog_CloudMigration_B_L8be8Js.max-220.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/topics/developers-practitioners/liberez-le-potentiel-de-vos-donnees-sur-mainframe/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Aman Gupta</name><title>Enterprise Solutions Specialist, Google Cloud</title><department></department><company></company></author></item><item><title>Gouvernance de données dans le cloud – Partie 2 – Les outils</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-outils/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Seconde partie d’une série dédiée à la « &lt;a href="https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-personnes-et-des-processus"&gt;data governance&lt;/a&gt; », ce billet se focalise sur les technologies et outils permettant d’implémenter une gouvernance des données dans le cloud, telle que nous l’avons décrite dans la &lt;a href="https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-personnes-et-des-processus"&gt;première partie&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;Au-delà d’une nécessaire politique de gouvernance à l’échelle de l’entreprise et de la création d’une équipe dédiée au sujet, la mise en œuvre d’un programme de gouvernance efficace des données doit aussi s’appuyer sur les bons outils. Sécurisation des données à l'automatisation de la surveillance et des alertes, préservation et reporting des audits, découverte des données ou le suivi de leur parcours (data lineage)… de nombreuses technologies doivent être intégrées pour gérer le cycle de vie des données dans sa globalité.&lt;/p&gt;&lt;p&gt;Google Cloud propose un ensemble très complet d’outils qui permettent aux entreprises de gérer leurs données en toute sécurité, d’en assurer la gouvernance et d’en orchestrer la démocratisation. Ces outils se répartissent en plusieurs catégories :&lt;/p&gt;&lt;h3&gt;Sécurité des données&lt;/h3&gt;&lt;p&gt;Une vraie sécurité des données impose d’assurer leur protection à toutes les étapes de leur cycle de vie, autrement dit lorsqu’elles sont générées, acquises, transmises, stockées et même retirées en fin de vie. De multiples stratégies soutenues par différents outils sont utilisées pour à la fois sécuriser les données et identifier/corriger les vulnérabilités à mesure qu’elles se déplacent dans le pipeline de données.&lt;/p&gt;&lt;p&gt;Le &lt;a href="https://cloud.google.com/security-command-center"&gt;Security Command Center&lt;/a&gt; de Google Cloud est un service centralisé de signalement des menaces et des vulnérabilités. Intégré à la plateforme Google Cloud, il aide les entreprises à prévenir, détecter les menaces et corriger les vulnérabilités. Security Command Center peut aussi identifier les mauvaises configurations de sécurité et de conformité de vos ressources Google Cloud et fournir des recommandations essentielles pour résoudre les problèmes mis en évidence.&lt;/p&gt;&lt;h3&gt;Chiffrement des données&lt;/h3&gt;&lt;p&gt;Dans Google Cloud, toute donnée est chiffrée par défaut, qu’elle soit en &lt;a href="https://cloud.google.com/security/encryption-in-transit"&gt;transit&lt;/a&gt; ou au &lt;a href="https://cloud.google.com/security/encryption/default-encryption"&gt;repos&lt;/a&gt;. Tout le trafic entre les machines virtuelles, toutes les connexions à BigQuery, Spark ou Google Functions, et toutes les communications avec les services Google Cloud au sein d’un VPC (et entre VPC) sont également chiffrés par défaut.&lt;/p&gt;&lt;p&gt;Outre ce chiffrement par défaut fourni d’emblée, les clients peuvent également renforcer la sécurité des données en gérant &lt;a href="https://cloud.google.com/kms/docs/cmek"&gt;leurs propres clés de chiffrement&lt;/a&gt; dans Cloud KMS. Et pour aller encore plus loin, &lt;a href="https://cloud.google.com/storage/docs/encryption/client-side-keys"&gt;le chiffrement côté client&lt;/a&gt; est aussi disponible permettant aux entreprises de garder un total contrôle de leurs clés de chiffrement.&lt;/p&gt;&lt;h3&gt;Masquage de données et Tokenisation&lt;/h3&gt;&lt;p&gt;Si le chiffrement des données garantit que les données sont stockées et circulent sous une forme indéchiffrable, les utilisateurs finaux authentifiés sont eux toujours en mesure de voir les données sensibles lorsqu'ils interrogent la base de données ou affichent le contenu d’un fichier.&lt;/p&gt;&lt;p&gt;Plusieurs règlements internationaux exigent une désidentification ou une tokenisation des données privées ou sensibles. C’est typiquement &lt;a href="https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:32016R0679&amp;amp;from=EN#d1e1489-1-1" target="_blank"&gt;le cas du RGPD&lt;/a&gt; qui recommande une pseudonymisation des données privées pour « réduire les risques sur les personnes concernées ». Les données désidentifiées réduisent les obligations de l'organisation en matière de traitement et d'utilisation des données.&lt;/p&gt;&lt;p&gt;La « tokenisation », autre méthode de brouillage (obfuscation) des données, permet d'effectuer des tâches de traitement des données, comme la vérification des transactions par carte bancaire, sans connaître leur véritable valeur, donc sans divulguer le numéro de carte bancaire dans notre exemple. En effet, la tokenisation remplace la valeur originale des données par un jeton (token) unique.&lt;/p&gt;&lt;p&gt;Chiffrement et tokenisation fonctionnent différemment. Les données chiffrées à l'aide de clés peuvent être déchiffrées à l'aide des mêmes clés.&lt;/p&gt;&lt;p&gt;En revanche, les jetons (tokens) sont mis en correspondance avec les données originales dans un serveur de tokenisation. Autrement dit, un acteur malveillant ayant accès au jeton ne peut retrouver la valeur de ce dernier sans accès au serveur de jetons.&lt;/p&gt;&lt;p&gt;La fonction &lt;a href="https://cloud.google.com/dlp"&gt;Cloud DLP&lt;/a&gt; (Cloud Data Loss Prevention) de Google détecte, brouille et dépersonnalise automatiquement les informations sensibles contenues dans les données à l’aide de diverses méthodes telles que &lt;a href="https://cloud.google.com/blog/products/identity-security/take-charge-of-your-data-how-tokenization-makes-data-usable-without-sacrificing-privacy"&gt;le masquage des données ou la tokenisation&lt;/a&gt;. Lors de la création de pipelines de données ou lors du redéploiement de données vers le Cloud, il suffit d’intégrer Cloud DLP pour détecter et dépersonnaliser ou tokeniser automatiquement les données sensibles. Cela permet aux data scientists et aux utilisateurs de créer des modèles ou des rapports en toute liberté tout en minimisant le risque de violation de la conformité.&lt;/p&gt;&lt;h3&gt;Contrôle d’accès granulaire&lt;/h3&gt;&lt;p&gt;BigQuery prend en charge le contrôle des accès à vos données Google Cloud avec une très fine granularité. On peut ainsi créer des règles de contrôle pour limiter l'accès aux &lt;a href="https://cloud.google.com/bigquery/docs/column-level-security"&gt;colonnes&lt;/a&gt; et/ou &lt;a href="https://cloud.google.com/bigquery/docs/row-level-security-intro"&gt;aux lignes&lt;/a&gt; de données dans BigQuery.&lt;/p&gt;&lt;p&gt;En combinant Cloud DLP et le contrôle d'accès au niveau des colonnes et des lignes, il est possible de créer des jeux de données comportant à la fois une version sécurisée (masquée ou chiffrée) des données et une version “lisible” des données en fonction des droits de l’utilisateur. Cela favorise la démocratisation des données dans la mesure où le CDO (Chief Data Officer) peut s’appuyer et faire confiance aux garde-fous du cloud de Google pour autoriser ou non un accès en fonction de l'identité de l'utilisateur, tout en disposant de journaux d'audit garantissant un enregistrement des accès.&lt;/p&gt;&lt;p&gt;Ainsi, les données peuvent aisément être partagées au sein de l'organisation pour effectuer des analyses et construire des modèles d'apprentissage automatique tout en garantissant que les données sensibles restent inaccessibles aux utilisateurs non autorisés.&lt;/p&gt;&lt;h3&gt;Découverte, classification et partage des données&lt;/h3&gt;&lt;p&gt;Il ne peut y avoir d’organisation « data driven » (pilotée par la donnée) sans un moyen de facilement trouver les données.&lt;/p&gt;&lt;p&gt;Les programmes de gouvernance des données s'appuient sur des catalogues de données afin de créer un référentiel d'entreprise de toutes les métadonnées. Ces catalogues permettent aux gestionnaires et aux utilisateurs de données d'ajouter des métadonnées personnalisées, de créer des glossaires métier et de permettre aux analystes et aux scientifiques de rechercher et aisément retrouver les données à analyser. Certains catalogues permettent également aux utilisateurs de demander l'accès aux données directement au sein du catalogue, accès qui peut être approuvé ou refusé en fonction des règles créées par les gestionnaires de données.&lt;/p&gt;&lt;p&gt;Google Cloud propose un catalogue de données entièrement géré et évolutif pour centraliser les métadonnées et prendre en charge la découverte des données. Le &lt;a href="https://cloud.google.com/data-catalog"&gt;Data Catalog&lt;/a&gt; de Google respecte les mêmes contrôles d'accès que ceux dont dispose l'utilisateur sur les données (les utilisateurs ne pourront donc pas rechercher des données auxquelles ils ne peuvent pas accéder). &lt;br/&gt;En outre, Data Catalog est intégré de manière native au cœur même de la data fabric de GCP. Ainsi, il n’est nullement nécessaire d'enregistrer manuellement de nouveaux ensembles de données dans le catalogue : la même technologie de "recherche" que celle qui parcourt le Web y indexe automatiquement toutes données nouvellement créées.&lt;/p&gt;&lt;p&gt;Enfin, Google s'est aussi associé aux principales plateformes de gouvernance des données du marché, telles que Collibra et Informatica, pour fournir un support unifié à tout votre écosystème de données, aussi bien sur site que dans le multicloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/1_Data_governance.max-1000x1000.jpg"
        
          alt="1 Data governance.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Data Lineage (suivi des données)&lt;/h3&gt;&lt;p&gt;Le « data lineage » permet de remonter jusqu'aux sources des données. Les data-scientists peuvent ainsi s'assurer que leurs modèles sont formés sur des données provenant de sources sûres. Et les data-engineers peuvent élaborer de meilleurs tableaux de bord à partir de sources de données connues. Autre usage, le data lineage permet aussi aux produits dérivés d'hériter des politiques des sources de données : ainsi, lorsqu’une source de données utilisée pour créer un modèle ML est marquée comme sensible, ce modèle ML sera lui-même étiqueté comme sensible.&lt;/p&gt;&lt;p&gt;La possibilité de remonter à la source des données et de conserver un journal de toutes les modifications apportées au fur et à mesure que les données progressent dans le pipeline de données permet aux data-owners d’obtenir une image claire du paysage des données. Il est ainsi plus facile d'identifier les données qui ne sont pas suivies par le Data Lineage et de prendre des mesures correctives pour les soumettre à la gouvernance et aux contrôles établis.&lt;br/&gt;Lorsque les données sont dispersées dans des environnements on-prem, cloud ou multicloud, une plateforme centralisée de « data lineage » donne une vue unique sur l'origine des données et sur la façon dont elles se déplacent dans l'entreprise. Ce suivi est impératif pour contrôler les coûts, garantir la conformité, réduire la duplication des données et améliorer leur qualité.&lt;/p&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/data-fusion"&gt;Data Fusion&lt;/a&gt; de Google Cloud fournit un système de suivi des données de bout en bout facilitant la gouvernance et garantissant la conformité. Un système de Data Lineage pour BigQuery peut également être construit en utilisant les journaux d'audit de Google Cloud (&lt;a href="https://cloud.google.com/logging/docs/audit"&gt;Cloud Audit Logs&lt;/a&gt;), le &lt;a href="https://cloud.google.com/data-catalog"&gt;Data Catalog&lt;/a&gt;, &lt;a href="https://cloud.google.com/pubsub"&gt;Pub/Sub&lt;/a&gt; et &lt;a href="https://cloud.google.com/dataflow"&gt;Dataflow&lt;/a&gt;. L'architecture pour construire un tel système de suivi est décrite &lt;a href="https://cloud.google.com/architecture/building-a-bigquery-data-lineage-solution"&gt;ici&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;En outre, le riche écosystème de partenaires de Google comprend des leaders du marché fournissant des fonctionnalités de data lineage aussi bien sur site que dans les clouds, à l’instar de Collibra. Des systèmes open source, tel que &lt;a href="https://atlas.apache.org/#/" target="_blank"&gt;Apache Atlas&lt;/a&gt;, peuvent également être mis en œuvre pour collecter des métadonnées et faire du suivi de données dans Google Cloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/2_Data_governance.max-1000x1000.jpg"
        
          alt="2 Data governance.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Audits&lt;/h3&gt;&lt;p&gt;Il est essentiel de conserver tous les enregistrements des accès aux données à des fins d'audit. Ces audits peuvent être internes ou externes. Les audits internes permettent de s'assurer que l'organisation respecte tous les critères de conformité et de prendre des mesures correctives si nécessaire. Si une organisation opère dans un secteur réglementé ou conserve des informations personnelles, la conservation des enregistrements d'audit est une exigence de conformité.&lt;/p&gt;&lt;p&gt;Les journaux d'audit de Google Cloud (&lt;a href="https://cloud.google.com/logging/docs/audit"&gt;Google Cloud Audit Logs&lt;/a&gt;) peuvent être activés à volonté pour garantir la conformité en cas d’audit. Ils permettent de répondre à la question « qui a fait quoi, où et quand ? » au travers des services Google Cloud.&lt;/p&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/logging"&gt;Cloud Logging&lt;/a&gt; (anciennement Stackdriver) regroupe toutes les données des journaux de votre infrastructure et de vos applications en un seul endroit. Il collecte automatiquement les données des services Google Cloud et vous pouvez alimenter les journaux d'application en utilisant &lt;a href="https://cloud.google.com/logging/docs/agent/logging/configuration"&gt;l'agent Cloud Logging&lt;/a&gt;, FluentD, ou l'&lt;a href="https://cloud.google.com/logging/docs/reference/api-overview"&gt;API Cloud logging&lt;/a&gt;. Les journaux enregistrés dans  Cloud logging peuvent aisément être transmis à GCS (Google Cloud Storage) pour l'archivage, à Bigquery pour des analyses, mais aussi à Pub/Sub pour les partager avec des systèmes tiers externes.&lt;/p&gt;&lt;p&gt;Enfin, &lt;a href="https://cloud.google.com/logging/docs/view/logs-viewer-preview"&gt;Cloud Log Explorer&lt;/a&gt; vous permet de récupérer, d'analyser et de décortiquer facilement les journaux afin de créer des tableaux de bord pour surveiller les données de logs en temps réel.&lt;/p&gt;&lt;h3&gt;Qualité des données&lt;/h3&gt;&lt;p&gt;Avant d’intégrer des données dans leurs processus décisionnels, les organisations doivent s'assurer qu'elles répondent aux normes de qualité établies. Ces normes sont créées par les gestionnaires de données pour leurs domaines de données.&lt;/p&gt;&lt;p&gt;Google Dataprep de Trifacta fournit une interface utilisateur conviviale pour explorer les données et visualiser leur distribution. Les utilisateurs professionnels peuvent utiliser &lt;a href="https://cloud.google.com/dataprep"&gt;Dataprep&lt;/a&gt; pour identifier rapidement les valeurs aberrantes, les doublons et les valeurs manquantes avant que les données ne soient exploitées par des analystes ou des utilisateurs.&lt;/p&gt;&lt;p&gt;Dataplex de GCP permet d'évaluer la qualité des données grâce à des règles déclaratives qui sont exécutées sur une infrastructure serverless. Les propriétaires de données (data-owners) peuvent créer des règles pour trouver les enregistrements en double, garantir l'exhaustivité, l'exactitude et la validité (par exemple, une date de transaction ne peut pas se situer dans le futur). Ils peuvent planifier ces vérifications à l'aide du planificateur de Dataplex ou les inclure dans un pipeline en utilisant les API. Les mesures de la qualité des données sont stockées dans une table BigQuery et/ou sont disponibles dans la journalisation cloud afin d’élaborer ensuite des tableaux de bord avancés et une automatisation plus poussée.&lt;/p&gt;&lt;p&gt;Par ailleurs, les entreprises pourront tirer profit du riche écosystème de partenaires Google pour y retrouver les principaux éditeurs spécialisés sur la qualité des données, telles qu’Informatica et Collibra. Leurs outils de qualité des données sont utilisés pour surveiller les pipelines de données sur site, dans le cloud et sur plusieurs clouds pour identifier les problèmes de qualité et mettre en quarantaine ou corriger les données de qualité insuffisante.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/3_Data_governance.max-1000x1000.jpg"
        
          alt="3 Data governance.jpg"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;h3&gt;Partages d’analyses&lt;/h3&gt;&lt;p&gt;Les organisations qui cherchent à démocratiser les données ont besoin d'une plateforme pour facilement partager et échanger les analyses de données. Un tableau de bord, un rapport ou un modèle élaboré par une équipe est souvent utile à d'autres équipes. Dans les grandes organisations, en l'absence d'un moyen simple de découvrir et de partager ces ressources, le travail est inutilement répété engendrant des coûts plus élevés et des pertes de temps. En outre, l'échange de ressources analytiques permet aux équipes de découvrir plus aisément des problèmes liés aux données, ce qui, au final, contribue à améliorer la fiabilité et la qualité des données dans leur globalité.&lt;br/&gt;&lt;br/&gt;Parallèlement, les organisations cherchent de plus en plus à échanger des ressources analytiques avec des partenaires externes que ce soit pour négocier de meilleurs coûts avec les fournisseurs, créer des flux de trésorerie, etc.&lt;/p&gt;&lt;p&gt;&lt;a href="https://cloud.google.com/analytics-hub"&gt;Analytics Hub&lt;/a&gt; permet aux organisations de partager en toute sécurité leurs actifs analytiques : équipes internes et partenaires peuvent alors « s'abonner » à ces derniers pour en profiter. Analytics Hub est un outil essentiel pour les organisations qui cherchent à démocratiser les données et à les intégrer dans toutes les prises de décision.&lt;/p&gt;&lt;h3&gt;Certificats de conformité&lt;/h3&gt;&lt;p&gt;Avant de pouvoir déployer des données vers le cloud, les organisations doivent s'assurer que toutes les exigences de conformité sont respectées. Une organisation est tenue de se conformer à ces réglementations en fonction de la région dans laquelle elle opère : elle doit se conformer au CCPA en Californie, au GDPR en Europe et au LGPD au Brésil.&lt;br/&gt;Les organisations sont également soumises à des réglementations en raison de leur secteur d’activité spécifique, à l’instar du PCI DSS dans le secteur bancaire, du HIPAA dans le secteur de la santé ou du FedRAMP lorsqu'elles travaillent avec le gouvernement fédéral américain.&lt;/p&gt;&lt;p&gt;Google Cloud possède plus de 100 &lt;a href="https://cloud.google.com/security/compliance"&gt;certifications de conformité&lt;/a&gt; spécifiques à des régions et des secteurs d’activité. Et Google continue d'ajouter régulièrement de nouvelles certifications réglementaires à son portefeuille. Nos équipes dédiées à cette problématique aident les clients à garantir leur conformité lors du redéploiement de leurs données et de leur intégration à Google Cloud.&lt;/p&gt;&lt;h3&gt;Conclusion&lt;/h3&gt;&lt;p&gt;Commencez votre voyage vers la gouvernance des données en explorant &lt;a href="https://cloud.google.com/dataplex"&gt;Dataplex &lt;/a&gt;: cette solution Google permet de gérer et gouverner les données de manière centralisée au sein de votre organisation.&lt;/p&gt;&lt;p&gt;Puis, dans le cadre de la mise en œuvre d’une vraie démocratisation des données, envisagez &lt;a href="https://cloud.google.com/analytics-hub"&gt;Analytics Hub&lt;/a&gt; pour créer un réel échange de données analytiques entre vos équipes et partager facilement vos ressources analytiques.&lt;/p&gt;&lt;p&gt;La sécurité est intégrée à chaque produit Google et les certifications de conformité - qu’elles soient régionales ou liées aux secteurs d'activité - facilitent les redéploiements de données vers le cloud.&lt;/p&gt;&lt;p&gt;Enfin, si vous avez déjà commencé votre voyage dans le cloud, assurez-vous de la haute qualité des données, et de l'accès sécurisé aux données sensibles en profitant non seulement des solutions natives de Google Cloud mais aussi du riche écosystème de solutions partenaires GCP.&lt;/p&gt;&lt;h3&gt;Pour en savoir plus :&lt;/h3&gt;Les responsables de la gouvernance des données de Google ont rassemblé les meilleures pratiques et leurs enseignements en matière de gouvernance des données dans une publication O'Reilly : &lt;a href="https://www.oreilly.com/library/view/data-governance-the/9781492063483/" target="_blank"&gt;Data Governance, The Definitive Guide&lt;/a&gt;&lt;/div&gt;</description><pubDate>Tue, 26 Apr 2022 10:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-outils/</guid><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/8AHnthXVMvRWXfu.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Gouvernance de données dans le cloud – Partie 2 – Les outils</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/8AHnthXVMvRWXfu.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-outils/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Imad Qureshi</name><title>Customer Engineer, Google Cloud</title><department></department><company></company></author></item><item><title>Relever les défis de demain avec Data Cloud Summit 2022</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/relever-les-defis-de-demain-avec-data-cloud-summit-2022/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Google Cloud a aidé des dizaines de milliers d’entreprises à bâtir leur data cloud. Des bases de données aux analyses qui facilitent la prise de décision, en passant par l’IA et le ML pour prédire l’avenir et automatiser les tâches d’aujourd’hui et de demain. Nos solutions permettent d’exploiter toute la puissance des données. Pour créer leur data cloud, les entreprises se sont massivement tournées vers nos outils, reconnus pour leur avancée technologique dans le domaine de l’IA, leur capacité à monter en puissance, une sécurité inégalée des environnements ou encore pour leur performance. Et, de fait, grâce à la puissance de nos outils, nos clients et partenaires ont été les premiers à réellement prendre conscience de la puissance des données pour moderniser une entreprise et disrupter un secteur d’activité.&lt;/p&gt;&lt;p&gt;Le mois prochain, vous pourrez rejoindre ces privilégiés. Venez chercher l’inspiration et la vision d’un futur dans lequel vous transformez votre organisation en une puissante entreprise propulsée par la donnée au&lt;a href="https://cloudonair.withgoogle.com/events/summit-data-cloud-2022" target="_blank"&gt; Data Cloud Summit 2022&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;Rejoignez-nous le&lt;a href="https://cloudonair.withgoogle.com/events/summit-data-cloud-2022" target="_blank"&gt; 6 avril&lt;/a&gt; prochain pour profiter de l’expertise des leaders technologiques et partager l’expérience d’experts en données qui ont déjà utilisé les environnements modernes du data cloud pour innover, résoudre des problèmes et ainsi développer l’activité de leur entreprise. Retrouvez un grand nombre d’intervenants qui vous montreront comment avec les données, l’IA, l'apprentissage automatique et l'analytique, on peut relever les défis de demain. Vous apprendrez également à gérer le cycle de vie des données de votre organisation pour créer de meilleurs produits, servir vos clients plus efficacement, prendre de meilleures décisions et assurer la sécurité de vos données.&lt;/p&gt;&lt;p&gt;Wayfair, PayPal, Walmart, Vodafone et Exabeam… partagez l’expérience de nos clients qui ont déjà transformé leurs entreprises et profitez-en également pour découvrir notre roadmap, présentée par ceux qui l’ont pensée et construite. Vous n’avez pas fini d’être étonnés !&lt;/p&gt;&lt;p&gt;Lors de la session d’ouverture, Gerrit Kazmaier et Anita Kibunguchy-Grant vous montreront comment des entreprises leaders sur leur marché exploitent la puissance de leurs données pour innover à travers de nombreux cas d’usage de l’IA. La session sera suivie d'une séance de questions-réponses en direct.&lt;/p&gt;&lt;p&gt;Sudhir Hasbe abordera les nouveautés prévues par notre roadmap pour nos solutions d’analyse. Accompagné par Sanjay Chaudhary, vice-président de la gestion des produits chez Exabeam, il vous expliquera comment accélérer la transition de votre entreprise vers le cloud.&lt;/p&gt;&lt;p&gt;Andi Gutmans vous dévoilera nos plus récentes innovations en matière de bases de données ainsi que les orientations prises par Google dans ce domaine. Il évoquera également avec Bala Natarajan, Sr. Director of Data Infrastructure and Cloud Engineering chez PayPal comment créer des applications de rupture en mettant en place une stratégie moderne de base de données.&lt;/p&gt;&lt;p&gt;Olivia Burgess et Henry Tappen s'entretiendront également avec Travis Drucker, responsable principal des services informatiques à la Mayo Clinic, et Dale Magnuson, chef de section informatique à la Mayo Clinic, sur la manière dont les entreprises peuvent utiliser Vertex AI pour réunir des informations métier précises et en temps réel au sein d'une interface utilisateur.&lt;/p&gt;&lt;p&gt;Data Cloud Summit 2022 vous proposera également de nombreuses occasions de vous former par la pratique. Maire Newton et Vidya Shanmugam feront ainsi la démonstration de notre approche sécurisée et économique permettant d’analyser et visualiser les données réparties sur plusieurs clouds avec BigQuery Omni et Looker. Leigha Jarett et Gabe Weiss illustreront également comment nos technologies cloud permettent de créer des expériences clients exceptionnelles, et ce de manière simple, ouverte et intégrée pour les développeurs.&lt;/p&gt;&lt;p&gt;Rejoignez-nous et découvrez en avant-première les transformations numériques de nos clients reposant sur l’expertise de partenaires tels que 3.ai, Databricks, Deloitte, Elastic et MongoDB. Vous serez également l'un des premiers à découvrir les nouveautés de produits tels que BigQuery, Data Studio, Looker, Cloud Spanner, Cloud SQL et Vertex AI.&lt;/p&gt;&lt;p&gt;Nous sommes impatients de partager le fruit de notre travail avec vous. Réservez votre place dès aujourd'hui en vous inscrivant sur&lt;a href="https://cloudonair.withgoogle.com/events/summit-data-cloud-2022" target="_blank"&gt; la page d'accueil du Data Cloud Summit&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Thu, 31 Mar 2022 08:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/relever-les-defis-de-demain-avec-data-cloud-summit-2022/</guid><category>Events</category><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Blog-Banner_2880x1200_v12x-1.max-600x600.jpeg" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Relever les défis de demain avec Data Cloud Summit 2022</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Blog-Banner_2880x1200_v12x-1.max-600x600.jpeg</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/relever-les-defis-de-demain-avec-data-cloud-summit-2022/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Dain Hansen</name><title>Marketing Director, AI and Data Cloud</title><department></department><company></company></author></item><item><title>Connecteur BigQuery pour SAP : Optimisez votre stratégie data dans le cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/connecteur-bigquery-pour-sap-optimisez-votre-strategie-data-dans-le-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Les équipes Google Cloud aiment relever les défis technologiques qui font une vraie différence pour les clients. C’est pourquoi nous sommes ravis d’annoncer le lancement de notre&lt;a href="https://cloud.google.com/solutions/sap/docs/bq-connector-for-sap-planning"&gt; connecteur BigQuery pour SAP&lt;/a&gt;. Il s’agit en effet d’un événement majeur pour nos clients utilisateurs de SAP, ce connecteur offrant un moyen rapide, facile et peu coûteux d’intégrer les données SAP dans&lt;a href="https://cloud.google.com/bigquery"&gt; BigQuery&lt;/a&gt;, notre datawarehouse multicloud, serverless, hautement scalable et économique, spécialement pensé pour donner de l’agilité aux entreprises.&lt;/p&gt;&lt;h3&gt;Simplifier l’intégration des données&lt;/h3&gt;&lt;p&gt;Comme la plupart des entreprises, les clients SAP veulent libérer le potentiel des données engrangées dans leurs entrepôts et capitaliser sur cette volumétrie en augmentation constante pour dénicher de nouvelles opportunités. Toutefois, une grande partie d’entre eux découvre rapidement à quel point la première étape d’une approche moderne de la data exploitée dans le cloud peut se révéler difficile à mettre en place. Croiser en temps réel et à grande échelle les données SAP avec d’autres données éparpillées entre le cloud et les systèmes internes est en effet un défi de taille.&lt;/p&gt;&lt;p&gt;Selon une étude SAPInsider de 2020, plus de la moitié des clients SAP interrogés considèrent que cette intégration constitue la principale difficulté rencontrée dans le cadre de leur stratégie d’exploitation des données. Dit autrement, ces entreprises ont un besoin crucial de solution rapide, durable, rentable et évolutive pour intégrer leurs données SAP aux solutions d’analyse cloud modernes.&lt;/p&gt;&lt;p&gt;Et c’est précisément ce que nous proposons avec le connecteur BigQuery pour SAP. Il propose une approche rapide, simple, rentable et très évolutive pour rendre les données SAP accessibles dans BigQuery en tirant parti des compétences et des outils existants de SAP Landscape Transformation Replication Server (SLT). &lt;br/&gt;Notez qu’il s’agit là du premier connecteur SAP SLT direct et quasi temps réel pour BigQuery : aucun déploiement d’infrastructure supplémentaire ou de middlewares tiers n’est nécessaire et le connecteur peut être installé selon différents scénarios de déploiements embarqués ou autonomes. En pratique, la majorité des clients peuvent installer le connecteur BigQuery pour SAP en moins d’une heure. Autrement dit, ils disposent désormais d’un moyen particulièrement facile à mettre en œuvre qui leur permet de profiter de tous les avantages de&lt;a href="https://cloud.google.com/blog/products/data-analytics/google-cloud-a-leader-in-2021-forrester-wave-cloud-data-warehouse"&gt; notre solution cloud d’analyse de données&lt;/a&gt; pour en tirer des&lt;a href="https://inthecloud.withgoogle.com/business-value-report-21/dl-cd.html?_ga=2.30943871.-1388693058.1631721448" target="_blank"&gt; bénéfices métiers prouvés et quantifiables&lt;/a&gt;. Un moyen d’autant plus efficace que le connecteur BigQuery pour SAP n'est pas réservé aux clients ayant déployé leurs applications SAP sur Google Cloud : qu’ils exécutent leurs applications SAP sur site ou dans n'importe autre cloud, ils pourront exploiter notre connecteur et profiter des avantages analytiques de nos solutions cloud.&lt;/p&gt;&lt;h3&gt;Concevoir une solution qui tient compte des besoins et investissements des clients&lt;/h3&gt;&lt;p&gt;Lorsque nous avons commencé à travailler sur cet outil d’intégration, nous avons établi un cahier des charges visant à éliminer tous les points d’achoppement habituels générant de la complexité ou des surcoûts. Voici les points clefs de ce cahier des charges :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;Garantir des performances quasiment temps réel sur les traitements avec des délais de réplication mesurés en millisecondes.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Intégrer les données de presque toutes les applications SAP Netweaver disponibles actuellement, quelle que soit leur localisation (sur site, dans n'importe quel cloud, dans le cloud de Google).&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Mapper automatiquement et avec un minimum de transformations les types de données SAP avec les formats de BigQuery.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Générer lorsque nécessaire les tables cibles dans BigQuery directement à partir de la source.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;S’intégrer à la couche applicative afin d’éviter les problèmes générés par un accès direct aux bases de données.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;Capitaliser sur les compétences SAP, sur les mécanismes de capture des données modifiées (Change Data Capture) et sur l’infrastructure existante de nos clients.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;Nous avons franchi une première étape importante et vérifié la pertinence de ce cahier des charges lorsqu 'Alphabet (société mère de Google) a adopté SAP SLT pour ses propres environnements internes afin de répliquer les données directement entre SAP et BigQuery.&lt;/p&gt;&lt;p&gt;SLT, qui fait partie de la Business Technology Platform de SAP, assure la réplication en temps réel de systèmes SAP ou tiers vers SAP HANA. Cependant, cette solution n’offre pas d’intégration directe avec des cibles comme BigQuery.&lt;/p&gt;&lt;p&gt;Cependant, utiliser SAP SLT pour développer notre connecteur nous est apparu comme l’approche la plus logique, et ce pour plusieurs raisons :&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;p&gt;SLT est déjà très répandu chez les clients SAP qui l’utilisent probablement pour l'intégration de leurs données à des fins d’analyse.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;SLT fonctionne avec presque tous les déploiements actuels d’environnements applicatifs SAP non-SaaS.&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p&gt;SLT procure des performances de réplication en temps réel et à grande échelle.&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;Ayant décelé la valeur immédiate apportée par une intégration directe entre SAP et BigQuery, le choix de SAP SLT pour mettre en place cette approche est rapidement devenu une évidence pour l'équipe d'ingénieurs d'Alphabet.&lt;/p&gt;&lt;p&gt;« Le connecteur BigQuery pour SAP nous a permis de mettre en place une réplication rapide et à faible latence de milliards d'enregistrements provenant de plus de 500 tables stockant nos données financières et de supply chain les plus critiques. Désormais centralisées dans un datalake sous BigQuery, ces données ERP peuvent être combinées avec d'autres sources. Cette architecture offre de nouvelles opportunités en termes d’analyse et de ML qui étaient jusqu’alors impossibles à mettre en place. Elle nous permet d’aller plus loin dans l’exploitation de nos données et d’obtenir des analyses plus approfondies qui favorisent non seulement l'excellence commerciale et opérationnelle mais également la constitution de rapports de gestion, de comptes de résultat, etc. » —Anil Nagalla, Sr. Engineering Director, Financial Systems, Google&lt;/p&gt;&lt;h3&gt;Créer de la valeur en intégrant SAP à BigQuery&lt;/h3&gt;&lt;p&gt;En exploitant SAP SLT, le connecteur BigQuery pour SAP permet d’intégrer des flux de données en temps réel à partir de n'importe quel système SAP, tout en capitalisant sur les investissements réalisés par les clients SAP et leurs compétences existantes.&lt;/p&gt;&lt;p&gt;De fait, le connecteur BigQuery pour SAP se charge automatiquement de la plupart des tâches. Par exemple, il prend en charge automatiquement le processus souvent complexe et à multiples étapes de transformation des données de SAP vers BigQuery : mise en correspondance des transitions de types de données entre les environnements SAP et BigQuery, création d'un schéma de table cible dans BigQuery pour les types de données transformés, construction de la table BigQuery cible et même adaptation du modèle lorsque de nouveaux types de données apparaissent dans l’environnement SAP.&lt;/p&gt;&lt;p&gt;Si vous souhaitez personnaliser le processus, le connecteur BigQuery pour SAP propose bien entendu un vaste éventail d’options. Mais si vous voulez avant tout allez vite afin de décupler le potentiel d’analyse de vos collaborateurs avec un environnement à forte valeur ajoutée, vous allez adorer la rapidité et la facilité avec lesquelles BigQuery pour SAP transforme en jeu d’enfant l’intégration et la gestion de la performance sur de grands volumes de données.&lt;/p&gt;&lt;p&gt;En intégrant leurs jeux de données en temps réel, les entreprises peuvent non seulement générer de la valeur ajoutée pour accroître leur compétitivité mais également entreprendre de nouvelles actions à partir d’analyses qu’elles ne pouvaient pas faire auparavant et qui leur confèrent un véritable avantage concurrentiel.&lt;/p&gt;&lt;p&gt;Outil facilitant le transfert et la transformation de vos données SAP, le connecteur BigQuery pour SAP va insuffler une nouvelle dynamique dans vos architectures data, d’autant que vous pouvez aussi utiliser des solutions comme&lt;a href="https://cloud.google.com/solutions/cortex"&gt; Google Cloud Cortex Framework&lt;/a&gt; pour simplifier vos projets et les faire aboutir rapidement. Ensemble complet d'architectures de référence, d'accélérateurs de déploiement et de services d'intégration, ce framework propose aux clients SAP une approche rapide et complètement transparente pour rentabiliser leurs investissements en analyse de données.&lt;/p&gt;&lt;p&gt;En d’autres termes, plus vous aurez de données SAP disponibles dans Google Cloud, plus vous pourrez obtenir des analyses pertinentes à partir des solutions mises en place. Analyses qui vous ouvriront de nouvelles perspectives et peuvent potentiellement changer la donne.&lt;/p&gt;&lt;h3&gt;Pour en savoir plus sur le connecteur BigQuery pour SAP&lt;/h3&gt;&lt;p&gt;Prêts à exploiter&lt;a href="https://cloud.google.com/solutions/cortex"&gt; le potentiel de vos données SAP sur Google Cloud &lt;/a&gt;? Installez le connecteur&lt;a href="https://cloud.google.com/solutions/sap/docs/bq-connector-for-sap-install-config"&gt; BigQuery pour SAP de Google Cloud&lt;/a&gt; et boostez la stratégie data de votre entreprise grâce à un connecteur qui rend votre démarche plus rapide, simple et évolutive.  &lt;/p&gt;&lt;/div&gt;</description><pubDate>Tue, 15 Feb 2022 10:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/connecteur-bigquery-pour-sap-optimisez-votre-strategie-data-dans-le-cloud/</guid><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_Data_Analytics_5I5zzaa.max-2200.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Connecteur BigQuery pour SAP : Optimisez votre stratégie data dans le cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_Data_Analytics_5I5zzaa.max-2200.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/connecteur-bigquery-pour-sap-optimisez-votre-strategie-data-dans-le-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Mike Eacrett</name><title>Senior Product Manager</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sujan Gade</name><title>Engineering Manager, Google</title><department></department><company></company></author></item><item><title>Gouvernance de données dans le cloud – Partie 1 – Des personnes et des processus</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-personnes-et-des-processus/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;La gouvernance des données pour mieux gérer ses données dans le cloud, c’est ainsi que nous pourrions résumer ce nouveau billet de blog en deux parties. Celui-ci nous offre ainsi l’opportunité d’aborder non seulement le modèle opérationnel qui est indépendant des technologies - qu'elles soient sur site ou dans le cloud – mais également les processus permettant de garantir la gouvernance et, enfin, les technologies disponibles pour garantir une bonne gouvernance des données dans le cloud.&lt;/p&gt;&lt;p&gt;Dans cette première partie, nous souhaitons ainsi aborder le rôle de la gouvernance des données, les raisons de son importance et les processus à mettre en œuvre pour gérer un programme efficace.&lt;/p&gt;&lt;p&gt;Dans une seconde partie, nous nous plongerons dans les outils et les technologies disponibles pour mettre en œuvre différents processus de gouvernance des données tels que la qualité des données, la découverte des données, le suivi de l'historique et la sécurité.&lt;/p&gt;&lt;p&gt;Pour une approche plus approfondie et exhaustive de ce sujet, nous vous invitons à consulter notre guide &lt;a href="https://www.fnac.com/livre-numerique/a15790544/Valliappa-Lakshmanan-Data-Governance-The-Definitive-Guide" target="_blank"&gt;Data Governance : People, Processes, and Tools to Operationalize Data Trustworthiness&lt;/a&gt; (Gouvernance des données : Les gens, les processus et les outils pour opérationnaliser la fiabilité des données) .&lt;/p&gt;&lt;h3&gt;Qu'est-ce que la gouvernance des données ?&lt;/h3&gt;&lt;p&gt;La gouvernance des données est une « fonction » de la gestion des données. D’une part, elle vise à créer de la valeur pour l'organisation en mettant en œuvre des processus pour garantir une qualité élevée des données. D’autre part, elle fournit une plateforme qui facilite le partage des données en toute sécurité dans l'organisation tout en garantissant la conformité avec les réglementations en vigueur.&lt;/p&gt;&lt;p&gt;Dit autrement, l'objectif principal de la gouvernance des données est à la fois de maximiser la valeur intrinsèque des données, d'instaurer la confiance des utilisateurs et de garantir la conformité en mettant en œuvre les mesures de sécurité requises.&lt;/p&gt;&lt;p&gt;Cette gouvernance des données doit être mise en place dès qu'une information est collectée ou générée et se prolonger jusqu'au moment où ces informations sont supprimées. Au cours de ce cycle de vie complet des données, leur gouvernance s'attache à les mettre à la disposition de toutes les parties prenantes de sorte qu’elles soient facilement accessibles, qu'elles puissent être utilisées de manière à générer les résultats business escomptés (informations, analyses) tout en se conformant aux normes réglementaires. Ces dernières sont souvent un croisement de règles et de codes de comportement émis par l'industrie (par exemple, les soins de santé), les gouvernements (par exemple, la vie privée) et l'entreprise elle-même (par exemple, pratiques non partisanes).&lt;/p&gt;&lt;p&gt;Pour plus de détails,&lt;a href="https://cloud.google.com/learn/what-is-data-governance"&gt; cliquez ici&lt;/a&gt;.&lt;/p&gt;&lt;h3&gt;Pourquoi la gouvernance des données est-elle importante ?&lt;/h3&gt;&lt;p&gt;Au cours de la dernière décennie, la quantité de données générées par les utilisateurs depuis leurs téléphones mobiles, leurs dispositifs de santé ou de fitness et leurs appareils IOT, etc. a provoqué une croissance exponentielle des données. Dans le même temps, le cloud a facilité la collecte, le stockage et l'analyse de ces données à moindre coût. Alors que le volume de données et l'adoption du cloud continuent de croître, les organisations sont confrontées à un double défi : démocratiser et intégrer les données dans toutes les prises de décision mais aussi veiller à ce qu'elles soient sécurisées et protégées contre toute utilisation non autorisée.&lt;/p&gt;&lt;p&gt;Un programme efficace de gouvernance des données se révèle nécessaire pour relever ces défis d’une part en faisant en sorte que l'organisation soit centrée sur la donnée et, d'autre part, en protégeant les données contre toute utilisation non autorisée. Les organisations qui ne disposent pas d'un programme efficace de gouvernance seront à l’avenir confrontées à la fois à des violations de la conformité (entraînant des amendes), à une mauvaise qualité des données (qui se traduit par des informations de moindre qualité et donc de moindre pertinence pour le business de l’entreprise), à des difficultés pour trouver les bonnes données (ce qui retarde l'analyse et peut faire manquer des opportunités commerciales), à des modèles de données mal formés pour l'IA (ce qui réduit la précision des modèles et les avantages de l'utilisation de l'IA).&lt;/p&gt;&lt;p&gt;Une stratégie efficace de gouvernance des données englobe &lt;b&gt;les personnes, les processus, les outils et les technologies&lt;/b&gt;. Elle favorise la démocratisation des données pour les intégrer dans toutes les prises de décision, renforce la confiance des utilisateurs, augmente la valeur de la marque, réduit les risques de violations de la conformité qui peuvent entraîner des amendes substantielles et des pertes d'activité.&lt;/p&gt;&lt;h2&gt;De quoi se compose une vraie gouvernance des données ?&lt;/h2&gt;&lt;h3&gt;Les personnes et rôles dans la gouvernance des données&lt;/h3&gt;&lt;p&gt;Un programme complet de gouvernance des données commence par la création d’un conseil de gouvernance composé de dirigeants représentant chaque unité métier de l'organisation. Ce conseil établit les grands principes directeurs régissant la façon dont les données seront utilisées pour prendre des décisions business.&lt;/p&gt;&lt;p&gt;En appui sur l’expertise de personnes clés de chaque métier, le conseil identifie les différents domaines de données (data domains) : par exemple client, produit, patient, fournisseur…. Puis, pour chaque domaine ainsi défini, il veille à attribuer les rôles de « propriétaires des données » (data ownership) et de « gérant des données » (data stewardship). Il s'agit de rôles fondamentaux : chaque élu est tenu responsable de - et récompensé en conséquence pour - la réalisation des objectifs fixés par le conseil de gouvernance des données. Les propriétaires et gérants des données sont désignés par les métiers. Typiquement, le propriétaire des données clients peut être issu du marketing ou des ventes, le propriétaire des données financières peut être issu du département financier et le propriétaire des données RH peut être issu du département Ressources Humaines.&lt;/p&gt;&lt;p&gt;La DSI joue quant à elle le rôle de gardien des données. Elle s'assure que les données sont acquises, protégées, stockées et partagées conformément aux politiques spécifiées par les propriétaires des données. En tant que dépositaire des données, la DSI ne prend pas les décisions concernant l'accès aux données ou leur partage. Son rôle se limite à gérer la technologie pour soutenir la mise en œuvre des politiques de gestion des données définies par les propriétaires des données.&lt;/p&gt;&lt;h3&gt;Les processus de gouvernance des données&lt;/h3&gt;&lt;p&gt;Chaque organisation doit mettre en place des processus pour atteindre les objectifs fixés par le conseil de gouvernance des données. Ces processus sont établis par les propriétaires des données et les gérants des données pour chacun de leurs domaines de données.&lt;/p&gt;&lt;p&gt;Les processus se focalisent sur les objectifs suivants :&lt;/p&gt;&lt;p&gt;1. &lt;b&gt;La qualité des données&lt;/b&gt;. Les données doivent répondre aux normes de qualité spécifiées : par exemple, 98% d'exhaustivité, pas plus de 0,1% de valeurs en double, 99,99% de données cohérentes entre les différentes tables ou encore les critères pour mesurer une livraison dans les délais.&lt;/p&gt;&lt;p&gt;2. Les politiques de sécurité des données pour garantir la conformité aux politiques internes et externes.&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ol&gt;&lt;li&gt;Les données sont &lt;b&gt;chiffrées&lt;/b&gt; au repos comme lors des transferts.&lt;/li&gt;&lt;li&gt;L'accès aux données est &lt;b&gt;limité&lt;/b&gt; aux seuls utilisateurs autorisés.&lt;/li&gt;&lt;li&gt;Tous les champs de données sensibles sont &lt;b&gt;expurgés ou chiffrés/déchiffrés&lt;/b&gt; dynamiquement et uniquement pour les utilisateurs autorisés.&lt;/li&gt;&lt;li&gt;Les données peuvent être jointes pour l'analyse sous une forme dépersonnalisée ou anonymisée, par exemple en utilisant un chiffrement déterministe ou un hachage.&lt;/li&gt;&lt;li&gt;Des audits sont disponibles pour tous les accès autorisés ainsi que pour les tentatives d’accès non autorisés.&lt;/li&gt;&lt;/ol&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;3. Le &lt;b&gt;partage des données&lt;/b&gt; avec des partenaires externes est disponible en toute sécurité via des API.&lt;/p&gt;&lt;p&gt;4. La conformité avec les &lt;b&gt;réglementations sectorielles et géographiques&lt;/b&gt; spécifiques, par exemple RGPD, HIPAA, PCI DSS, CCPA, LGPD.&lt;/p&gt;&lt;p&gt;5. La &lt;b&gt;réplication des données&lt;/b&gt; qui doit être minimisée&lt;/p&gt;&lt;p&gt;6. La &lt;b&gt;découverte centralisée des données&lt;/b&gt; pour les utilisateurs via des catalogues de données.&lt;/p&gt;&lt;p&gt;7. Le traçage de l'&lt;b&gt;historique des données&lt;/b&gt; pour identifier les problèmes de qualité des données, les sources de réplication des données et faciliter les audits.&lt;/p&gt;&lt;h3&gt;Les technologies&lt;/h3&gt;&lt;p&gt;La mise en œuvre des processus tels que spécifiés dans le programme de gouvernance des données nécessite l'utilisation de technologies adéquates. Qu'il s'agisse de sécuriser les données, de conserver les audits et d'en faciliter l’analyse, ou d'automatiser la surveillance et les alertes, de multiples technologies doivent être intégrées à la plateforme de gouvernance pour gérer les données durant tout leur cycle de vie.&lt;/p&gt;&lt;p&gt;Google Cloud propose un ensemble complet d'outils permettant aux organisations de gérer leurs données en toute sécurité et de favoriser leur démocratisation.&lt;a href="https://cloud.google.com/data-catalog"&gt; Data Catalog&lt;/a&gt; permet aux utilisateurs de trouver et retrouver facilement des données à partir d'un seul endroit centralisé dans Google Cloud.&lt;a href="https://cloud.google.com/data-fusion"&gt; Data Fusion&lt;/a&gt; assure le suivi du lignage afin que les propriétaires de données puissent retracer les données à chaque étape de leur cycle de vie et résoudre les problèmes susceptibles de les corrompre.&lt;a href="https://cloud.google.com/logging/docs/audit"&gt; Cloud Audit Logs&lt;/a&gt; archive les audits nécessaires à la conformité.&lt;a href="https://cloud.google.com/dataplex"&gt; Dataplex&lt;/a&gt; fournit une gestion intelligente des données, une sécurité et une gouvernance centralisées, une découverte automatique des données, une collecte des métadonnées, une gestion du cycle de vie et une qualité des données grâce à une intelligence intégrée pilotée par l'IA.&lt;/p&gt;&lt;p&gt;Nous aborderons plus en détail, dans la seconde partie de ce billet de blog, l'utilisation de ces outils et technologies nécessaires à la mise en œuvre d’une gouvernance des données dans le cloud.&lt;/p&gt;&lt;/div&gt;</description><pubDate>Wed, 09 Feb 2022 10:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-personnes-et-des-processus/</guid><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Gouvernance de données dans le cloud – Partie 1 – Des personnes et des processus</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/gouvernance-de-donnees-dans-le-cloud-des-personnes-et-des-processus/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Imad Qureshi</name><title>Customer Engineer, Google Cloud</title><department></department><company></company></author></item><item><title>Google classé parmi les leaders de la gestion des bases de données dans le cloud selon le Magic Quadrant du Gartner 2021</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/google-classe-parmi-les-leaders-de-la-gestion-des-bases-de-donnees-dans-le-cloud-selon-le-magic-quadrant-du-gartner-2021/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Nous sommes très fiers d’avoir été classés par Gartner, pour la seconde année consécutive, parmi les leaders des systèmes de gestion de bases de données (SGBD) en mode cloud.&lt;/p&gt;&lt;/div&gt;
&lt;div class="block-image_full_width"&gt;






  
    &lt;div class="article-module h-c-page"&gt;
      &lt;div class="h-c-grid"&gt;
  

    &lt;figure class="article-image--large
      
      
        h-c-grid__col
        h-c-grid__col--6 h-c-grid__col--offset-3
        
        
      "
      &gt;

      
      
        
        &lt;img
            src="https://storage.googleapis.com/gweb-cloudblog-publish/images/gartner_DBMS_MQ_2021.max-600x600.jpg"
        
          alt="gartner_DBMS_MQ_2021"&gt;
        
        &lt;/a&gt;
      
    &lt;/figure&gt;

  
      &lt;/div&gt;
    &lt;/div&gt;
  




&lt;/div&gt;
&lt;div class="block-paragraph"&gt;&lt;p&gt;Dans le cadre de ce rapport, Gartner a évalué les capacités de Google sur des cas d’usages transactionnels et analytiques. Nous sommes convaincus que ce classement salue l’innovation et les progrès que nous avons réalisés en matière de gestion de la cohérence des données, de traitement et d’ingestion à haute vitesse, de sécurité, d’élasticité ou encore d’analyse avancée.&lt;/p&gt;&lt;p&gt;Depuis l’annonce récente de&lt;a href="https://cloud.google.com/dataplex"&gt; Dataplex&lt;/a&gt;, les entreprises peuvent gérer, superviser et gouverner leurs données de manière centralisée, avec des contrôles cohérents, qu’elles soient situées dans des datalakes, des datawarehouses ou des datamarts. Reposant sur des technologies innovantes, des solutions telles que BigQuery ML proposent une approche globale pour réaliser des analyses avancées tandis que&lt;a href="https://cloud.google.com/blog/products/data-analytics/introducing-analytics-hub-for-data-analytics-exchanges"&gt; Analytics Hub&lt;/a&gt; fournit l’infrastructure nécessaire pour permettre aux utilisateurs de partager des solutions d’analyse en toute sécurité et à grande échelle. À titre d’exemple,&lt;a href="https://cloud.google.com/blog/products/data-analytics/introducing-analytics-hub-for-data-analytics-exchanges"&gt; plus de 3 000 organisations différentes ont partagé plus de 200 pétaoctets de données&lt;/a&gt; sur une période de sept jours en avril dernier au travers de BigQuery.&lt;/p&gt;&lt;p&gt;Des études montrent que&lt;a href="https://www.crn.com/slide-shows/cloud/4-key-cloud-trends-that-will-influence-2021/2#:~:text=About%2090%20percent%20of%20enterprises,a%20single%20private%20cloud%20strategy." target="_blank"&gt; 90 % des entreprises&lt;/a&gt; ont une stratégie multicloud. Et cette réalité ne nous a pas échappé. Avec l’introduction de BigQuery Omni, nous proposons une véritable solution d'analyse de données multicloud pour Google Cloud, AWS et Azure. Parallèlement, les progrès réalisés avec Anthos et notre&lt;a href="https://cloud.google.com/blog/topics/hybrid-cloud/announcing-google-distributed-cloud-edge-and-hosted"&gt; Distributed Cloud&lt;/a&gt; au cours de l’année écoulée viennent renforcer notre capacité à servir des scénarios multicloud et hybrides.&lt;/p&gt;&lt;p&gt;Pour obtenir un avantage concurrentiel grâce aux données, les entreprises ont besoin d'une plateforme qui transcende les workloads transactionnels et analytiques tout offrant les meilleures garanties en termes de fiabilité, de disponibilité et de sécurité.&lt;a href="https://cloud.google.com/spanner"&gt; Cloud Spanner&lt;/a&gt;, notre base de données relationnelle entièrement distribuée, a complètement révolutionné la capacité à monter en puissance, la cohérence globale et la disponibilité des systèmes de traitement des transactions en ligne (OLTP). Testé avec des applications particulièrement exigeantes, comme des services Google tels que Search, YouTube, Gmail, Maps et Payments, Spanner peut assimiler et réaliser plus d'un milliard de requêtes par seconde en période de pics d’activité.&lt;br/&gt;Autre spécificité unique sur le marché,&lt;a href="https://cloud.google.com/spanner"&gt; Spanner&lt;/a&gt; et&lt;a href="https://cloud.google.com/bigquery"&gt; BigQuery&lt;/a&gt; reposent sur une infrastructure commune dont notre système de fichiers distribués à très haute disponibilité (Colossus), notre système de gestion de clusters à grande échelle (Borg) et notre infrastructure de réseau haute performance (Jupiter), permettant des fonctionnalités avancées telles que la fédération entre Spanner et BigQuery. Cette innovation permet d’enrichir le panel de fonctionnalités avec, par exemple, la possibilité d’effectuer des requêtes fédérées : la fédération de BigQuery et Spanner permet par exemple à BigQuery d'interroger les données résidant dans Spanner en temps réel, sans avoir à les copier, ni à les déplacer.&lt;/p&gt;&lt;p&gt;Nous restons focalisés sur l'intégration de Google Trends, Maps, Search et Ads. Parallèlement, nous avons renforcé notre expertise sectorielle dans des domaines tels que le commerce de détail, les services financiers, la santé et les jeux en ligne. Nous continuons à publier des livres blancs sectoriels tels que&lt;a href="https://services.google.com/fh/files/misc/develop_global_multiplayer_games_using_cloud_spanner.pdf" target="_blank"&gt; How to develop Global Multiplayer Games using Cloud Spanner&lt;/a&gt; (Comment développer des jeux multi-joueurs mondiaux à l'aide de Cloud Spanner). Nous sommes également fiers du travail accompli par l'équipe pour créer et partager des&lt;a href="https://cloud.google.com/blog/products/data-analytics/accelerate-time-to-value-with-google-cloud-design-patterns"&gt; modèles d'architecture&lt;/a&gt; sectoriels et horizontaux, élaborés par des leaders de l’industrie afin d’aider nos clients à aller plus vite dans leurs mises en œuvre.&lt;/p&gt;&lt;h3&gt;Une dynamique d’innovation soutenue sur fond de cloud unifié et d’open data&lt;/h3&gt;&lt;p&gt;Nous poursuivons nos efforts d’innovation sur l’ensemble de nos solutions cloud autour de la donnée, notamment avec les annonces effectuées lors de&lt;a href="https://cloud.google.com/blog/products/data-analytics/google-cloud-unveils-5-new-data-cloud-capabilities"&gt; Google Cloud NEXT'21&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;Ainsi, BigQuery Omni est désormais disponible pour AWS et Azure, ce qui permet aux clients d'effectuer des analyses inter-cloud.&lt;/p&gt;&lt;p&gt;Nous avons ajouté dans Dataplex, récemment passé en GA, des fonctionnalités supplémentaires pour la gestion et la gouvernance des données d'entreprise.&lt;/p&gt;&lt;p&gt;Nous avons facilité et accéléré les migrations vers Cloud SQL avec&lt;a href="https://cloud.google.com/database-migration"&gt; Database Migration Service&lt;/a&gt; (notre service de migration de bases de données). Plus de 85 % de toutes les migrations sont effectuées en moins d'une heure, la majorité des clients migrant leurs bases de données depuis d'autres clouds.&lt;/p&gt;&lt;p&gt;Avec une nouvelle interface PostgreSQL, Spanner fait preuve d’ouverture, ce qui permet aux entreprises de tirer parti de ses capacités à monter en charge inégalées, de sa disponibilité à 99,999 % et de sa forte cohérence tout en utilisant les compétences et les outils répandus de l’écosystème PostgreSQL.&lt;/p&gt;&lt;p&gt;Nous automatisons également le traitement des données avec&lt;a href="https://cloud.google.com/solutions/spark"&gt; Spark on Google Cloud&lt;/a&gt;, de sorte que les développeurs consacrent moins de temps à la gestion de l'infrastructure et plus de temps à la science des données, à la modélisation et à la création de valeur métier.&lt;/p&gt;&lt;p&gt;Enfin, nous avons annoncé&lt;a href="https://earthengine.google.com/" target="_blank"&gt; Google Earth Engine&lt;/a&gt; on Google Cloud, qui permet aux clients d'intégrer Earth Engine à BigQuery, aux technologies ML de Google Cloud et à la plateforme Google Maps. &lt;/p&gt;&lt;p&gt;Grâce à ces innovations, des entreprises comme PayPal, Deutsche Bank et Equifax utilisent déjà Google Cloud pour gérer l’intégralité du cycle de vie des données de leurs différents projets.&lt;/p&gt;&lt;p&gt;Des organisations comme&lt;a href="https://cloud.google.com/customers/telefonica?utm_source=linkedin&amp;amp;utm_medium=unpaidsoc&amp;amp;utm_campaign=fy21q4-googlecloud-blog-roi-infeed-no-brand-global&amp;amp;utm_content=telefonica-story&amp;amp;utm_term=-&amp;amp;linkId=138716585"&gt; Telefónica&lt;/a&gt; utilisent Google Cloud pour offrir de nouvelles expériences à leurs clients: stockage, partage, analyse… Telefónica a intégralement transformé sa gestion des données tout en doublant sa puissance de traitement et en réduisant les coûts.&lt;/p&gt;&lt;p&gt;Parallèlement, nous continuons à soutenir un écosystème ouvert de partenaires autour de la donnée, dont Informatica, Tableau, MongoDB, Neo4j, C3.ai et Databricks. Nous évitons ainsi de les enfermer dans une approche spécifique en leur proposant un vaste éventail de choix pour leurs data clouds.&lt;/p&gt;&lt;p&gt;C’est pourquoi nous sommes fiers d’être classés dans les leaders Magic Quadrant Gartner 2021 pour les « Cloud Database Management Systems ». Et nous nous réjouissons d’avance à l’idée de continuer à innover pour toujours mieux vous accompagner dans votre transformation numérique.&lt;/p&gt;&lt;p&gt;Vous pouvez télécharger le rapport de Gartner ici :  &lt;a href="https://cloud.google.com/resources/gartner-dbms-mq-2021-report"&gt;2021 Gartner Magic Quadrant for Cloud Database Management Systems.&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Si vous souhaitez en savoir davantage sur la façon dont les entreprises utilisent les solutions de Google Cloud pour construire leurs clouds de données, cliquez&lt;a href="https://cloud.google.com/data-cloud"&gt; ici&lt;/a&gt;. &lt;/p&gt;&lt;/div&gt;</description><pubDate>Fri, 14 Jan 2022 10:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/google-classe-parmi-les-leaders-de-la-gestion-des-bases-de-donnees-dans-le-cloud-selon-le-magic-quadrant-du-gartner-2021/</guid><category>Google Cloud</category><category>Data Analytics</category><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Google classé parmi les leaders de la gestion des bases de données dans le cloud selon le Magic Quadrant du Gartner 2021</title><description></description><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/google-classe-parmi-les-leaders-de-la-gestion-des-bases-de-donnees-dans-le-cloud-selon-le-magic-quadrant-du-gartner-2021/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Sudhir Hasbe</name><title>Sr. Director of Product Management, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Andi Gutmans</name><title>VP/GM, Data Cloud, Google Cloud</title><department></department><company></company></author></item><item><title>Ingestion des données : les grands principes de Google Cloud</title><link>https://cloud.google.com/blog/fr/products/analyse-de-donnees/ingestion-des-donnees-les-grands-principes-de-google-cloud/</link><description>&lt;div class="block-paragraph"&gt;&lt;p&gt;Partout dans le monde, les entreprises prennent progressivement conscience des avantages à abandonner les anciennes infrastructures de données silotées au profit de datawarehouse d’entreprises dans le cloud. Parmi ces avantages, on retiendra notamment une collaboration simplifiée entre les métiers et une exploitation inédite de données avec de nouveaux enseignements à la clef.&lt;/p&gt;&lt;p&gt;Toutefois, la migration de ces données provenant de sources disparates vers un datawarehouse unique suppose la mise en œuvre de pipelines qui permettent d’ingérer les données et de les injecter dans le datawarehouse cloud.&lt;/p&gt;&lt;p&gt;Traditionnellement, les data ingénieurs s’appuyaient sur différents outils pour réaliser l’opération. Ce qui complexifiait de manière significative la gestion et la maintenance des pipelines et freinait le développement d’une stratégie d’exploitation des données efficace à l’échelle de l’entreprise. Beaucoup des défis rencontrés alors par les entreprises peuvent aujourd’hui être dépassés avec la création de pipelines nativement cloud. Toutefois, s’ils sont mal conçus, ils risquent de poser de nouveaux problèmes qui feront perdre du temps et de l’énergie à vos équipes.&lt;/p&gt;&lt;p&gt;Développer des pipelines cloud d’ingestion qui répliquent les données de sources éparses dans un entrepôt cloud peut demander un travail significatif et monopoliser des ressources humaines importantes. On peut rapidement être débordé par un projet aussi vaste et ce n’est jamais facile de savoir par où commencer.&lt;/p&gt;&lt;p&gt;C’est pourquoi nous avons défini les six principes suivants pour vous aider à mieux appréhender le processus. Ces principes ont été élaborés de façon à vous permettre de répondre aux principales questions que se posent les entreprises. Ils ont été conçus pour vous aider à mettre en place des pipelines qui répondent non seulement aux besoins métier mais aussi aux réalités techniques. Chaque section ci-dessous aborde un principe en détail et souligne certains éléments que vos équipes doivent prendre en compte quand elles commencent à développer un pipeline de données.&lt;/p&gt;&lt;h3&gt;Principe 1 : Des objectifs clairement identifiés&lt;/h3&gt;&lt;p&gt;Avant de développer un pipeline, vous devez clarifier vos objectifs. Il vous faudra adopter une approche holistique prenant en compte les contraintes et points de vue de chacun dans l’entreprise : équipes techniques mais aussi exigences réglementaires et politiques internes, cibles à atteindre, objectifs business, délais, ressources humaines disponibles et compétences requises sans oublier les besoins des utilisateurs des données.&lt;/p&gt;&lt;p&gt;Cette clarification des objectifs permet d’identifier et de définir de manière précise les contraintes et besoins des parties prenantes dès le début du projet et de vérifier pendant tout le cycle de développement que les pipelines construits répondent bien aux exigences de chacun.&lt;/p&gt;&lt;p&gt;Pour ce faire, vous devez définir l’objectif à atteindre pour chaque projet en partant du besoin métier exprimé par les utilisateurs finaux des données. N’oubliez pas que le pipeline n’est généralement pas l’objectif mais le moyen d’atteindre l’objectif !&lt;/p&gt;&lt;p&gt;« Permettre aux équipes d’avoir une meilleure connaissance des clients en leur donnant accès aux données du CRM via l’entrepôt cloud » est un meilleur exemple de définition d’objectif à atteindre qu’un simple « déplacer les données de notre CRM vers l’entrepôt cloud ». En termes de sémantique, la différence peut sembler négligeable. Mais définir l’objectif en partant des besoins métier peut aider vos équipes techniques à prendre de meilleures décisions pour répondre aux besoins réels des utilisateurs.&lt;/p&gt;&lt;p&gt;Une fois la problématique métier à résoudre clairement identifiée, faites en sorte de faciliter la collecte des exigences de chaque partie prenante et utilisez ces informations pour guider le développement technique et l’implémentation des pipelines d’ingestion. &lt;/p&gt;&lt;p&gt;Avant de développer, nous vous conseillons de réunir les membres des équipes de chaque partie prenante, utilisateurs finaux des données compris, afin de recueillir toutes les exigences qui guideront ensuite l’implémentation technique du pipeline. Parmi ces exigences à prendre en compte, on peut notamment citer les contraintes de délais et de disponibilité, la fréquence d’actualisation des données, les besoins en transformation, l’impact sur la chaine DevOps et sur la politique de sécurité ou encore les règles internes ou exigences réglementaires à respecter par le pipeline.&lt;/p&gt;&lt;h3&gt;Principe 2 : Constituer son équipe&lt;/h3&gt;&lt;p&gt;Second principe, assurez-vous d’avoir la bonne équipe, autrement dit que vous disposez des bonnes personnes avec les bonnes compétences aux bons endroits pour développer, déployer et maintenir vos pipelines.&lt;/p&gt;&lt;p&gt;Une fois les besoins déterminés pour vos pipelines, vous pouvez commencer à élaborer une synthèse de l’architecture qui sera mise en place pour les construire et les déployer. Cela vous permettra de lister les compétences dont vous aurez besoin au sein de votre équipe pour construire, déployer et gérer les pipelines de données et potentiellement d’identifier des manques à certains endroits impliquant soit le recrutement de nouveaux talents au sein de votre équipe, soit de faire appel à des prestataires.&lt;/p&gt;&lt;p&gt;Vous devez non seulement vous assurer que vous disposez des bonnes compétences mais également mettre en place une organisation qui permettra à chacun d’exploiter ses capacités au maximum. Dit autrement, cette organisation doit non seulement favoriser la responsabilisation de chaque équipe mais aussi faire en sorte que chacune puisse apporter son soutien aux autres en fonction des besoins.   &lt;/p&gt;&lt;p&gt;Cette approche implique également des processus fluides, sans freins qui pourraient bloquer le développement technique. Typiquement, les équipes techniques doivent disposer de toutes les autorisations nécessaires pour déplacer les données de la source vers l’entrepôt cloud sans violer le concept de « &lt;a href="https://cloud.google.com/blog/products/identity-security/dont-get-pwned-practicing-the-principle-of-least-privilege"&gt;moindre privilège &lt;/a&gt;». En plus de l’accès à l’entrepôt cloud, les développeurs doivent pouvoir accéder aux sources des données (selon les besoins du pipeline et de l’architecture). À titre d’exemple, les développeurs doivent avoir les droits pour se connecter aux API « &lt;a href="https://help.salesforce.com/articleView?id=connected_app_overview.htm&amp;amp;type=5" target="_blank"&gt;Salesforce Connected App&lt;/a&gt; » ou encore pour lire les champs de données de « &lt;a href="https://cloud.google.com/bigquery-transfer/docs/sa360-transfer"&gt;Search Ads 360&lt;/a&gt; ».&lt;/p&gt;&lt;h3&gt;Principe 3 : Rechercher un ROI rapide&lt;/h3&gt;&lt;p&gt;Troisième principe, créez de la valeur rapidement. Dans cette perspective, il est important de prendre en compte la charge de maintenance sur le long terme du pipeline avant de commencer à développer tout en livrant une première version aussi rapidement que possible.&lt;/p&gt;&lt;p&gt;Nous préconisons généralement la règle d’or suivante pour concevoir des pipelines avec des besoins en maintenance réduits : &lt;b&gt;écrivez aussi peu de code que possible&lt;/b&gt;.&lt;/p&gt;&lt;p&gt;En pratique, cela signifie :&lt;/p&gt;&lt;p&gt;1. Privilégiez les outils proposant une interface visuelle pour gérer l’ingestion des données. Ces outils présentent l’avantage de réduire la quantité de code nécessitant une maintenance. Ils permettent également aux utilisateurs qui ne sont pas des développeurs de créer leurs pipelines de données.&lt;/p&gt;&lt;p&gt;Au passage, ils réduisent aussi les délais de développement des pipelines, ce qui permet non seulement de les déployer plus vite mais aussi de les faire évoluer plus rapidement.&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ul&gt;&lt;li&gt;Des solutions comme&lt;a href="https://cloud.google.com/bigquery-transfer/docs/introduction"&gt; Google Data Transfer Service&lt;/a&gt; et&lt;a href="https://fivetran.com/" target="_blank"&gt; Fivetran&lt;/a&gt; permettent à tout profil d’utilisateur de créer des pipelines pour centraliser les données à partir de sources diverses : applications SaaS, bases de données, systèmes de fichiers, etc. Nécessitant peu, voire pas de code du tout, ces outils permettent de connecter rapidement et facilement vos sources à votre entrepôt de données. &lt;/li&gt;&lt;li&gt;Pour les flux habituellement gérés par des spécialistes de l’ETL ou par des data engineers, des solutions comme&lt;a href="https://cloud.google.com/data-fusion"&gt; DataFusion&lt;/a&gt; de Google et&lt;a href="http://cloud.google.com/dataprep"&gt; Dataprepr&lt;/a&gt; de Trifacta proposent une interface visuelle et simple à utiliser pour concevoir, gérer et superviser des pipelines avancés, réalisant des transformations complexes.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;2. Lorsque les produits à base d’interfaces utilisateurs ou les connecteurs de données sont insuffisants, exploitez des modèles de code préexistants. Inutile de réinventer la roue. Typiquement, il existe de nombreux&lt;a href="https://cloud.google.com/dataflow/docs/concepts/dataflow-templates"&gt; modèles&lt;/a&gt; pour&lt;a href="https://cloud.google.com/dataflow/docs/concepts/dataflow-templates"&gt; Dataflow&lt;/a&gt; qui permettent aux utilisateurs d’adapter et exécuter des pipelines d’ingestion de données pour les cas d’usage les plus fréquents simplement en ajustant quelques variables. N’hésitez pas non plus à reprendre notre architecture de pipelines pour&lt;a href="https://github.com/GoogleCloudPlatform/public-datasets-pipelines" target="_blank"&gt; Public Datasets&lt;/a&gt;, publiée en open source et utilisée pour l’intégration par notre équipe&lt;a href="https://cloud.google.com/solutions/datasets"&gt; Datasets&lt;/a&gt;.&lt;/p&gt;&lt;p&gt;3. Si aucune de ces options n’est suffisante, utilisez des services managés pour déployer du code pour vos pipelines. Les services managés tels que&lt;a href="https://cloud.google.com/dataflow/docs/concepts/dataflow-templates"&gt; Dataflow&lt;/a&gt; et&lt;a href="https://cloud.google.com/dataproc"&gt; Dataprox&lt;/a&gt; éliminent la surcharge opérationnelle liée à la gestion de la configuration des pipelines. Ils assurent aussi une montée en charge automatique des instances de ces pipelines dans les limites que vous aurez préparamétrées.&lt;/p&gt;&lt;h3&gt;Principe n°4 : Accroître la fiabilité et la transparence des données&lt;/h3&gt;&lt;p&gt;Le quatrième principe à prendre en considération dans le développement des pipelines est d’accroître la confiance dans les données et améliorer la transparence.&lt;/p&gt;&lt;p&gt;L’exploitation de nombreux pipelines d'ingestion de données – chacun utilisant différents outils ou étant élaborés hors d'un plan de gestion coordonné – peut rapidement engendrer un tsunami technologique : la surcharge de gestion des pipelines d'ingestion de données enfle à mesure que la quantité de pipelines de données augmente. Cela devient particulièrement lourd si vous êtes soumis à des accords de niveau de service, ou à des contraintes juridiques, réglementaires ou politiques dans la supervision des pipelines de données.&lt;/p&gt;&lt;p&gt;Prévenir un tel tsunami technologique est, de loin, la meilleure stratégie pour y faire face. Il faut pour cela développer des processus de gestion rationalisée des pipelines qui automatisent le reporting.&lt;/p&gt;&lt;p&gt;En théorie, construire tous vos pipelines de données à l'aide d'un seul et même produit cloud contribue à limiter le phénomène. Pourtant, nous ne recommandons pas une telle approche car elle vous empêche de profiter des fonctionnalités et des optimisations de coûts intrinsèquement liées au choix du produit le mieux adapté à votre cas d’usage.&lt;/p&gt;&lt;p&gt;Typiquement, un service de surveillance tel que&lt;a href="https://cloud.google.com/monitoring"&gt; Google Cloud Monitoring Service&lt;/a&gt; ou&lt;a href="https://www.splunk.com/en_us/devops/cloud-monitoring.html" target="_blank"&gt; Splunk&lt;/a&gt; - qui automatise les mesures, les événements et la collecte de métadonnées à partir de divers produits, y compris ceux hébergés dans des environnements informatiques sur site et hybrides - peut vous aider à centraliser la surveillance et le reporting de vos pipelines de données.&lt;/p&gt;&lt;p&gt;Autre exemple, un outil de gestion des métadonnées tel que le&lt;a href="https://cloud.google.com/data-catalog"&gt; catalogue de données de Google Cloud&lt;/a&gt; ou l’&lt;a href="https://www.informatica.com/products/data-catalog.html" target="_blank"&gt;Enterprise Data Catalog d’Informatica&lt;/a&gt; peut vous aider à mieux communiquer les nuances de vos données afin que les utilisateurs comprennent mieux quelles ressources de données sont les mieux adaptées à un cas d’utilisation donné. Cela simplifie la gouvernance des pipelines tout en éliminant les processus de rapports manuels qui entraînent souvent des inexactitudes ou des retards de mises à jour.&lt;/p&gt;&lt;h3&gt;Principe 5 : Gérer les coûts&lt;/h3&gt;&lt;p&gt;Cinquième principe, la gestion des coûts doit non seulement prendre en compte les dépenses en ressources cloud mais également les coûts humains pour concevoir, développer, déployer et assurer la maintenance de ces ressources cloud.&lt;/p&gt;&lt;p&gt;Nous sommes convaincus que l’objectif ne doit pas être de minimiser les coûts à tout prix mais plutôt de maximiser la valeur de l’investissement. En d’autres termes, vous devez maximiser l’impact de chaque euro dépensé en réduisant au minimum le gaspillage des ressources cloud et humaines.&lt;/p&gt;&lt;p&gt;Dans cette perspective, plusieurs facteurs sont à prendre en compte :&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;b&gt;Utiliser un outil adapté à la tâche&lt;/b&gt; - Chaque pipeline a ses exigences en termes de latence, de disponibilité, de transformations, etc. Il en va de même pour les outils qui concrétisent ces pipelines : chacun a ses forces et ses faiblesses. En choisissant l’outil adapté aux spécificités de chaque pipeline, ces derniers fonctionneront bien mieux. Vous pouvez ainsi réduire le coût global de votre projet, libérer du temps homme pour permettre à vos équipes de se concentrer sur des projets présentant plus de valeur ajoutée et rendre vos pipelines beaucoup plus efficaces.&lt;/li&gt;&lt;li&gt;&lt;b&gt;Standardiser l’étiquetage des ressources &lt;/b&gt;– Construisez et utilisez un schéma d’étiquetage cohérent et commun à l’ensemble des outils et plateformes afin d’obtenir une vision aussi complète que possible de vos dépenses. Par exemple, assurez-vous que toutes les ressources soient étiquetées par l’équipe chargée de gérer les coûts ou par l’équipe en charge du projet. Un étiquetage cohérent favorise une meilleure supervision des dépenses réalisées par les différentes équipes et permet de mieux calculer la valeur globale des investissements dans le cloud.&lt;/li&gt;&lt;li&gt;&lt;b&gt;Implémenter des contrôles de coûts&lt;/b&gt; – Si la fonction est disponible, utilisez les contrôles de coûts pour anticiper les erreurs pouvant entraîner des factures trop importantes.&lt;/li&gt;&lt;li&gt;&lt;b&gt;Capturer les dépenses cloud&lt;/b&gt; – Assurez-vous de bien capturer toutes vos dépenses liées à l’utilisation de ressources clouds. Centralisez-les dans un entrepôt de données cloud et utilisez un outil de dataviz pour les analyser. Autrement, vous ne serez ni en mesure de comprendre les changements qui interviennent dans vos dépenses et ce qui a pu les provoquer, ni de faire le lien avec les activités métier.&lt;/li&gt;&lt;li&gt;&lt;b&gt;Responsabiliser tout le monde sur la gestion des coûts&lt;/b&gt; – La gestion des coûts est l’affaire de tous les collaborateurs susceptibles de créer ou utiliser des ressources cloud. Dans cette perspective, nous vous conseillons de rendre le reporting sur les dépenses cloud plus transparent en interne et/ou de refacturer les coûts en interne en fonction de l’utilisation.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;La granularité sans cesse croissante du reporting proposé par Google Cloud sur les dépenses devrait vous permettre de mieux suivre vos indicateurs clés de performance sur le long terme. Vous pouvez passer d’un reporting axé sur les dépenses (Exemple : nous avons dépensé X € en stockage Big Query le mois dernier) à des rapports basés sur la valeur (Exemple : Cela nous a coûté X € pour servir les demandes de clients qui nous ont rapporté X €).&lt;/p&gt;&lt;p&gt;Pour en savoir plus sur la gestion des coûts, consultez notre livre blanc&lt;a href="https://services.google.com/fh/files/misc/understanding_the_principles_of_cost_optimization_2020_whitepaper_google_cloud.pdf" target="_blank"&gt; "Understanding the principles of cost optimization"&lt;/a&gt;  (Comprendre les principes de l’optimisation des coûts).&lt;/p&gt;&lt;h3&gt;Principe 6 : Exploiter l’innovation continue des services cloud&lt;/h3&gt;&lt;p&gt;Pour notre sixième principe, nous vous conseillons de tirer avantage de l’amélioration continue des services cloud. Tant du point de vue de la stabilité que de leurs performances, les services ne cessent de progresser et ce, même si les utilisateurs ne s’en rendent pas toujours compte. Ces améliorations peuvent favoriser un fonctionnement plus efficace de vos pipelines dans la durée et contribuer à la réduction des coûts.&lt;/p&gt;&lt;p&gt;Pour tirer avantage de ces améliorations, vous pouvez :&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;b&gt;Automatiser à la fois l’exécution des pipelines et leur maintenance&lt;/b&gt; :  Les pipelines de données peuvent être automatisés mais presque tous les composants de la chaine de gestion peuvent l’être aussi : pipeline/data lineage, supervision, gestion des coûts, planification, gestion des accès…. En automatisant, vous pouvez réduire les coûts opérationnels sur le long terme de chaque pipeline et ainsi augmenter de façon significative la proposition de valeur. Avec l’automatisation, on évite aussi les configurations manuelles qui ne permettraient pas par la suite de profiter des améliorations apportées aux services cloud.&lt;/li&gt;&lt;li&gt;&lt;b&gt;Privilégier la simplicité des pipelines dès que c’est possible&lt;/b&gt; : Relativement facile à développer à l’aide de services managés ou d’outils ne nécessitant pas de code (outils Low Code/No Code), les pipelines d’ingestion nécessitent toutefois d’être maintenus aussi longtemps qu’ils sont utilisés. Les plus faciles à maintenir dans la durée sont généralement ceux qui privilégient la simplicité et qui tirent avantage des optimisations opérées par les fonctionnalités d’automatisation. Toute transformation au sein d’un pipeline d’ingestion de données est une forme d’optimisation manuelle que vous risquez par la suite d’avoir du mal à adapter ou à modifier lorsque les services sous-jacents évolueront. Vous pouvez éviter ces modifications manuelles en construisant des pipelines ELT (extract, load, transform) plutôt que des pipelines ETL (extract, transform, load). En basculant les traitements de transformation des données sur le moteur de l’entrepôt cloud, qui est spécialement optimisé pour ce genre de tâche, vous évitez les optimisations manuelles du pipeline.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;/p&gt;&lt;h3&gt;Prochaines étapes&lt;/h3&gt;&lt;p&gt;N’hésitez pas à consulter notre livre blanc&lt;a href="https://services.google.com/fh/files/misc/googlecloud_unified_analytics_data_platform_paper_2021.pdf" target="_blank"&gt; Build a modern, unified analytics data platform&lt;/a&gt; (Construire une plateforme analytique unifiée et moderne) si vous souhaitez approfondir vos connaissances sur le développement d’une plateforme data dans le cloud. Vous pouvez également consulter&lt;a href="https://cloud.google.com/learn/what-is-data-integration"&gt; notre site sur l’intégration des données&lt;/a&gt; pour obtenir des informations complémentaires et différentes approches pour bien débuter votre projet d’intégration des données.&lt;/p&gt;Et, quand vous serez prêts à construire vos premiers pipelines d’ingestion de données, consultez nos pages sur&lt;a href="https://cloud.google.com/data-fusion"&gt; Cloud Data Fusion&lt;/a&gt; et sur &lt;a href="https://fivetran.com/partners/google-cloud" target="_blank"&gt;Fivetran&lt;/a&gt; pour savoir comment ces outils peuvent vous aider à respecter ces principes.&lt;/div&gt;</description><pubDate>Fri, 26 Nov 2021 10:00:00 +0000</pubDate><guid>https://cloud.google.com/blog/fr/products/analyse-de-donnees/ingestion-des-donnees-les-grands-principes-de-google-cloud/</guid><category>Data Analytics</category><media:content height="540" url="https://storage.googleapis.com/gweb-cloudblog-publish/images/DataAnalytics_B.max-2800x2800.max-2200x2200.max-600x600.png" width="540"></media:content><og xmlns:og="http://ogp.me/ns#"><type>article</type><title>Ingestion des données : les grands principes de Google Cloud</title><description></description><image>https://storage.googleapis.com/gweb-cloudblog-publish/images/DataAnalytics_B.max-2800x2800.max-2200x2200.max-600x600.png</image><site_name>Google</site_name><url>https://cloud.google.com/blog/fr/products/analyse-de-donnees/ingestion-des-donnees-les-grands-principes-de-google-cloud/</url></og><author xmlns:author="http://www.w3.org/2005/Atom"><name>Erin Franz</name><title>Partner Manager, Google Cloud</title><department></department><company></company></author><author xmlns:author="http://www.w3.org/2005/Atom"><name>Shane Glass</name><title>Developer Advocate</title><department></department><company></company></author></item></channel></rss>