Lexique de la Data Science et de l’analytique des données

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

L’analyse descriptive, ou analytique descriptive, répond à la question « Que s’est-il passé ? » en tirant des conclusions à partir de grands jeux de données brutes. Les résultats sont ensuite visualisés sous forme de descriptions générées, de graphiques linéaires, de ...  

L’analyse prescriptive, ou analytique prescriptive, répond à la question « que faut-il/peut-on faire ? » en utilisant le machine learning, l’analyse de graphes, la simulation, l’heuristique et d’autres méthodes.

...  

L’analyse spatiale modélise les problématiques selon une approche géographique, ce qui permet d’analyser les emplacements, les relations, les attributs et les proximités dans les données géospatiales pour trouver des réponses et développer des insights.

...  

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

L’analytique avancée, ou advanced analytics, utilise des techniques sophistiquées pour découvrir des insights, identifier des tendances, prédire les résultats et générer des recommandations.

...  

Les modèles d’apprentissage supervisé et non supervisé offrent deux approches distinctes pour aider les entreprises à mieux interagir avec leurs clients.

...  

Le machine learning automatisé, ou AutoML, rend le machine learning accessible aux non-experts en leur permettant de créer, de valider, d’itérer et d’explorer des modèles ML dans un contexte d’automatisation.

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

La Business Analytics (BA), parfois appelée « analytique métier », consiste à analyser des données à l’aide de méthodes statistiques et quantitatives afin de prendre des décisions aptes à améliorer les résultats de l’entreprise

...  

La Business Intelligence (BI), c’est là où mènent collectivement les données, les logiciels, l’infrastructure, les processus métier et l’intuition humaine. Elle permet d’obtenir des informations exploitables, ou insights.

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

La data analytics, ou l’analytique de la donnée, consiste à explorer, transformer et analyser les données afin d’identifier les tendances et les schémas qui révèlent des informations exploitables pertinentes et améliorent l’efficacité, ce qui contribue à optimiser la pr ...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

La fusion de données consiste à rassembler des données d’une multitude de sources dans un seul ensemble de données pour effectuer des analyses plus approfondies et plus complexes.

...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

Sachez d’où proviennent les données, où elles vont dans le système et assurez-vous qu’elles restent conforment et exactes.

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

La data preparation consiste à nettoyer et à consolider les données brutes avant de les utiliser pour une analyse de l’activité. Découvrez pourquoi cette étape est cruciale et comment ça fonctionne.

...  

La Data Science est une forme de statistique appliquée qui intègre des éléments de sciences informatiques et de mathématiques pour tirer des enseignements utiles, aussi appelés insights, aussi bien à partir de données quantitatives que de données qualitatives.

...  

Data Science et machine learning sont des mots à la mode dans le monde de la technologie. Tous deux améliorent les opérations d’IA dans tous les métiers et secteurs d’activité. Mais lequel est le meilleur ?

...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Le data wrangling consiste à transformer, nettoyer et enrichir les données afin de les rendre applicables, exploitables et utiles pour éclairer la prise de décision.

...  

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

ETL

L’ETL est le processus utilisé pour copier, combiner et convertir des données de sources et de formats différents, puis les envoyer à un nouvel emplacement tel qu’un entrepôt de données ou un lac de données.

...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

L’exploration des données, ou data exploration, est un moyen d’en savoir plus sur les données avant de commencer à travailler avec. Des recherches et des investigations permettent de préparer de grands jeux de données pour une analyse plus complète et plus structurée.

...  

Grâce à la feature engineering, les entreprises peuvent donner du sens à leurs données et les transformer en quelque chose de bénéfique.

...  

Découvrez ce qu’est la gouvernance des données, quels sont les outils et le cadre utilisés pour sa mise en œuvre et comment elle peut permettre de générer de la valeur.

...  

Le machine learning est le processus itératif qu’un ordinateur utilise pour identifier des tendances (patterns) dans un ensemble de données en fonction de contraintes spécifiques.

...  

Le MLOps est un processus transversal, collaboratif et itératif qui opérationnalise la Data Science en traitant le Machine Learning (ML) et d’autres types de modèles comme des artefacts logiciels réutilisables qui peuvent être déployés et surveillés continuellement via un processus ...  

Le nettoyage des données, ou data cleansing, consiste à identifier et à corriger les erreurs dans un jeu de données brutes, ainsi qu’à supprimer les doublons et les données non pertinentes.

...  

La normalisation des données fait abstraction de toute la sémantique complexe des méthodes de capture, de standardisation et d’assemblage des données pour fournir aux métiers une analytique plus rapide et plus précise.

...  

L’analyse prédictive est un type d’analyse de données qui utilise le machine learning, les algorithmes statistiques et d’autres techniques pour prédire ce qui va se passer dans le futur.

...  

Des prévisions précises vous aident à gérer les stocks, à planifier la capacité, à gérer la demande de produits et à allouer les ressources.

...  

Le profilage des données permet de découvrir, de comprendre et d’organiser les données en identifiant leurs caractéristiques et en évaluant leur qualité.

...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Systems of intelligence help organizations extract value from their tech stack  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...