Glossário de data science e data analytics

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

O analytics avançado, ou advanced analytics, utiliza técnicas sofisticadas para revelar insights, identificar padrões, prever resultados e gerar recomendações.

...  

A análise descritiva, ou descriptive analytics, ajuda pessoas a responder à pergunta “o que aconteceu?”, ao extrair conclusões a partir de grandes conjuntos de dados brutos. Os resultados são exibidos em gráficos de linhas e tabelas, gráficos de pizza e barras, além da produç ...  

A análise espacial, ou spatial analysis, permite que empresas identifiquem locais, relações, atributos e pontos de conexão em dados geoespaciais para extrair insights usando modelos baseados na localização geográfica.

...  

Data exploration, ou análise exploratória de dados, é uma maneira de entender os dados antes de começar a utilizá-los. Através de pesquisas e investigações, grandes conjuntos de dados são disponibilizados para análises mais profundas e estruturadas.

...  

A análise preditiva é um tipo de análise que utiliza machine learning, algoritmos estatísticos e outras técnicas para prever o que acontecerá no futuro.

...  

A análise prescritiva, ou prescriptive analytics, responde à pergunta “o que deve/pode ser feito?”, utilizando métodos de machine learning, gráficos, simulações, heurísticas, entre outras técnicas.

...  

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

Modelos de aprendizado supervisionados e não supervisionados atuam de maneiras específicas para ajudar empresas a melhorar o engajamento com clientes.

...  

O machine learning automatizado, ou AutoML, ajuda profissionais sem habilidades técnicas na construção, validação, iteração e exploração de modelos por meio de uma experiência automática.

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

Business analytics é o processo que analisa dados utilizando métodos estatísticos e quantitativos para a tomada de decisões, gerando melhores resultados de negócios.

...  

Business intelligence é o resultado cumulativo dos dados, software, infraestrutura, processos de negócios e intuição humana de uma organização que fornece insights acionáveis.

...  

Como o catálogo de dados ajuda organizações a otimizar a gestão de ativos

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

Data blending ou combinação de dados, é o ato de reunir informações de uma ampla variedade de fontes em um conjunto de dados útil para análises mais detalhadas e complexas.

...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

Analytics é o processo de explorar, transformar e analisar dados para identificar insights e eficiências significativas que dão suporte à tomada de decisões.

...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

Data cleansing, também conhecido como limpeza ou depuração de dados, identifica e corrige erros, duplicações e informações irrelevantes em um conjunto de dados brutos.

...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

O preparo de dados é o ato de limpar e consolidar dados brutos antes de usá-los para análise de negócios. Saiba por que é essencial e como funciona.

...  

Data profiling é o processo de criação de perfis de dados para ajudar a descobrir, entender e classificar os dados, ao identificar suas características e avaliar a qualidade.

...  

A data science é uma forma de estatística aplicada que incorpora elementos de ciências da computação e matemática para extrair insights de dados quantitativos e qualitativos.

...  

Data science e machine learning são tópicos recorrentes no universo tecnológico. Ambos potencializam operações de IA em toda a escala corporativa e industrial. Mas qual é mais eficaz?

...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Data wrangling, ou manipulação de dados, é o processo de transformar, limpar e enriquecer os dados para torná-los mais adequados, úteis e consumíveis para impulsionar a tomada de decisões assertivas.

...  

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

Com a engenharia de recursos, organizações conseguem dar sentido aos dados e transformá-los em ativos valiosos.

...  

ETL

ETL é o processo usado para extrair e transformar dados de múltiplas fontes, e carregá-los em vários destinos, como um data warehouse ou data lake.

...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

Saiba o que é governança de dados, as ferramentas e a estrutura usadas na implementação, e como você pode aproveitá-la para agregar valor.

...  

A linhagem de dados permite monitorar a origem e o ciclo de vida de dados, mantendo as informações da empresa consistentes e precisas.

...  

Machine Learning (também conhecido como ML ou aprendizado de máquina) é o processo iterativo que um computador utiliza para identificar padrões em um conjunto de dados com restrições específicas.

...  

As MLOps são um processo interfuncional, colaborativo e iterativo que operacionaliza a ciência de dados, gerenciando o machine learning (ML) e outros tipos de modelos para serem artefatos de software reutilizáveis que podem ser implantados e monitorados continuamente por meio de um processo re ...  

A padronização de dados elimina a semântica da complexidade que envolve a coleta, harmonização e integração de dados para ajudar empresas a executar análises com mais rapidez e precisão.

...  

Previsões de demanda com precisão auxiliam organizações a gerenciar estoques, otimizar a capacidade logística, antecipar as exigências do cliente e alocar recursos.

...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Systems of intelligence help organizations extract value from their tech stack  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...