Glosario de ciencia de datos y análisis de datos

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Un pronóstico de la demanda preciso ayuda con la administración del inventario, la planificación de la capacidad, la demanda de productos y la asignación de recursos.

...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

La exploración de datos es una manera de familiarizarte con los datos antes de trabajar con ellos. A través de la investigación y las encuestas, se preparan grandes conjuntos de datos para un análisis más profundo y estructurado.

...  

Descubre qué es la gobernanza de datos, las herramientas y el marco utilizados a fin de implementarla y cómo puedes emplearla para impulsar el valor.

...  

El análisis de datos descriptivo responde la pregunta “¿Qué sucedió?” a través de conclusiones extraídas de grandes conjuntos de datos sin procesar. A continuación, los hallazgos se visualizan en accesibles gráficos lineales, tablas, gráficos circulares y de barras, y descripciones ...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...  

Cómo un catálogo de datos ayuda a una organización a hacer el mejor uso de los activos de datos

...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

En advanced analytics o analítica avanzada, se emplean técnicas sofisticadas para descubrir insight, identificar patrones, predecir resultados y generar recomendaciones.

...  

El AutoML o aprendizaje automático automatizado, hace que el aprendizaje automático (ML) sea accesible para usuarios no expertos, ya que les permite crear, validar, iterar y explorar modelos de ML a través de una experiencia automatizada.

...  

Business Analytics es el proceso de análisis de datos mediante métodos estadísticos y cuantitativos para tomar decisiones que contribuyan a mejorar los resultados empresariales.

...  

Business intelligence es el resultado acumulado de los datos, software, infraestructura, procesos empresariales e intuición humana de una organización que proporciona insights accionables.

...  

El análisis de datos es el proceso de exploración, transformación y examinación de datos para identificar insights importantes y eficientes para respaldar la toma de decisiones.

...  

La combinación de datos es el proceso de reunir datos desde una amplia variedad de fuentes en un conjunto de datos útil para realizar análisis más profundos y complejos.

...  

Data cleansing o limpieza de datos, también conocida como depuración, identifica y corrige errores, duplicados y datos irrelevantes de un conjunto de datos sin procesar.

...  

El data profiling o perfilado de datos permite descubrir, comprender y organizar datos mediante la identificación de sus características y la evaluación de su calidad.

...  

La ciencia de datos es una forma de estadística aplicada que incorpora elementos de las ciencias informáticas y las matemáticas para extraer insights de datos cuantitativos y cualitativos.

...  

ETL

ETL es el proceso utilizado para copiar, combinar y convertir datos a partir de diferentes fuentes y formatos, y cargarlos en un nuevo destino como un almacén de datos o un lago de datos.

...  

El aprendizaje automático (o machine learning) es el proceso iterativo que utiliza una computadora para identificar patrones de un conjunto de datos luego de que se le proporcionan restricciones específicas.

...  

Las MLOps son un proceso multifuncional, colaborativo e iterativo que pone en marcha la ciencia de datos al administrar el aprendizaje automático (ML) y otros tipos de modelos para que sean artefactos de software reutilizables y se puedan implementar y monitorear continuamente a través de un pr ...  

La analítica predictiva es un tipo de análisis de datos que utiliza aprendizaje automático, algoritmos estadísticos y otras técnicas para predecir lo que ocurrirá en el futuro.

...  

El análisis prescriptivo responde a la pregunta “¿Qué se debe/puede hacer?” mediante el aprendizaje automático, el análisis de gráficos, la simulación, la heurística y otros métodos.

...  

El análisis espacial (o spatial analysis en inglés) modela los problemas de forma geográfica, lo que permite que una empresa analice las ubicaciones, las relaciones, los atributos y las proximidades en los datos geoespaciales para responder a preguntas y desarrollar insight.

...  

El data wrangling o la organización de datos es el acto de transformar, limpiar y enriquecer los datos para que sean más aplicables, consumibles y útiles a fin de tomar decisiones comerciales más inteligentes.

...  

Con la ingeniería de características, las organizaciones pueden comprender sus datos y convertirlos en algo beneficioso.

...  

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Realiza un seguimiento de la procedencia de los datos de una organización y el recorrido que realizan a través del sistema, y mantén la exactitud y el cumplimiento de los datos empresariales.

...  

La ciencia de datos y el aprendizaje automático son expresiones de moda en el mundo de la tecnología. Ambas apuntan a mejorar las operaciones de IA en todo el espectro industrial. Pero ¿cuál es la mejor?

...  

La estandarización de datos resume todas las semánticas complejas sobre cómo se capturan, estandarizan y combinan los datos para proporcionar a las empresas una analítica más rápida y exacta.

...  

Los modelos de aprendizaje supervisados y no supervisados funcionan de maneras únicas para ayudar a las empresas a interactuar de mejor manera con sus consumidores.

...