Glosario de ciencia de datos y análisis de datos

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

En advanced analytics o analítica avanzada, se emplean técnicas sofisticadas para descubrir insight, identificar patrones, predecir resultados y generar recomendaciones.

...  

El análisis espacial (o spatial analysis en inglés) modela los problemas de forma geográfica, lo que permite que una empresa analice las ubicaciones, las relaciones, los atributos y las proximidades en los datos geoespaciales para responder a preguntas y desarrollar insight.

...  

El análisis prescriptivo responde a la pregunta “¿Qué se debe/puede hacer?” mediante el aprendizaje automático, el análisis de gráficos, la simulación, la heurística y otros métodos.

...  

El análisis de datos descriptivo responde la pregunta “¿Qué sucedió?” a través de conclusiones extraídas de grandes conjuntos de datos sin procesar. A continuación, los hallazgos se visualizan en accesibles gráficos lineales, tablas, gráficos circulares y de barras, y descripciones ...  

La analítica predictiva es un tipo de análisis de datos que utiliza aprendizaje automático, algoritmos estadísticos y otras técnicas para predecir lo que ocurrirá en el futuro.

...  

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

Los modelos de aprendizaje supervisados y no supervisados funcionan de maneras únicas para ayudar a las empresas a interactuar de mejor manera con sus consumidores.

...  

El AutoML o aprendizaje automático automatizado, hace que el aprendizaje automático (ML) sea accesible para usuarios no expertos, ya que les permite crear, validar, iterar y explorar modelos de ML a través de una experiencia automatizada.

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

Business Analytics es el proceso de análisis de datos mediante métodos estadísticos y cuantitativos para tomar decisiones que contribuyan a mejorar los resultados empresariales.

...  

Business intelligence es el resultado acumulado de los datos, software, infraestructura, procesos empresariales e intuición humana de una organización que proporciona insights accionables.

...  

Cómo un catálogo de datos ayuda a una organización a hacer el mejor uso de los activos de datos

...  

La ciencia de datos es una forma de estadística aplicada que incorpora elementos de las ciencias informáticas y las matemáticas para extraer insights de datos cuantitativos y cualitativos.

...  

La ciencia de datos y el aprendizaje automático son expresiones de moda en el mundo de la tecnología. Ambas apuntan a mejorar las operaciones de IA en todo el espectro industrial. Pero ¿cuál es la mejor?

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

El análisis de datos es el proceso de exploración, transformación y examinación de datos para identificar insights importantes y eficientes para respaldar la toma de decisiones.

...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

La combinación de datos es el proceso de reunir datos desde una amplia variedad de fuentes en un conjunto de datos útil para realizar análisis más profundos y complejos.

...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

El data profiling o perfilado de datos permite descubrir, comprender y organizar datos mediante la identificación de sus características y la evaluación de su calidad.

...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

La estandarización de datos resume todas las semánticas complejas sobre cómo se capturan, estandarizan y combinan los datos para proporcionar a las empresas una analítica más rápida y exacta.

...  

ETL

ETL es el proceso utilizado para copiar, combinar y convertir datos a partir de diferentes fuentes y formatos, y cargarlos en un nuevo destino como un almacén de datos o un lago de datos.

...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

La exploración de datos es una manera de familiarizarte con los datos antes de trabajar con ellos. A través de la investigación y las encuestas, se preparan grandes conjuntos de datos para un análisis más profundo y estructurado.

...  

Descubre qué es la gobernanza de datos, las herramientas y el marco utilizados a fin de implementarla y cómo puedes emplearla para impulsar el valor.

...  

Con la ingeniería de características, las organizaciones pueden comprender sus datos y convertirlos en algo beneficioso.

...  

Data cleansing o limpieza de datos, también conocida como depuración, identifica y corrige errores, duplicados y datos irrelevantes de un conjunto de datos sin procesar.

...  

Realiza un seguimiento de la procedencia de los datos de una organización y el recorrido que realizan a través del sistema, y mantén la exactitud y el cumplimiento de los datos empresariales.

...  

El aprendizaje automático (o machine learning) es el proceso iterativo que utiliza una computadora para identificar patrones de un conjunto de datos luego de que se le proporcionan restricciones específicas.

...  

Las MLOps son un proceso multifuncional, colaborativo e iterativo que pone en marcha la ciencia de datos al administrar el aprendizaje automático (ML) y otros tipos de modelos para que sean artefactos de software reutilizables y se puedan implementar y monitorear continuamente a través de un pr ...  

El data wrangling o la organización de datos es el acto de transformar, limpiar y enriquecer los datos para que sean más aplicables, consumibles y útiles a fin de tomar decisiones comerciales más inteligentes.

...  

Un pronóstico de la demanda preciso ayuda con la administración del inventario, la planificación de la capacidad, la demanda de productos y la asignación de recursos.

...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Systems of intelligence help organizations extract value from their tech stack  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...