Glosario de ciencia de datos y análisis de datos

Todos
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

En advanced analytics o analítica avanzada, se emplean técnicas sofisticadas para descubrir insight, identificar patrones, predecir resultados y generar recomendaciones.

...
Leer más

Cuanto mayor sea el nivel de madurez analítica de tu organización, mayor será tu capacidad de usar los datos para obtener resultados comerciales.

...
Leer más

El AutoML o aprendizaje automático automatizado, hace que el aprendizaje automático (ML) sea accesible para usuarios no expertos, ya que les permite crear, validar, iterar y explorar modelos de ML a través de una experiencia automatizada.

...
Leer más

El procesamiento por lotes se refiere a las programaciones y al procesamiento de grandes volúmenes de datos al mismo tiempo, en general, en períodos de tiempo en los que los recursos informáticos experimentan baja demanda. Las tareas por lotes suelen ser repetitivas por naturaleza y, a menudo, están programadas (automatizadas) para que se ejecuten a intervalos establecidos, como...


Leer más

Business Analytics es el proceso de análisis de datos mediante métodos estadísticos y cuantitativos para tomar decisiones que contribuyan a mejorar los resultados empresariales.

...
Leer más

Business intelligence o inteligencia empresarial es el resultado acumulado de los datos, el software, la infraestructura, los procesos empresariales y la intuición humana de una organización que proporciona insights accionables.

...
Leer más

La analítica en la nube implica tanto el uso de los datos almacenados en la nube para procesos analíticos como el aprovechamiento de la gran potencia de cómputo de la nube para obtener análisis de datos más rápido.

...
Leer más

Un almacén de datos en la nube es una base de datos administrada como un servicio y que ofrece un tercero, como Google Cloud Platform (GCP), Amazon Web Services (AWS) o Microsoft Azure. Las arquitecturas de datos en la nube son distintas de las arquitecturas de datos locales, en las que las organizaciones administran su....


Leer más

La agrupación de datos es el proceso de compilar datos (a menudo de múltiples fuentes) para proporcionar información resumida de alto nivel que se puede utilizar para el análisis estadístico. Un ejemplo de una agrupación de datos simple es encontrar la suma de las ventas en una categoría de productos específica para cada región en la que...


Leer más

El análisis de datos es el proceso de exploración, transformación y examinación de datos para identificar insights importantes y eficientes para respaldar la toma de decisiones.

...
Leer más

Las aplicaciones de datos son aplicaciones creadas sobre bases de datos que resuelven un problema de datos específico y, mediante una interfaz visual, permiten realizar múltiples consultas al mismo tiempo para explorar e interactuar con esos datos. Las aplicaciones de datos no requieren conocimientos de codificación para adquirir o entender...


Leer más

La combinación de datos es el proceso de reunir datos desde una amplia variedad de fuentes en un conjunto de datos útil para realizar análisis más profundos y complejos.

...
Leer más

Un catálogo de datos es una colección integral de los activos de datos de una organización, que se compilan para que los profesionales de toda la organización puedan encontrar los datos que necesitan de manera más fácil. Así como los catálogos de libros ayudan a los usuarios a encontrar rápido los libros en las bibliotecas, los catálogos de datos ayudan a los usuarios a buscar con rapidez...


Leer más

Data cleansing o limpieza de datos, también conocida como depuración, identifica y corrige errores, duplicados y datos irrelevantes de un conjunto de datos sin procesar.

...
Leer más

El enriquecimiento de datos es el proceso de combinar datos propios de fuentes internas con datos dispares de otros sistemas internos o datos de terceros de fuentes externas. El proceso de enriquecimiento de datos hace que los datos sean más útiles y valiosos. Un proceso de enriquecimiento de datos que funcione bien es una parte fundamental...


Leer más

La exploración de datos es uno de los primeros pasos en el proceso de análisis que se usa para comenzar a explorar y determinar qué patrones y tendencias se encuentran en el conjunto de datos. Por lo general, un analista comenzará la exploración de datos usando técnicas de visualización y otras herramientas para describir las características...


Leer más

La gobernanza de datos es el conjunto de políticas, procesos y normas que define cómo se pueden usar los activos de datos dentro de una organización y quién tiene autoridad sobre ellos. La gobernanza dicta quién puede usar qué datos y de qué manera. Esto garantiza que los activos de datos estén seguros y cumplan con...


Leer más

La obtención de datos es el proceso de recopilar datos desde su fuente y trasladarlos a un entorno objetivo en el que se pueda acceder a estos, usarlos o analizarlos.

...
Leer más

La integridad de los datos se refiere a la precisión y coherencia de los datos a lo largo de todo su ciclo de vida, así como al cumplimiento de las restricciones de permisos necesarias y otras medidas de seguridad. En definitiva, es la confiabilidad de tus datos.

...
Leer más

Un data lakehouse es una arquitectura de administración de datos que busca combinar las fortalezas de los lagos de datos con las de los almacenes de datos.

 

...
Leer más

Realiza un seguimiento de la procedencia de los datos de una organización y el recorrido que realizan a través del sistema, y mantén la exactitud y el cumplimiento de los datos empresariales.

...
Leer más

Una malla de datos es un enfoque nuevo para diseñar arquitecturas de datos. Adopta un enfoque descentralizado para el almacenamiento y la administración de datos, donde los dominios de negocio individuales conservan la propiedad de sus conjuntos de datos en lugar de que todos los datos de una organización vayan a un lago de datos centralizado. Los datos son...


Leer más

La depuración de datos es el proceso de limpieza de datos manual antes del análisis. Es un proceso que consume mucho tiempo que, a menudo, se interpone en el camino de extraer valor real y potencial de los datos. En muchas organizaciones, el 80 % del tiempo que se dedica al análisis de datos se destina a la depuración de datos, donde TI limpia manualmente...


Leer más

La observabilidad de datos se refiere a la capacidad de una organización para monitorear, rastrear y hacer recomendaciones sobre lo que sucede dentro de sus sistemas de datos con el fin de mantener el sistema en buenas condiciones y reducir el tiempo de inactividad. Su objetivo es garantizar que los pipelines de datos sean productivos y puedan seguir funcionando...


Leer más

La incorporación de datos es el proceso de preparar y cargar datos de clientes en un entorno en línea. Permite a las organizaciones llevar los registros de clientes recopilados a través de medios fuera de línea a sistemas en línea, como los CRM. La incorporación de datos requiere una importante limpieza de datos para corregir errores y...


Leer más

Un pipeline de datos es una secuencia de pasos que recopila, procesa y mueve datos entre fuentes para almacenamiento, analítica, aprendizaje automático u otros usos. Por ejemplo, los pipelines de datos se utilizan a menudo para enviar datos desde aplicaciones a dispositivos de almacenamiento como almacenes de datos o lagos de datos. Los pipelines de datos son...


Leer más

La preparación de datos, también conocida como “preprocesamiento”, es el acto de limpiar y consolidar los datos sin procesar antes de utilizarlos para realizar el análisis de negocio y aprendizaje automático.

...
Leer más

El data profiling o perfilado de datos permite descubrir, comprender y organizar datos mediante la identificación de sus características y la evaluación de su calidad.

...
Leer más

La ciencia de datos es una forma de estadística aplicada que incorpora elementos de las ciencias informáticas y las matemáticas para extraer insights de datos cuantitativos y cualitativos.

...
Leer más

La ciencia de datos y el aprendizaje automático son expresiones de moda en el mundo de la tecnología. Ambas apuntan a mejorar las operaciones de IA en todo el espectro industrial. Pero ¿cuál es la mejor?

...
Leer más

Una fuente de datos es el lugar digital o físico donde los datos se originan o se almacenan, lo que influye en la forma en que se almacenan según su ubicación (por ejemplo, tabla de datos u objeto de datos) y sus propiedades de conectividad.

...
Leer más

La estandarización de datos resume todas las semánticas complejas sobre cómo se capturan, estandarizan y combinan los datos para proporcionar a las empresas una analítica más rápida y exacta.

...
Leer más

La transformación de datos es el proceso de convertir datos a un formato diferente que sea más útil para una organización. Se usa para estandarizar los datos entre conjuntos de datos o para hacer que los datos sean más útiles para el análisis y el aprendizaje automático. Las transformaciones de datos más comunes implican convertir datos sin procesar...


Leer más

La validación de datos es el proceso de garantizar que tus datos sean precisos y estén limpios. La validación de datos es fundamental en cada etapa de la vida de un proyecto de datos, desde el desarrollo de aplicaciones hasta la transferencia de archivos y la manipulación de datos (data wrangling), con el fin de garantizar que estén correctos. Sin validación de datos desde el inicio hasta...


Leer más

La visualización de datos es la representación visual de los datos mediante el uso de tablas, gráficos, diagramas o infografías.

...
Leer más

El data wrangling o la organización de datos es el acto de transformar, limpiar y enriquecer los datos para que sean más aplicables, consumibles y útiles a fin de tomar decisiones comerciales más inteligentes.

...
Leer más

La inteligencia de decisiones es el proceso de aplicar analítica, IA y automatización a las decisiones que Impacto
Leer más

El pronóstico de la demanda estima la demanda futura de productos y servicios, lo que ayuda a tomar decisiones comerciales fundamentadas. El pronóstico de la demanda incluye datos detallados, datos históricos de ventas, cuestionarios y mucho más.

...
Leer más

La analítica descriptiva responde la pregunta “¿Qué sucedió?” a través de conclusiones extraídas de grandes conjuntos de datos sin procesar. A continuación, los hallazgos se visualizan en accesibles gráficos lineales, tablas, gráficos circulares y de barras, y descripciones generadas.

...
Leer más
ETL

ETL es el proceso utilizado para copiar, combinar y convertir datos a partir de diferentes fuentes y formatos, y cargarlos en un nuevo destino como un almacén de datos o un lago de datos.

...
Leer más

Un desarrollador de ETL es un especialista de TI que diseña, desarrolla, automatiza y da soporte a aplicaciones complejas para extraer, transformar y cargar datos. Un desarrollador de ETL desempeña un rol importante en la determinación de las necesidades de almacenamiento de datos de su organización.

...
Leer más

Con la ingeniería de características, las organizaciones pueden comprender sus datos y convertirlos en algo beneficioso.

...
Leer más

El aprendizaje automático (o machine learning) es el proceso iterativo que utiliza una computadora para identificar patrones de un conjunto de datos luego de que se le proporcionan restricciones específicas.

...
Leer más

Los modelos de aprendizaje automático (MLOps) proporcionan insights valiosos al negocio, pero solo si esos modelos pueden acceder a los datos de la organización de forma continua y analizarlos. MLOps es el proceso fundamental que lo hace posible.

...
Leer más

La analítica predictiva es un tipo de análisis de datos que utiliza estadísticas, ciencia de datos, aprendizaje automático y otras técnicas para predecir lo que ocurrirá en el futuro.

...
Leer más

El análisis prescriptivo responde a la pregunta “¿Qué se debe/puede hacer?” mediante el aprendizaje automático, el análisis de gráficos, la simulación, la heurística y otros métodos.

...
Leer más

Una RegEx (abreviatura de expresión regular) es una secuencia de caracteres que se usa para especificar un patrón de búsqueda. Permite a los usuarios realizar búsquedas fácilmente que coincidan con criterios muy específicos, ahorrando una gran cantidad de tiempo a quienes trabajan con texto o analizan grandes volúmenes de datos de forma regular. Un ejemplo de una Re...


Leer más

La analítica de ventas es la práctica de generar insights a partir de datos y se utiliza para establecer objetivos, métricas y una estrategia más amplia.

...
Leer más

El mapeo de fuente a objetivo es un conjunto de instrucciones de transformación de datos que determinan cómo convertir la estructura y el contenido de los datos del sistema de origen a la estructura y el contenido necesarios en el sistema objetivo.

...
Leer más

El análisis espacial (o spatial analysis en inglés) modela los problemas de forma geográfica, lo que permite que una empresa analice las ubicaciones, las relaciones, los atributos y las proximidades en los datos geoespaciales para responder a preguntas y desarrollar insight.

...
Leer más

Hay una diferencia clave entre el aprendizaje supervisado y no supervisado. El aprendizaje supervisado utiliza conjuntos de datos etiquetados, mientras que el aprendizaje no supervisado usa conjuntos de datos no etiquetados.

...
Leer más

SLos sistemasS de inteligencia ayudan a las organizaciones a extraer valor de su stack tecnológico
Leer más

Una función definida por el usuario (UDF) es una función de programación personalizada que les permite a los usuarios reutilizar procesos sin tener que volver a escribir el código. Por ejemplo, se puede programar un cálculo complejo utilizando SQL y, luego, se puede guardar como una UDF. Cuando este cálculo necesite usarse en el futuro en un conjunto de datos diferente...


Leer más