Glossar zu Data Science und Data Analytics - Alteryx
 

Glossar zu Data Science und Data Analytics

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

Advanced Analytics, oder auch: die erweiterte Datenanalyse, nutzt modernste Methoden, um Erkenntnisse zu gewinnen, Muster zu erkennen, Ergebnisse vorherzusagen und Empfehlungen zu generieren.

...  

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

Durch automatisiertes Machine Learning, kurz: AutoML, wird Machine Learning auch für Laien zugänglich, indem es ihnen durch ein automatisiertes Benutzererlebnis ermöglicht, ML-Modelle zu erstellen, zu validieren, zu iterieren und zu untersuchen.

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

Business Analytics ist der Prozess der Datenanalyse mithilfe statistischer und quantitativer Methoden, um Entscheidungen zu treffen, die zu besseren Geschäftsergebnissen führen.

...  

Business Intelligence ist das Gesamtergebnis der Daten, Software, Infrastruktur, Geschäftsprozesse und menschlichen Intuition einer Organisation, das umsetzbare Erkenntnisse liefert.

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

Data Analytics bezeichnet den Prozess der Exploration, Transformation und Analyse von Daten, um aussagekräftige Erkenntnisse und Effizienzsteigerungen zu ermitteln und so die Entscheidungsfindung zu unterstützen.

...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

Bei der Datenzusammenführung werden Daten aus einer Vielzahl von Quellen in einem nützlichen Dataset zusammengebracht, um tiefergehende, komplexere Analysen durchzuführen.

...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

Erfahren Sie, was Data Governance ist, welche Tools und welches Framework zur Implementierung verwendet werden und wie Sie damit einen echten Mehrwert erzielen können.

...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

Verfolgen Sie, woher die Daten eines Unternehmens stammen und welchen Weg sie im System durchlaufen. Stellen Sie außerdem sicher, dass Geschäftsdaten jederzeit compliant und korrekt sind.

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

Data Science ist eine Form angewandter Statistik, die Elemente der Informatik und Mathematik einbezieht, um Erkenntnisse sowohl aus quantitativen als auch qualitativen Daten zu gewinnen.

...  

Data Science und Machine Learning sind Schlagworte der Technologiewelt. Beide verbessern KI-Operationen über sämtliche Geschäftszweige und Branchen hinweg. Doch was ist am besten?

...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Data Wrangling, oft auch vereinfacht Datenaufbereitung genannt, ist der Vorgang der Umwandlung, Bereinigung und Anreicherung von Daten, um sie anwendbarer, brauchbarer und praktischer zu machen. Das hilft dabei, intelligentere Geschäftsentscheidungen zu treffen.

...  

Die Datenbereinigung, auch als Data Cleansing, Data Cleaning oder Data Scrubbing bezeichnet, identifiziert Fehler, Duplikate sowie irrelevante Daten und behebt bzw. entfernt diese aus einem aus Rohdaten bestehenden Dataset.

...  

Datenexploration ist eine Möglichkeit, Daten kennenzulernen, bevor man mit ihnen arbeitet. Durch Prüfungen und Untersuchungen werden große Datasets für tiefere, strukturiertere Analysen vorbereitet.

...  

Wie ein Datenkatalog zur optimalen Nutzung von Datenressourcen beiträgt

...  

Datenprofilierung, oder auch: Data Profiling, hilft bei der Ermittlung, dem Verständnis und der Organisation von Daten, indem die Eigenschaften der Daten identifiziert und ihre Qualität bewertet werden.

...  

Bei der Datenstandardisierung wird die komplexe Semantik abstrahiert, also wie Daten erfasst, standardisiert und zusammengefügt werden, um Unternehmen schnellere und genauere Analysen zu bieten.

...  

Bei der Datenvorbereitung werden Rohdaten bereinigt und konsolidiert, bevor sie für Geschäftsanalysen verwendet werden. Erfahren Sie, warum dies wichtig ist und wie es funktioniert.

...  

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

ETL

Bei ETL – Extract, Transform, Load – handelt es sich um den Prozess, der für das Kopieren, Kombinieren und Konvertieren von Daten aus verschiedenen Quellen und Formaten und das Laden in ein neues Ziel, wie z. B. ein Data Warehouse oder einen Data Lake, verantwortlich ist.

...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

Mit Feature Engineering können Unternehmen ihre Daten verstehen und einen Nutzen daraus ziehen.

...  

Machine Learning ist der iterative Prozess, der an einem Computer ausgeführt wird, um unter Berücksichtigung spezifischer Einschränkungen Muster in einem Dataset zu erkennen.

...  

MLOps ist ein funktionsübergreifender, kooperativer und iterativer Prozess, der Data Science operationalisiert, indem Machine Learning (ML) und andere Modelltypen wie wiederverwendbare Software-Artefakte verwendet werden, die mithilfe eines wiederholbaren Prozesses bereitgestellt und kontinuierl ...  

Genaue Nachfrageprognosen (oder auch: Demand Forecasting) helfen Ihnen bei der Bestandsverwaltung, Kapazitätsplanung, Produktnachfrage und Ressourcenzuweisung.

...  

Predictive Analytics ist eine Art von Datenanalyse, die Machine Learning, statistische Algorithmen und andere Methoden verwendet, um zukünftige Ereignisse vorherzusagen.

...  

Prescriptive Analytics, oder auch: präskriptive Analysen, beantwortet die Frage „Was sollte/kann getan werden?“ mithilfe von Machine Learning, Diagrammanalysen, Simulationen, Heuristik und anderen Methoden.

...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Bei der Geoanalyse – oder auch: Spatial Analysis – werden Probleme geografisch modelliert, sodass ein Unternehmen Standorte, Beziehungen, Attribute und Näherungswerte von Geodaten analysieren kann, um Fragen zu beantworten und Erkenntnisse zu gewinnen.

...  

Systems of intelligence help organizations extract value from their tech stack  

Überwachte und unüberwachte Lernmodelle funktionieren auf einzigartige Weise, um Unternehmen dabei zu unterstützen, besser mit ihren Verbraucherinnen und Verbrauchern zu interagieren.

...  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...