Nicht verpassen: Inspire 2024, 13.–16. Mai 2024 im Venetian, Las Vegas! Jetzt anmelden!

Glossar zu Data Science und Data Analytics

Alle(s)
  • Kastengrafiken,
  • $
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

Advanced Analytics, oder auch: die erweiterte Datenanalyse, nutzt modernste Methoden, um Erkenntnisse zu gewinnen, Muster zu erkennen, Ergebnisse vorherzusagen und Empfehlungen zu generieren.

...
Lesen Sie mehr

Je höher der Grad der analytischen Reife Ihres Unternehmens ist, desto besser ist es in der Lage, Daten zur Erzielung von Geschäftsergebnissen zu nutzen.

...
Lesen Sie mehr

Durch automatisiertes Machine Learning, kurz: AutoML, wird Machine Learning auch für Laien zugänglich, indem es ihnen durch ein automatisiertes Benutzererlebnis ermöglicht, ML-Modelle zu erstellen, zu validieren, zu iterieren und zu untersuchen.

...
Lesen Sie mehr

Unter Batch Processing, oder auch: Stapelverarbeitung, versteht man die gleichzeitige Planung und Verarbeitung großer Datenmengen, im Allgemeinen zu Zeiten, in denen die Nachfrage nach Rechenressourcen gering ist. Batch-Jobs sind in der Regel repetitiver Natur und werden häufig so geplant (automatisiert), dass sie in festgelegten Intervallen ausgeführt werden, z. B. ...


Mehr erfahren

Business Analytics ist der Prozess der Datenanalyse mithilfe statistischer und quantitativer Methoden, um Entscheidungen zu treffen, die zu besseren Geschäftsergebnissen führen.

...
Lesen Sie mehr

Business Intelligence ist das Gesamtergebnis der Daten, Software, Infrastruktur, Geschäftsprozesse und menschlichen Intuition einer Organisation, das umsetzbare Erkenntnisse liefert.

...
Lesen Sie mehr

Cloud Analytics umfasst sowohl die Nutzung von in der Cloud gespeicherten Daten für Analyseprozesse als auch die Nutzung der schnellen Rechenleistung der Cloud für schnellere Analysen.

...
Lesen Sie mehr

Ein Cloud Data Warehouse ist eine Datenbank, die als Dienst verwaltet und von einem Drittanbieter bereitgestellt wird, beispielsweise Google Cloud Platform (GCP), Amazon Web Services (AWS) oder Microsoft Azure. Cloud-Datenarchitekturen unterscheiden sich von On-Premise-Datenarchitekturen, bei denen Unternehmen ihre eigenen physischen Daten verwalten.


Mehr erfahren

Bei der Datenaggregation werden Daten (häufig aus mehreren Datenquellen) zusammengestellt, um übergeordnete zusammenfassende Informationen bereitzustellen, die für statistische Analysen verwendet werden können. Ein Beispiel für eine einfache Datenaggregation ist die Ermittlung der Summe der Verkäufe in einer bestimmten Produktkategorie für jede Region, die Sie ...


Mehr erfahren

Data Analytics bezeichnet den Prozess der Exploration, Transformation und Analyse von Daten, um aussagekräftige Erkenntnisse und Effizienzsteigerungen zu ermitteln und so die Entscheidungsfindung zu unterstützen.

...
Lesen Sie mehr

Datenanwendungen sind auf Datenbanken aufbauende Anwendungen, die ein Nischendatenproblem lösen und über eine visuelle Benutzeroberfläche mehrere Abfragen gleichzeitig ermöglichen, um diese Daten zu untersuchen und mit ihnen zu interagieren. Datenanwendungen erfordern keine Programmierkenntnisse, um ...


Mehr erfahren

Bei der Datenzusammenführung werden Daten aus einer Vielzahl von Quellen in einem nützlichen Dataset zusammengebracht, um tiefergehende, komplexere Analysen durchzuführen.

...
Lesen Sie mehr

Ein Datenkatalog ist eine umfassende Sammlung der Datenbestände einer Organisation, die zusammengestellt werden, um Fachleuten in der gesamten Organisation das Auffinden der benötigten Daten zu erleichtern. So wie Buchkataloge Benutzer:innen dabei helfen, Bücher in Bibliotheken schnell zu finden, helfen Datenkataloge Benutzer:innen bei der schnellen Suche ...


Mehr erfahren

Die Datenbereinigung, auch als Data Cleansing, Data Cleaning oder Data Scrubbing bezeichnet, identifiziert Fehler, Duplikate sowie irrelevante Daten und behebt bzw. entfernt diese aus einem aus Rohdaten bestehenden Dataset.

...
Lesen Sie mehr

Unter Datenanreicherung versteht man die Kombination von eigenen Daten aus internen Quellen mit Daten aus anderen internen Systemen oder Drittdaten aus externen Quellen. Der Datenanreicherungsprozess macht Daten nützlicher und aufschlussreicher. Ein gut funktionierender Datenanreicherungsprozess ist eine Grundvoraussetzung ...


Mehr erfahren

Die Datenexploration ist einer der ersten Schritte im Analyseprozess, mit dem man beginnt, die Muster und Trends im Dataset zu untersuchen und zu bestimmen. Ein/e Data Analyst beginnt normalerweise mit der Datenexploration, indem er/sie Datenvisualisierungstechniken und andere Tools verwendet, um die Merkmale zu beschreiben ...


Mehr erfahren

Data Governance ist die Sammlung von Richtlinien, Prozessen und Standards, die definieren, wie Datenbestände innerhalb einer Organisation verwendet werden können und wer die Befugnis dazu hat. Governance bestimmt, wer welche Daten auf welche Weise nutzen darf. Dadurch wird sichergestellt, dass die Datenbestände sicher bleiben und den vereinbarten Q ...


Mehr erfahren

Die Datenaufnahme („Data Ingestion“) ist der Prozess, bei dem Daten von ihrer Quelle bzw. ihren Quellen gesammelt und in eine Zielumgebung übertragen werden, wo sie abgerufen, verwendet oder analysiert werden können.

...
Lesen Sie mehr

Datenintegrität bezieht sich auf die Genauigkeit und Konsistenz von Daten über ihren gesamten Lebenszyklus sowie auf die Einhaltung notwendiger Berechtigungsbeschränkungen und anderer Sicherheitsmaßnahmen. Kurz gesagt: Es geht um die Vertrauenswürdigkeit Ihrer Daten.

...
Lesen Sie mehr

Ein Data Lakehouse ist eine Datenverwaltungsarchitektur, die darauf abzielt, die Stärken von Data Lakes mit den Stärken von Data Warehouses zu kombinieren.

 

...
Lesen Sie mehr

Verfolgen Sie, woher die Daten eines Unternehmens stammen und welchen Weg sie im System durchlaufen. Stellen Sie außerdem sicher, dass Geschäftsdaten jederzeit compliant und korrekt sind.

...
Lesen Sie mehr

Ein Data Mesh ist ein neuer Ansatz zum Entwurf von Datenarchitekturen. Es verfolgt einen dezentralen Ansatz für die Datenspeicherung und -verwaltung, bei dem die einzelnen Geschäftsbereiche die Hoheit über ihre Datasets behalten, anstatt alle Daten eines Unternehmens in einen zentralen Data Lake einfließen zu lassen. Daten sind ...


Mehr erfahren

Data Munging ist der Prozess der manuellen Datenbereinigung vor der Analyse. Dieser Prozess ist sehr zeitaufwendig und steht oft der Gewinnung des wahren Werts und Potenzials von Daten im Wege. In vielen Organisationen werden 80 % der Zeit, die für die Datenanalyse aufgewendet wird, für das Data Munging aufgewendet, bei der die IT manuell ...


Mehr erfahren

Data Observability – oder, die Beobachtbarkeit von Daten – bezieht sich auf die Fähigkeit einer Organisation, die Vorgänge in ihren Datensystemen zu überwachen, zu verfolgen und Empfehlungen auszusprechen, um den Systemzustand zu erhalten und Ausfallzeiten zu reduzieren. Ziel ist es, sicherzustellen, dass Daten-Pipelines produktiv sind und ...


Mehr erfahren

Beim Daten-Onboarding handelt es sich um den Prozess der Vorbereitung und des Hochladens von Kundendaten in eine Online-Umgebung. Es ermöglicht es Unternehmen, offline gesammelte Kundendatensätze in Online-Systeme wie CRMs zu übertragen. Daten-Onboarding erfordert eine erhebliche Datenbereinigung, um Fehler zu korrigieren und ...


Mehr erfahren

Eine Daten-Pipeline ist eine Abfolge von Schritten, die Daten für die Speicherung, Analyse, Machine Learning oder andere Zwecke sammeln, verarbeiten und zwischen Quellen verschieben. Daten-Pipelines werden beispielsweise häufig verwendet, um Daten von Anwendungen an Speichergeräte wie Data Warehouses oder Data Lakes zu senden. Daten-Pipelines sind ...


Mehr erfahren

Bei der Datenvorbereitung, die auch als „Vorverarbeitung“ bezeichnet wird, werden Rohdaten bereinigt und konsolidiert, bevor sie für Geschäftsanalysen und Machine Learning verwendet werden.

...
Lesen Sie mehr

Datenprofilierung, oder auch: Data Profiling, hilft bei der Ermittlung, dem Verständnis und der Organisation von Daten, indem die Eigenschaften der Daten identifiziert und ihre Qualität bewertet werden.

...
Lesen Sie mehr

Data Science ist eine Form angewandter Statistik, die Elemente der Informatik und Mathematik einbezieht, um Erkenntnisse sowohl aus quantitativen als auch qualitativen Daten zu gewinnen.

...
Lesen Sie mehr

Data Science und Machine Learning sind Schlagworte der Technologiewelt. Beide verbessern KI-Operationen über sämtliche Geschäftszweige und Branchen hinweg. Doch was ist am besten?

...
Lesen Sie mehr

Eine Datenquelle ist der digitale oder physische Ort, von dem Daten stammen oder an dem sie gespeichert werden. Dies beeinflusst, wie sie je nach Standort gespeichert werden (z. B Datentabelle oder Datenobjekt) und seine Konnektivitätseigenschaften.

...
Lesen Sie mehr

Bei der Datenstandardisierung wird die komplexe Semantik abstrahiert, also wie Daten erfasst, standardisiert und zusammengefügt werden, um Unternehmen schnellere und genauere Analysen zu bieten.

...
Lesen Sie mehr

Unter Datentransformation versteht man den Prozess der Konvertierung von Daten in ein anderes Format, das für eine Organisation nützlicher ist. Sie wird genutzt, um Daten zwischen Datasets zu standardisieren oder um Daten für Analysen und Machine Learning nützlicher zu machen. Die häufigsten Datentransformationen umfassen die Konvertierung von Rohdaten in ...


Mehr erfahren

Bei der Datenvalidierung geht es darum, sicherzustellen, dass Ihre Daten korrekt und sauber sind. Sie ist in jeder Phase eines Datenprojekts von entscheidender Bedeutung – von der Anwendungsentwicklung über die Dateiübertragung bis hin zum Data Wrangling –, um die Korrektheit sicherzustellen. Ohne Datenvalidierung vom Anfang bis Iteration ...


Mehr erfahren

Datenvisualisierung ist die visuelle Darstellung von Daten mithilfe von Grafiken, Diagrammen, Plots oder Informationsgrafiken.

...
Lesen Sie mehr

Data Wrangling, oft auch vereinfacht Datenaufbereitung genannt, ist der Vorgang der Umwandlung, Bereinigung und Anreicherung von Daten, um sie anwendbarer, brauchbarer und praktischer zu machen. Das hilft dabei, intelligentere Geschäftsentscheidungen zu treffen.

...
Lesen Sie mehr

Unter Decision Intelligence, oder auch: Entscheidungsintelligenz, versteht man den Prozess der Anwendung von Analytics, KI und Automatisierung auf Entscheidungen Beitrag
Mehr erfahren

Nachfrageprognosen, auch bekannt als „Demand Forecasting“, schätzen den zukünftigen Bedarf an Produkten und Dienstleistungen ein, um fundierte Geschäftsentscheidungen treffen zu können. Nachfrageprognosen umfassen granulare Daten, historische Absatzdaten, Umfragen und vieles mehr.

...
Lesen Sie mehr

Descriptive Analytics beantwortet die Frage „Was ist passiert?“ indem wir Schlussfolgerungen von großen rohen Datasets ziehen. Die Ergebnisse werden in zugänglichen Linien-, Torten- und Balkendiagrammen, in Tabellen und als Bericht visualisiert.

...
Lesen Sie mehr
ETL

Bei ETL – Extract, Transform, Load – handelt es sich um den Prozess, der für das Kopieren, Kombinieren und Konvertieren von Daten aus verschiedenen Quellen und Formaten und das Laden in ein neues Ziel, wie z. B. ein Data Warehouse oder einen Data Lake, verantwortlich ist.

...
Lesen Sie mehr

Ein/e ETL-Entwickler:in ist eine IT-Fachkraft, die komplexe Anwendungen zum Extrahieren, Transformieren und Laden von Daten entwirft, entwickelt, automatisiert und unterstützt. Sie spielt eine wichtige Rolle bei der Bestimmung der Datenspeicheranforderungen ihres Unternehmens.

...
Lesen Sie mehr

Mit Feature Engineering können Unternehmen ihre Daten verstehen und in etwas Sinnvolles umwandeln.

...
Lesen Sie mehr

Machine Learning ist der iterative Prozess, der an einem Computer ausgeführt wird, um unter Berücksichtigung spezifischer Einschränkungen Muster in einem Dataset zu erkennen.

...
Lesen Sie mehr

Machine-Learning-Modelle (MLOps) liefern wertvolle Erkenntnisse für Unternehmen – allerdings nur, wenn diese Modelle kontinuierlich auf die Daten des Unternehmens zugreifen und diese analysieren können. MLOps ist der entscheidende Prozess, der dies ermöglicht.

...
Lesen Sie mehr

Predictive Analytics ist eine Art von Datenanalyse, die Statistiken, Data Science, Machine Learning und andere Methoden verwendet, um zukünftige Ereignisse vorherzusagen.

...
Lesen Sie mehr

Prescriptive Analytics, oder auch: präskriptive Analysen, beantwortet die Frage „Was sollte/kann getan werden?“ mithilfe von Machine Learning, Diagrammanalysen, Simulationen, Heuristik und anderen Methoden.

...
Lesen Sie mehr

Ein Regex, bzw. ein regulärer Ausdruck, ist eine Zeichenfolge, die zur Angabe eines Suchmusters verwendet wird. Er ermöglicht Benutzer:innen die einfache Durchführung von Suchen nach sehr spezifischen Kriterien, was denjenigen, die regelmäßig mit Texten arbeiten oder große Datenmengen analysieren, viel Zeit spart. Ein Beispiel für ein Re ...


Mehr erfahren

Unter Sales Analytics, oder auch: Vertriebsanalysen, versteht man die Gewinnung von Erkenntnissen aus Daten, die zur Festlegung von Zielen, Kennzahlen und einer umfassenderen Strategie verwendet werden.

...
Lesen Sie mehr

Beim Source-to-Target Mapping, oder auch: Quelle-zu-Ziel-Zuordnung, handelt es sich um eine Reihe von Anweisungen zur Datentransformation, die bestimmen, wie die Struktur und der Inhalt der Daten im Quellsystem in die Struktur und den Inhalt umgewandelt werden, die im Zielsystem benötigt werden.

...
Lesen Sie mehr

Bei der Geoanalyse – oder auch: Spatial Analysis – werden Probleme geografisch modelliert, sodass ein Unternehmen Standorte, Beziehungen, Attribute und Näherungswerte von Geodaten analysieren kann, um Fragen zu beantworten und Erkenntnisse zu gewinnen.

...
Lesen Sie mehr

Überwachtes und unüberwachtes Lernen unterscheiden sich in einem wesentlichen Punkt: Für überwachtes Lernen werden gekennzeichnete Datasets verwendet, während für unüberwachtes Lernen nicht gekennzeichnete Datasets verwendet werden.

...
Lesen Sie mehr

Systems of Intelligence bzw. Intelligenzsysteme helfen Unternehmen dabei, den Wert ihres Tech-Stacks zu steigern
Mehr erfahren

Eine benutzerdefinierte Funktion („User Defined Function“, UDF) ist eine benutzerdefinierte Programmierfunktion, die es Benutzer:innen ermöglicht, Prozesse wiederzuverwenden, ohne Code neu schreiben zu müssen. Beispielsweise kann eine komplexe Berechnung mit SQL programmiert und als UDF gespeichert werden. Wenn diese Berechnung in Zukunft für einen anderen Satz an Daten verwendet werden muss, ...


Mehr erfahren