hero background shape

Glossar zu Data Science und Data Analytics

hero background gradient
Alle(s)
  • Kastengrafiken,
  • $
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

Advanced Analytics ist eine Reihe von Analysetechniken, die über die herkömmliche Berichterstellung und deskriptive Analyse hinausgehen, um tiefere Erkenntnisse zu gewinnen, vorherzusagen, was als Nächstes passieren wird, und Maßnahmen zu empfehlen. Es verwendet Methoden wie statistische Modellierung, Machine Learning und Optimierung, um ...


Mehr erfahren

Kann agentenbasierte KI Entscheidungen treffen, die schneller, adaptiver und resilienter sind als herkömmliche Automatisierung?

...


Mehr erfahren

Erfahren Sie, was Agentenbasierte Analyse – auch bekannt als Agentic Analytics – bedeutet, wie autonome KI-Agenten Daten analysieren und warum sie schnellere, intelligentere Entscheidungen ermöglicht.

...


Mehr erfahren

Erfahren Sie, was agentenbasierte Workflows sind, wie sie funktionieren und wie sie Automatisierungs-, Analyse- und KI-Agenten kombinieren, um Entscheidungsfindung und Geschäftsprozesse zu optimieren.

...


Mehr erfahren

Erfahren Sie, wie KI Analytics Daten in umsetzbare Erkenntnisse wandelt. Beschleunigen Sie die Entscheidungsfindung und bleiben Sie in der heutigen Geschäftslandschaft wettbewerbsfähig.

...


Mehr erfahren

Verschaffen Sie sich einen Überblick über zentrale Begriffe der KI-Governance. Dieses Glossar hilft Leser:innen, Konzepte zu verantwortungsvoller KI, Ethik und Compliance zu verstehen.

...


Mehr erfahren

Erfahren Sie, was ein KI-Technologie-Stack ist und wie seine mehrschichtigen Technologiekomponenten ein Ökosystem bilden, das es Unternehmen ermöglicht, KI in großem Umfang zu operationalisieren.

...


Mehr erfahren

Erfahren Sie, wie KI-fähige Daten den ROI steigern, indem sie schnellere Erkenntnisse, intelligentere Entscheidungen und zuverlässigere Ergebnisse ermöglichen.

...


Mehr erfahren

Analysts sind Fachleute, die Daten nutzen, um zu verstehen, was im Unternehmen passiert. Sie identifizieren Trends, decken aussagekräftige Muster auf und teilen Erkenntnisse, die echte Geschäftsfragen beantworten.

...


Mehr erfahren

Erfahren Sie, was Analytics wirklich bedeutet, warum es unverzichtbar ist und wie datengestützte Erkenntnisse smarte Strategien, bessere Entscheidungen und messbaren Geschäftserfolg ermöglichen.

...


Mehr erfahren

Erfahren Sie, wie Analytics Automation Datenaufgaben optimiert, Erkenntnisse steigert und intelligentere Entscheidungen mit weniger manuellem Aufwand ermöglicht.

...


Mehr erfahren

Erfahren Sie, was ein analytisches Reifegradmodell ist und wie die Bewertung von Daten- und Analysefähigkeiten Leistung, Effizienz und Geschäftsergebnisse steigert.

...


Mehr erfahren

Künstliche Intelligenz (KI) bedeutet, dass Computer Aufgaben ausführen, die normalerweise menschliches Denken erfordern, wie das Erkennen von Mustern, das Treffen von Vorhersagen oder die Automatisierung von Entscheidungen. Unternehmen nutzen KI in vielen Branchen, um Zeit zu sparen, intelligenter zu arbeiten und schnellere, bessere Entscheidungen zu treffen.

...


Mehr erfahren

Künstliche Intelligenz für den IT-Betrieb (Artificial Intelligence for IT Operations, kurz: AIOps) ist ein prädiktiver, proaktiver Technologieansatz, der Data Analytics, Automatisierung und KI über komplexe IT-Umgebungen hinweg integriert. Er verbessert die Überwachung, Verwaltung und Optimierung von IT-Systemen durch Anwendung von Machine Learning (ML) und erweiterten Analysen ....


Mehr erfahren

Augmented Analytics nutzt künstliche Intelligenz und Machine Learning, um die Datenvorbereitung, die Gewinnung von Erkenntnissen und die Erklärungsprozesse über den gesamten Analysezyklus hinweg zu automatisieren. Die Technologie verändert die Art und Weise, wie Unternehmen Mehrwert aus Daten ziehen, indem sie den manuellen Aufwand reduziert, Verzerrungen eliminiert und ...


Mehr erfahren

Durch automatisiertes Machine Learning, kurz: AutoML, wird Machine Learning auch für Laien zugänglich, indem es ihnen durch ein automatisiertes Benutzererlebnis ermöglicht, ML-Modelle zu erstellen, zu validieren, zu iterieren und zu untersuchen.

...


Mehr erfahren

Verzerrung in der KI (Bias in AI) bezieht sich auf systematische Fehler in Algorithmen oder Datasets, die zu unfairen, ungenauen oder unausgewogenen Ergebnissen führen. Sie entsteht, wenn KI-Systeme die in ihren Trainingsdaten, im Design oder ihren Bereitstellungsumgebungen gefundenen Vorurteile widerspiegeln oder verstärken.

...


Mehr erfahren

Business Analytics ist der Prozess, bei dem Daten verwendet werden, um Muster zu erkennen, die Leistung zu bewerten und bessere Geschäftsentscheidungen zu treffen. Er kombiniert statistische Analysen, Datenvisualisierung und prädiktive Modellierung, um Rohinformationen in umsetzbare Erkenntnisse zu wandeln.

...


Mehr erfahren

Business Intelligence ist das Gesamtergebnis der Daten, Software, Infrastruktur, Geschäftsprozesse und menschlichen Intuition einer Organisation, das umsetzbare Erkenntnisse liefert.

...


Mehr erfahren

Erfahren Sie, wie Cloud Analytics durch die Ausführung skalierbarer Analyse-Workloads in der Cloud Business Intelligence, Machine Learning und Echtzeit-Datenanalysen unterstützt.

...


Mehr erfahren

Erfahren Sie, was Cloud-Datenintegration ist, wie sie funktioniert und wie Unternehmen sie nutzen, um Daten über Hybrid- und Multi-Cloud-Umgebungen hinweg zu verbinden, zu transformieren und zu verwalten.

...


Mehr erfahren

Erfahren Sie, was Cloud-Datenmanagement ist, wie es funktioniert und wie Unternehmen aus verschiedenen Branchen es anwenden, um Datensilos aufzubrechen und Analysen zu verbessern.

...


Mehr erfahren

Erfahren Sie, wie Cloud-Datenplattformen den ROI steigern, indem sie das Datenmanagement optimieren, die Skalierbarkeit verbessern und KI-gestützte Erkenntnisse unterstützen.

...


Mehr erfahren

Ein Cloud Data Warehouse (CDW) ist ein zentraler Ort zum Speichern und Analysieren von Daten mithilfe einer Cloud-Infrastruktur. Damit können Unternehmen mit großen Mengen strukturierter und semistrukturierter Daten für Analysen und Business Intelligence arbeiten, ohne lokale Hardware oder Systeme managen zu müssen.

...


Mehr erfahren

Customer Journey Analytics (CJA) ist der Prozess der Analyse von Kundeninteraktionen über alle Kanäle und Kontaktpunkte hinweg, um Muster, Verhaltensweisen und Möglichkeiten zur Verbesserung des Kundenerlebnisses aufzudecken. Durch die Kombination von Daten aus Marketing-, Vertriebs-, Service- und digitalen Systemen können Unternehmen sehen, wo ...


Mehr erfahren

Erfahren Sie, was Datenaggregation ist und wie die Kombination und Zusammenfassung von Daten aus mehreren Quellen Unternehmen dabei hilft, die Genauigkeit von Analysen und die Berichterstellung zu verbessern.

...


Mehr erfahren

Entdecken Sie die Leistungsfähigkeit von Data Analytics, um Muster aufzudecken, intelligentere Entscheidungen zu treffen und dauerhafte geschäftliche Auswirkungen zu erzielen.

...


Mehr erfahren

Datenanwendungen sind auf Datenbanken aufbauende Anwendungen, die ein Nischendatenproblem lösen und über eine visuelle Benutzeroberfläche mehrere Abfragen gleichzeitig ermöglichen, um diese Daten zu untersuchen und mit ihnen zu interagieren. Datenanwendungen erfordern keine Programmierkenntnisse, um ...


Mehr erfahren

Bei der Datenzusammenführung werden Daten aus einer Vielzahl von Quellen in einem nützlichen Dataset zusammengebracht, um tiefergehende, komplexere Analysen durchzuführen.

...


Mehr erfahren

Ein Datenkatalog ist eine umfassende Sammlung der Datenbestände einer Organisation, die zusammengestellt werden, um Fachleuten in der gesamten Organisation das Auffinden der benötigten Daten zu erleichtern. So wie Buchkataloge Benutzer:innen dabei helfen, Bücher in Bibliotheken schnell zu finden, helfen Datenkataloge Benutzer:innen bei der schnellen Suche ...


Mehr erfahren

Bei der Datenbereinigung geht es darum, ungenaue, unvollständige oder doppelte Informationen in Datensätzen zu finden und zu korrigieren. Sie verbessert die Datenqualität, indem sichergestellt wird, dass Daten genau, konsistent und bereit sind, Analysen, Automatisierung und bessere Geschäftsentscheidungen zu unterstützen.

...


Mehr erfahren

Daten-Compliance stellt sicher, dass Ihr Unternehmen alle gesetzlichen, behördlichen und branchenspezifischen Anforderungen für die Erfassung, Speicherung, Verarbeitung und den Schutz personenbezogener und sensibler Daten erfüllt und gleichzeitig den Geschäftsbetrieb aufrechterhält.

...


Mehr erfahren

Ein Datenkonnektor ist eine Softwarekomponente oder ein Integrationstool, das es verschiedenen Systemen, Anwendungen oder Datenbanken ermöglicht, Daten nahtlos auszutauschen. Er fungiert als Brücke zwischen Quellen wie CRMs, Cloud-Speicher, APIs oder Analyseplattformen und ermöglicht den automatischen Datenfluss ohne manuelle ...


Mehr erfahren

Bei der Datendemokratisierung geht es darum, Barrieren zu beseitigen, damit jede Person – nicht nur IT-Abteilungen oder Data Scientists – auf Daten zugreifen, sie verstehen und mit ihnen umgehen kann. Unternehmen verfolgen sie, um Entscheidungen zu beschleunigen, die Agilität zu erhöhen und eine Kultur zu schaffen, in der Erkenntnisse jede Funktion unterstützen. In der Praxis ist die Demokratisierung von Daten m ...


Mehr erfahren

Erfahren Sie, was ein Datenwörterbuch ist und wie die Definition und Dokumentation von Datenelementen Teams hilft, konsistent zu bleiben, besser zusammenzuarbeiten und ihren Daten vertrauen zu können.

...


Mehr erfahren

Datenanreicherung ist ein Datenmanagementprozess, der bestehende Datasets durch Hinzufügen relevanter Informationen aus internen oder externen Quellen erweitert, um sie stabiler, genauer und wertvoller zu machen. Sie geht über die einfache Datenerfassung hinaus, um Kontext, Attribute und Bedeutung hinzuzufügen, die Unternehmen dabei helfen, ...


Mehr erfahren

Erfahren Sie, wie Datenexploration Muster aufdeckt, Qualitätsprobleme erkennt und Teams zuverlässige Erkenntnisse liefert, die tiefergehende Analysen und bessere Entscheidungen unterstützen.

...


Mehr erfahren

Erfahren Sie, was Datenextraktion ist und wie die Automatisierung der Datensammlung aus mehreren Quellen die Genauigkeit verbessert, Zeit spart und bessere Analysen ermöglicht.

...


Mehr erfahren

Ein Data Fabric ist eine moderne Architektur, die Daten über Systeme, Clouds und Anwendungen hinweg verbindet und es Teams erleichtert, vertrauenswürdige Informationen zu finden, darauf zuzugreifen und sie zu nutzen. Es schafft eine vereinheitlichte Ebene, die Unternehmen dabei hilft, Daten ohne komplexe manuelle Arbeit zu ermitteln, zu integrieren und zu verwalten.

...


Mehr erfahren

Data Governance ist eine Reihe von Regeln, Prozessen und Verantwortlichkeiten, die sicherstellen, dass die Daten eines Unternehmens korrekt, sicher, nutzbar und konform sind. Sie schafft klare Richtlinien, die es Organisationen ermöglichen, ihre Daten zu schützen, während Teams sie gleichzeitig sicher für Entscheidungen nutzen können.

...


Mehr erfahren

Ein Data Hub ist eine zentralisierte Architektur, die wichtige Datenbestände – wie Kunden-, Produkt- oder Betriebsdaten – aus mehreren Systemen konsolidiert, integriert und verwaltet. Im Gegensatz zu einem herkömmlichen Data Warehouse oder einem Data Lake liegt bei einem Data Hub der Schwerpunkt auf Konnektivität, Echtzeitzugriff, Domänenautonomie ...


Mehr erfahren

Data Ingestion (Datenaufnahme) ist der Prozess, bei dem Daten aus mehreren Quellen – wie Apps, Datenbanken, APIs und externen Feeds – an einem Ort zusammengeführt werden, an dem sie gespeichert, analysiert und verwendet werden können. Dies ist der erste Schritt beim Aufbau einer Datenpipeline, die Unternehmen dabei hilft, Informationen effizient int...


Mehr erfahren

Erfahren Sie, wie Datenintegrität systemübergreifend dafür sorgt, dass Informationen korrekt, konsistent und zuverlässig sind, damit Teams sie für Analysen und Entscheidungsfindung nutzen können.

...


Mehr erfahren

Ein Data Lakehouse ist eine Datenverwaltungsarchitektur, die darauf abzielt, die Stärken von Data Lakes mit den Stärken von Data Warehouses zu kombinieren.

 

...


Mehr erfahren

Datenverlauf, auch als Datenflussverfolgung, Datenherkunftsverfolgung oder Data Lineage bekannt, verfolgt und visualisiert, wie sich Daten während ihres gesamten Lebenszyklus bewegen und verändern, von der Quelle bis zum endgültigen Ziel. Er bildet ab, wo Daten entstehen, wie sie umgewandelt und wo sie verwendet werden, und sorgt so für Transparenz, Verantwortlichkeit und Vertrauen im gesamten Datenökosystem.

...


Mehr erfahren

Erfahren Sie, was ein Data Mesh ist und wie dezentrale Datenhoheit die Skalierbarkeit, eine stärkere Governance und schnellere Erkenntnisse im gesamten Unternehmen fördert.

...


Mehr erfahren

Data Mining ist der Prozess, in großen, unverarbeiteten Datasets bedeutende Muster, Zusammenhänge und Trends zu entdecken, um fundiertere Geschäftsentscheidungen zu treffen. Er kombiniert Statistiken, Machine Learning und künstliche Intelligenz, um wertvolle Erkenntnisse zu ermitteln, die andernfalls möglicherweise nicht sichtbar wären.

...


Mehr erfahren

Erfahren Sie, wie Datenmodellierung Informationen strukturiert, um Klarheit, Konsistenz und eine bessere Entscheidungsfindung in Ihrem Unternehmen zu gewährleisten.

...


Mehr erfahren

Data Munging ist der Prozess der Umwandlung und Aufbereitung von Daten aus ihrem ursprünglichen, oft unstrukturierten Zustand in ein sauberes, organisiertes Format, das für die Analyse geeignet ist. Es umfasst das Sammeln, Bereinigen, Umformen und Anreichern von Daten, damit sie problemlos für Analysen, Berichterstellung oder Machine Learning verwendet werden können.
Mehr erfahren

Data Observability – oder, die Beobachtbarkeit von Daten – bezieht sich auf die Fähigkeit einer Organisation, die Vorgänge in ihren Datensystemen zu überwachen, zu verfolgen und Empfehlungen auszusprechen, um den Systemzustand zu erhalten und Ausfallzeiten zu reduzieren. Ziel ist es, sicherzustellen, dass Daten-Pipelines produktiv sind und ...


Mehr erfahren

Beim Daten-Onboarding handelt es sich um den Prozess der Vorbereitung und des Hochladens von Kundendaten in eine Online-Umgebung. Es ermöglicht es Unternehmen, offline gesammelte Kundendatensätze in Online-Systeme wie CRMs zu übertragen. Daten-Onboarding erfordert eine erhebliche Datenbereinigung, um Fehler zu korrigieren und ...


Mehr erfahren

Eine Daten-Pipeline ist eine Abfolge von Schritten, die Daten für die Speicherung, Analyse, Machine Learning oder andere Zwecke sammeln, verarbeiten und zwischen Quellen verschieben. Datenpipelines werden beispielsweise häufig verwendet, um Daten von Anwendungen an den Speicher zu senden ...


Mehr erfahren

Erfahren Sie, was Datenvorbereitung ist, warum sie in Analysen und KI-Workflows wichtig ist und wie Unternehmen Datenbereinigung, -transformation und -anreicherung optimieren, um Daten für Erkenntnisse vorzubereiten.

...


Mehr erfahren

Erfahren Sie, was Datenprofilierung ist und wie die Analyse der Datenqualität Unternehmen dabei hilft, Fehler aufzudecken, die Genauigkeit zu verbessern und Vertrauen in ihre Daten aufzubauen.

...


Mehr erfahren

Erfahren Sie, was Datenqualität ist, warum sie für Analysen und KI wichtig ist und wie Unternehmen die Zuverlässigkeit ihrer Informationen bewerten, verbessern und aufrechterhalten.

...


Mehr erfahren

Erfahren Sie, wie Data Science Statistiken, Machine Learning und Datenanalyse kombiniert, um Rohdaten in Muster und Erkenntnisse zu wandeln, um intelligentere Geschäftsentscheidungen zu treffen.

...


Mehr erfahren

Data Science und Machine Learning sind Schlagworte der Technologiewelt. Beide verbessern KI-Operationen über sämtliche Geschäftszweige und Branchen hinweg. Doch was ist am besten?

...


Mehr erfahren

Datensicherheit schützt sensible Informationen durch Richtlinien, Technologien und Kontrollen, die Verstöße und Missbrauch verhindern. Darüber hinaus hilft sie Unternehmen, Risiken zu reduzieren, Vertrauen aufzubauen und Vorschriften wie DSGVO und HIPAA einzuhalten.

...


Mehr erfahren

Erfahren Sie, was eine Datenquelle ist, wie sie Daten für Analysen und Berichterstellung bereitstellt und warum die Verwaltung von Datenquellen für genaue Geschäftserkenntnisse entscheidend ist.

...


Mehr erfahren

Bei der Datenstandardisierung wird die komplexe Semantik abstrahiert, also wie Daten erfasst, standardisiert und zusammengefügt werden, um Unternehmen schnellere und genauere Analysen zu bieten.

...


Mehr erfahren

Ein Data Steward ist die Fachkraft, die dafür verantwortlich ist, dass die Datenbestände eines Unternehmens korrekt, konsistent, sicher und mit festgelegten Governance-Richtlinien übereinstimmen. Ihre Arbeit schlägt die Brücke zwischen geschäftlichen Anforderungen und technischer Bereitstellung und hilft Teams dabei, Unternehmensdaten vertrauensvoll und effektiv zu nutzen.
Mehr erfahren

Erfahren Sie, was Datenstruktur ist und wie die effiziente Organisation und Speicherung von Daten die Analyseleistung und Datenintegrität steigert und schnellere Geschäftsentscheidungen ermöglicht.

...


Mehr erfahren

Datentransformation ist der Prozess der Umwandlung, Reorganisation und Anreicherung von Daten, damit diese für Analysen, Berichte, Automatisierung oder KI bereit sind. Er erzeugt bereinigte, konsistente und aussagekräftige Daten, auf die sich Teams für nachgelagerte Workflows verlassen können.

...


Mehr erfahren

Bei der Datenvalidierung werden Daten auf Genauigkeit, Konsistenz und Integrität überprüft, bevor sie für Analysen, Berichterstellung oder Entscheidungsfindung verwendet werden. Dies stellt sicher, dass Informationen den richtigen Regeln, Formaten und Standards entsprechen, und hilft Teams dabei, eine hohe Datenqualität aufrechtzuerhalten, kostspielige Fehler zu vermeiden und ...


Mehr erfahren

Datenvisualisierung ist die visuelle Darstellung von Daten mithilfe von Grafiken, Diagrammen, Plots oder Informationsgrafiken.

...


Mehr erfahren

Erfahren Sie, was Data Wrangling ist und wie das Bereinigen, Strukturieren und Anreichern von Daten aus mehreren Quellen die Genauigkeit von Analysen und Geschäftserkenntnisse verbessert.

...


Mehr erfahren

Unter Decision Intelligence, oder auch: Entscheidungsintelligenz, versteht man den Prozess der Anwendung von Analytics, KI und Automatisierung auf Entscheidungen Beitrag


Mehr erfahren

Nachfrageprognosen, auch bekannt als „Demand Forecasting“, schätzen den zukünftigen Bedarf an Produkten und Dienstleistungen ein, um fundierte Geschäftsentscheidungen treffen zu können. Nachfrageprognosen umfassen granulare Daten, historische Absatzdaten, Umfragen und vieles mehr.

...


Mehr erfahren

Descriptive Analytics beantwortet die Frage „Was ist passiert?“ indem wir Schlussfolgerungen von großen rohen Datasets ziehen. Die Ergebnisse werden in zugänglichen Linien-, Torten- und Balkendiagrammen, in Tabellen und als Bericht visualisiert.

...


Mehr erfahren

Erfahren Sie, was verunreinigte Daten wirklich sind, wie sie entstehen und vor allem: wie Sie sie verhindern, damit Ihr Unternehmen mit maximaler Geschwindigkeit und Agilität durchstarten kann.

...


Mehr erfahren

Eingebettete Analytik (Embedded Analytics) bezeichnet die Integration von Funktionalitäten für Datenanalyse und Datenvisualisierung direkt in bestehende Geschäftsanwendungen, Systeme oder Workflows. Anstatt zwischen Plattformen wechseln zu müssen, um auf Erkenntnisse zuzugreifen, können Benutzer:innen Analysen innerhalb der Tools anzeigen und mit ihnen interagieren, die sie bereits nutzen – ...


Mehr erfahren

Erklärbare KI (Explainable AI, XAI) bezieht sich auf Techniken und Methoden, die Entscheidungsprozesse von KI-Systemen für Menschen verständlich machen. Ziel ist es, aufzuzeigen, wie Modelle zu Ergebnissen gelangen, damit Benutzer:innen, Aufsichtsbehörden und Unternehmen diesen Entscheidungen vertrauen, sie überprüfen und steuern können.

...


Mehr erfahren

Extrahieren, Transformieren, Laden (Extract, Transform, Load; ETL) ist ein zentraler Datenintegrationsprozess, der es Unternehmen ermöglicht, Daten aus mehreren Quellen zu sammeln, zu bereinigen und zu organisieren und sie zur Analyse in einen zentralen Datenspeicherort, wie ein Data Warehouse oder einen Data Lake, zu laden. ETL stellt sicher, dass Daten korrekt, ....


Mehr erfahren

Ein/e Extract Transform Load (ETL)-Entwickler:in ist eine Datenfachkraft, die die Workflows entwirft und pflegt, die Daten aus Quellsystemen in eine analysebereite Umgebung verschieben. ETL-Entwickler:innen sorgen dafür, dass Rohdaten extrahiert, in das richtige Format gebracht und zuverlässig an Data Warehouses oder andere Plattformen geliefert werden ...


Mehr erfahren

Feature Engineering ist der Prozess des Erstellens, Auswählens oder Umwandelns von Variablen – so genannten Features –, die ein Machine-Learning-Modell verwendet, um Muster zu lernen und Prognosen zu treffen. Diese Features helfen dem Modell, Beziehungen in den Daten klarer zu verstehen, wodurch seine Genauigkeit verbessert wird und ...


Mehr erfahren

Generative KI (GenAI) hilft Unternehmen dabei, Daten schnell in nützliche Ergebnisse wie Berichte, Erkenntnisse oder sogar Workflow-Vorschläge zu wandeln. Durch das Lernen aus vorhandenen Daten wird der manuelle Aufwand reduziert und Advanced Analytics leichter zugänglich gemacht.

...


Mehr erfahren

Integrierte Daten sind Informationen, die aus verschiedenen Systemen abgerufen und in einer konsistenten Ansicht kombiniert werden. Dies hilft Teams, fundierte Entscheidungen zu treffen, indem sie vollständige, verknüpfte und zuverlässige Daten erhalten.

...


Mehr erfahren

Ein datengesteuertes, intelligentes Unternehmen (Intelligent Enterprise) ist eine Organisation, die Daten und KI im täglichen Betrieb einsetzt, um in großem Umfang bessere Entscheidungen, effizientere Prozesse und kontinuierliche Verbesserung zu ermöglichen.

...


Mehr erfahren

Key Performance Indicators (KPIs, Leistungskennzahlen) sind quantifizierbare Kennzahlen, die die kritischen Erfolgsfaktoren eines Unternehmens oder einer bestimmten Geschäftsfunktion widerspiegeln. Sie helfen dabei, den Fortschritt in Richtung strategischer Ziele zu verfolgen, Teams auf messbare Ziele auszurichten und die Aufmerksamkeit auf das Wesentliche zu lenken.

...


Mehr erfahren

Erfahren Sie, was ein Large Language Model ist und wie es B2B-Teams mit KI-gestützten Erkenntnissen und Anwendungen unterstützt.

...


Mehr erfahren

Machine Learning ist ein Zweig der künstlichen Intelligenz, der es Computern ermöglicht, Muster zu erkennen, Prognosen zu treffen und die Leistung zu verbessern, ohne explizit programmiert zu werden. Es hilft Unternehmen dabei, Erkenntnisse zu gewinnen, komplexe Aufgaben zu automatisieren und eine schnellere und genauere Entscheidungsfindung zu unterstützen.
Mehr erfahren

Machine Learning Operations (MLOps) ist die Praxis, die Erstellung, Bereitstellung, Überwachung und Wartung von Machine-Learning-Modellen so zu verwalten, dass sie konsistente, zuverlässige Ergebnisse liefern. Es verleiht dem gesamten Modelllebenszyklus Struktur und Wiederholbarkeit und hilft Teams dabei, die KI genau und einsatzbereit zu halten ...


Mehr erfahren

Eine Machine-Learning-Pipeline (ML-Pipeline) ist ein wiederholbarer Workflow, der jeden Schritt des Modelllebenszyklus organisiert und automatisiert, von der Vorbereitung der Eingabedaten bis hin zum Trainieren, Bereitstellen und Bewerten eines Machine-Learning-Modells. Anstatt diese Aufgaben manuell zu erledigen, optimiert eine ML-Pipeline den ges...


Mehr erfahren

Unter Master Data Management (MDM) versteht man die Erstellung einer zuverlässigen, konsolidierten Ansicht der kritischen Daten eines Unternehmens – wie Kunden, Produkte, Lieferanten und Beschäftigte – über Systeme und Teams hinweg. Es bietet die Struktur und Governance, die erforderlich sind, damit die Kerndaten korrekt sind, konsist...


Mehr erfahren

Erfahren Sie, wie die Modellbereitstellung trainierte Modelle in realen Workflows nutzbar macht, indem sie in großem Umfang Automatisierung, Echtzeit-Prognosen und genaue Geschäftserkenntnisse ermöglicht.

...


Mehr erfahren

Bei der Modellbewertung wird die Leistung eines Machine-Learning- oder statistischen Modells gemessen, bevor es in realen Szenarien verwendet wird. Das hilft Teams zu verstehen, ob ein Modell genau, zuverlässig und für das Geschäftsproblem geeignet ist, das es lösen soll.

...


Mehr erfahren

Modellinterpretierbarkeit bezieht sich darauf, wie leicht Menschen die Gründe für die Prognosen eines Machine-Learning-Modells verstehen können. Sie erklärt, warum ein Modell zu einer Entscheidung gelangt ist, hilft Teams, Ergebnisse zu validieren, Vertrauen aufzubauen und sicherzustellen, dass sich Modelle wie erwartet verhalten.

...


Mehr erfahren

Beim Modelltraining wird einem Machine-Learning- oder statistischen Modell beigebracht, Muster in Daten zu erkennen, damit es Prognosen treffen kann. Durch das Lernen aus historischen Beispielen findet das Modell heraus, worauf es am meisten ankommt, und wendet diese Erkenntnisse an, um bei neuen Daten genaue Ergebnisse zu generieren. ...


Mehr erfahren

Objectives and Key Results (OKRs) sind ein Zielsetzungsrahmen, der Unternehmen dabei hilft, klare, messbare Ergebnisse zu definieren und den Fortschritt in Richtung strategischer Prioritäten zu verfolgen. In analyse- und datengesteuerten Unternehmen richten OKRs Teams auf bestimmte Geschäftsergebnisse aus und wandeln Datenerkenntnisse in ...


Mehr erfahren

Parameter sind konfigurierbare Werte, die definieren, wie sich ein Modell, ein Algorithmus oder ein Analyseprozess verhält. Sie steuern, wie Daten interpretiert, verarbeitet und umgewandelt werden, und beeinflussen so sowohl die Ergebnisse als auch die Leistung.

...


Mehr erfahren

Predictive AI nutzt historische und Echtzeitdaten, Machine-Learning-Modelle und statistische Techniken, um zukünftige Ergebnisse zu prognostizieren und eine datengesteuerte Entscheidungsfindung zu unterstützen.

...


Mehr erfahren

Predictive Analytics nutzt historische Daten, statistische Modelle und Machine-Learning-Techniken, um zukünftige Ergebnisse zu prognostizieren. Es hilft Unternehmen, zu antizipieren, was wahrscheinlich passieren wird, damit sie proaktive, datengesteuerte Entscheidungen treffen können.

...


Mehr erfahren

Erfahren Sie, wie Prescriptive Analytics Unternehmen dabei hilft, Strategien zu optimieren, Ergebnisse vorherzusagen und datengesteuerte Maßnahmen für Wachstum zu ergreifen.

...


Mehr erfahren

Qualitative Daten stellen deskriptive, nicht-numerische Informationen dar, die die Bedeutung, Emotion oder Motivation hinter beobachteten Mustern erklären. Das hilft Unternehmen zu verstehen, warum etwas passiert und nicht, was passiert.

...


Mehr erfahren

Erfahren Sie, was quantitative Daten bedeuten und wie sie durch messbare Erkenntnisse intelligentere Geschäftsstrategien fördern.

...


Mehr erfahren

Ein Regex, bzw. ein regulärer Ausdruck, ist eine Zeichenfolge, die zur Angabe eines Suchmusters verwendet wird. Er ermöglicht Benutzer:innen die einfache Durchführung von Suchen nach sehr spezifischen Kriterien, was denjenigen, die regelmäßig mit Texten arbeiten oder große Datenmengen analysieren, viel Zeit spart. Ein Beispiel für ein Re ...


Mehr erfahren

Erfahren Sie, wie Retrieval Augmented Generation (RAG) die KI-Genauigkeit steigert, indem Suche und Generierung kombiniert werden, um intelligentere, schnellere Ergebnisse zu erzielen.

...


Mehr erfahren

Erfahren Sie, was rollenbasierte Zugriffskontrolle (RBAC) ist und wie die Zuweisung von Berechtigungen nach Benutzerrolle die Datensicherheit, Governance und Compliance systemübergreifend stärkt.

...


Mehr erfahren

Unter Sales Analytics, oder auch: Vertriebsanalysen, versteht man die Gewinnung von Erkenntnissen aus Daten, die zur Festlegung von Zielen, Kennzahlen und einer umfassenderen Strategie verwendet werden.

...


Mehr erfahren

Self-Service Analytics bzw. Analyse ist ein moderner Ansatz für Business Intelligence, der es Anwender:innen ohne technische Vorkenntnisse ermöglicht, selbstständig auf Daten zuzugreifen, diese zu analysieren und zu visualisieren, ohne auf IT- oder Datenfachleute angewiesen zu sein. Durch die Demokratisierung von Daten und die Automatisierung des Zugriffs mithilfe kontrollierter Analysetools ermöglicht es schnellere, da...


Mehr erfahren

Beim Source-to-Target Mapping (STM) wird dokumentiert, wie Datenfelder aus einem oder mehreren Quellsystemen Feldern in einem Zielsystem entsprechen. Es hilft Teams dabei, genau zu sehen, welche Daten verschoben werden, wie sie transformiert werden und wie sie in Berichten, Analysen oder nachgelagerten Anwendungen verwendet werden. ...


Mehr erfahren

Bei der Geoanalyse – oder auch: Spatial Analysis – werden Probleme geografisch modelliert, sodass ein Unternehmen Standorte, Beziehungen, Attribute und Näherungswerte von Geodaten analysieren kann, um Fragen zu beantworten und Erkenntnisse zu gewinnen.

...


Mehr erfahren

Spatial Analytics hilft Unternehmen, ihre Daten in Bezug auf den physischen Standort zu verstehen. Anstatt nur das Geschehen zu betrachten, fügt Spatial Analytics den Kontext hinzu, in dem es stattfindet, und deckt damit geografische Muster und Beziehungen auf, die zu intelligenteren, schnelleren Geschäftsentscheidungen führen.


Mehr erfahren

Überwachtes und unüberwachtes Lernen unterscheiden sich in einem wesentlichen Punkt: Für überwachtes Lernen werden gekennzeichnete Datasets verwendet, während für unüberwachtes Lernen nicht gekennzeichnete Datasets verwendet werden.

...


Mehr erfahren

Erfahren Sie, was synthetische Datengenerierung ist und wie die Erstellung datenschutzkonformer, KI-fähiger Daten Teams dabei hilft, Analysen zu beschleunigen, Modelle zu verbessern und Innovationen schneller voranzutreiben.

...


Mehr erfahren

Intelligente Systeme („Systems of Intelligence“) helfen Unternehmen dabei, den Wert ihrer Technologie zu steigern, indem sie eine leicht zugängliche, zentrale Quelle für datengestützte Erkenntnisse aus ihren Aufzeichnungssystemen schaffen, die die strategische Entscheidungsfindung unterstützen.

...


Mehr erfahren

Telemetriedaten sind Informationen, die automatisch von Systemen, Geräten oder Anwendungen erfasst und zur Überwachung und Analyse an eine zentrale Plattform gesendet werden. Es bietet Teams Echtzeit-Einblick in die Systemleistung, indem Signale wie Nutzungsmuster, Zustandsindikatoren, Leistungsmetriken usw. erfasst werden.


Mehr erfahren

Eine benutzerdefinierte Funktion (User-Defined Function, UDF) ist eine Funktion, die es Benutzer:innen ermöglicht, eigene Berechnungen oder Transformationen direkt hinzuzufügen, wenn die integrierten Funktionen nicht ausreichen. Mit UDFs können Teams ihre Tools und Workflows um Logik erweitern, die ihre spezifischen Geschäftsregeln widerspiegelt, und diese Regeln direkt in ...


Mehr erfahren

Eine Vektordatenbank ist ein System, das Daten als Zahlenlisten – so genannten Vektoren – speichert, die die Bedeutung von Text, Bildern oder anderen Inhalten erfassen. Eine Vektordatenbank kann diese Vektoren sehr schnell durchsuchen, um ähnliche Dinge zu finden, was sie zu einer Schlüsseltechnologie hinter modernen KI-Such- und Empfehlungssystemen macht.< ...


Mehr erfahren

Workflow-Automatisierung hilft Teams, schneller zu arbeiten, indem wiederholbare Aufgaben, Entscheidungen und Datenbewegungen automatisch erledigt werden.

...


Mehr erfahren