データサイエンスとデータアナリティクスに関する用語解説

All
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z

The higher your organization’s level of analytics maturity, the more capable it is of using data to deliver business outcomes.

...  

自動機械学習(AutoML)では、自動化されたプロセスを通じて ML(機械学習)モデルの構築、検証、反復、探索を行えるため、専門的なスキル不要で誰もが ML を活用できます。

...  

Batch processing refers to the scheduling and processing of large volumes of data simultaneously, generally at periods of time when computing resources are experiencing low demand. Batch jobs are typically repetitive in nature and are often scheduled (automated) to occur at set intervals, such as ...  

ビジネスアナリティクスとは、より良いビジネス成果を導く意思決定を行うために統計的・定量的手法を用いてデータを分析するプロセスです。

...  

ビジネスインテリジェンスは、組織のデータ、ソフトウェア、インフラ、ビジネスプロセス、人間の直感などの累積的な成果であり、実用的なインサイトの提供を可能にします。

...  

Cloud analytics involves both using data stored in the cloud for analytic processes and leveraging the fast computing power of the cloud for faster analytics.

...  

A cloud data warehouse is a database that is managed as a service and delivered by a third party, such as Google Cloud Platform (GCP), Amazon Web Services (AWS), or Microsoft Azure. Cloud data architectures are distinct from on-premise data architectures, where organizations manage their own phys ...  

Data aggregation is the process of compiling data (often from multiple data sources) to provide high-level summary information that can be used for statistical analysis. An example of a simple data aggregation is finding the sum of the sales in a particular product category for each region you op ...  

Data applications are applications built on top of databases that solve a niche data problem and, by means of a visual interface, allow for multiple queries at the same time to explore and interact with that data. Data applications do not require coding knowledge in order to procure or understand ...  

データブレンディングは、さまざまなソースから取得したデータを 1 つの有用なデータセットにまとめるプロセスであり、より深く、より複雑な分析を可能にします。

...  

Data enrichment is the process of combining first party data from internal sources with disparate data from other internal systems or third party data from external sources. The data enrichment process makes data more useful and insightful. A well-functioning data enrichment process is a fundamen ...  

Data ingestion is the process of collecting data from its source(s) and moving it to a target environment where it can be accessed, used, or analyzed.

...  

Data integrity refers to the accuracy and consistency of data over its entire lifecycle, as well as compliance with necessary permissioning constraints and other security measures. In short, it is the trustworthiness of your data.

...  

A data lakehouse is a data management architecture that seeks to combine the strengths of data lakes with the strengths of data warehouses.

 

...  

A data mesh is a new approach to designing data architectures. It takes a decentralized approach to data storage and management, having individual business domains retain ownership over their datasets rather than flowing all of an organization’s data into a centrally owned data lake. Data is ac ...  

Data munging is the process of manual data cleansing prior to analysis. It is a time consuming process that often gets in the way of extracting true value and potential from data. In many organizations, 80% of the time spent on data analytics is allocated to data munging, where IT manually cleans ...  

Data observability refers to the ability of an organization to monitor, track, and make recommendations about what’s happening inside their data systems in order to maintain system health and reduce downtime. Its objective is to ensure that data pipelines are productive and can continue running ...  

Data onboarding is the process of preparing and uploading customer data into an online environment. It allows organizations to bring customer records gathered through offline means into online systems, such as CRMs. Data onboarding requires significant data cleansing to correct for errors and for ...  

A data pipeline is a sequence of steps that collect, process, and move data between sources for storage, analytics, machine learning, or other uses. For example, data pipelines are often used to send data from applications to storage devices like data warehouses or data lakes. Data pipelines are ...  

A data source is the digital or physical location where data originates from or is stored, which influences how it is stored per its location (e.g. data table or data object) and its connectivity properties.

...  

Data transformation is the process of converting data into a different format that is more useful to an organization. It is used to standardize data between data sets, or to make data more useful for analysis and machine learning. The most common data transformations involve converting raw data i ...  

Data validation is the process of ensuring that your data is accurate and clean. Data validation is critical at every point of a data project’s life—from application development to file transfer to data wrangling—in order to ensure correctness. Without data validation from inception to iter ...  

Data visualization is the visual representation of data by using graphs, charts, plots or information graphics.

...  

Decision intelligence is the process of applying analytics, AI and automation to decisions that impact< ...  

ETL

ETL とは、さまざまなソースやフォーマットからのデータをコピー、結合、変換し、データウェアハウスやデータレイクなどの新たな保存先に書き出すために使用するプロセスです。

...  

An ETL Developer is an IT specialist who designs, develops, automates, and supports complex applications to extract, transform, and load data. An ETL Developer plays an important role in determining the data storage needs of their organization.

...  

機械学習 (machine learning) とは、コンピューターが特定の制約を持つデータセットを反復的に処理することで、内在するパターンを見つけ出すプロセスです。

...  

A regex (short for regular expression) is a sequence of characters used to specify a search pattern. It allows users to easily conduct searches matching very specific criteria, saving large amounts of time for those who regularly work with text or analyze large volumes of data. An example of a re ...  

Sales analytics is the practice of generating insights from data and used to set goals, metrics, and a larger strategy.

...  

Source-to-Target Mapping is a set of data transformation instructions that determine how to convert the structure and content of data in the source system to the structure and content needed in the target system.

...  

Systems of intelligence help organizations extract value from their tech stack  

A User Defined Function (UDF) is a custom programming function that allows users to reuse processes without having to rewrite code. For example, a complex calculation can be programmed using SQL and stored as a UDF. When this calculation needs to be used in the future on a different set of data, ...  

データアナリティクスとは、データを調査、変換、分析して、重要なインサイトを明らかにし、意思決定の効率性を高めるためのプロセスです。

...  

データカタログによりデータアセットを最大限に活用する方法

...  

データガバナンスとは何か、データガバナンスを実現するためのツールやフレームワーク、そしてビジネス価値を高めるためにデータガバナンスをどのように活用できるかを解説します。

...  

データクレンジングは、データクリーニングやスクラビングとも呼ばれ、生のデータセットからエラーや重複、無関係なデータを特定して修正するプロセスです。

...  

データサイエンスとは、応用統計学の一種で、コンピュータサイエンスと数学の要素を組み込み、定量的・定性的なデータからインサイトを抽出します。

...  

テクノロジーの世界ですっかりおなじみの存在となった、「データサイエンス」と「機械学習」。どちらも、ビジネスや業界のあらゆる分野での AI の運用を強化するものですが、両者にはどのような違いがあるのでしょ� ...  

データの標準化は、データの取得、標準化、統合に関する複雑なセマンティクスをすべて抽象化し、ビジネスにより迅速・正確な分析を提供します。

...  

データプロファイリングは、データの特性を把握し、その品質を評価することによって、データに対する新たな発見や理解を得て、データを整理するためのプロセスです。

...  

データトラングリングは、より良いビジネス上の意思決定を行うために、データを変換、クレンジング、強化して、より適切で使いやすい形に整えるプロセスです。

...  

データ探索は、データの活用に先駆け、データをより良く理解することを可能にする手法です。データの多角的な調査を通じて、大規模なデータセットをより詳細に、より構造的に分析するための準備を整えることができ ...  

データ準備は、ビジネス分析に使用する生データのクレンジングと統合を行う工程です。その重要性と仕組みをご紹介します。

...  

データ系列の追跡により、企業がデータの取得元やシステム内のプロセスを追跡し、ビジネスデータのコンプライアンスと正確性を維持することが可能になります。

...  

予測分析は、機械学習や統計アルゴリズムなどの手法を用いて、将来何が起こるかを予測するデータ分析の一種です。

...  

処方的分析は、機械学習、グラフ分析、シミュレーション、発見的手法など通じて、「何をすべきか、何ができるか」という問いに答える分析手法です。

...  

教師あり学習と教師なし学習は、異なるアプローチにより、企業と消費者をより密接に結びつけます。ここでは、その違いと仕組みについて説明します。

...  

MLOps は、データサイエンスの運用における、部門横断的、協調的、反復的なプロセスであり、機械学習 (Machine Learning、ML) やその他のタイプのモデルを、反復可能なプロセスを介してデプロイし、継続的に監視できる再利� ...  

特徴量エンジニアリングを用いることで、データをより良く理解し、有益な情報へと変えることが可能になります。

...  

空間分析は、地理的モデリングを用いて、地理空間データに含まれる位置、関係、属性、近接性などを分析し、問題解決に役立つ洞察を引き出す分析手法です。

...  

記述的分析は、大規模な生データを集計・分析することで、過去に何が起きたのかを探り、その結果をグラフ(折れ線/円/棒グラフ)や表などに落とし込んで可視化する分析手法です。

...  

正確な需要予測は、在庫管理、キャパシティプランニング、製品需要、リソースの割り当てなどに役立ちます。

...  

高度な分析では、精緻な分析テクニックを使用して、インサイトの発見、パターンの特定、結果の予測、推奨事項の作成を行うことができます。

...