BDDでは、従来の分析ツールに比べて、多くのユーザーがビッグ・データを処理できます。データのロードおよび更新の時間も短縮され、ビッグ・データの実際のデータ分析に集中できます。
従来の分析プロジェクトでは、データの準備に作業の大部分を費やす必要があります。ビジネスで発生する可能性があるすべての質問を最初に予測し、一致するデータをモデル化する必要があります。次に、データ・ソースを特定して取得し、フィードを操作してモデルに適合させます。次に、データの抽出、変換およびロード(ETL)のためのパイプイランを構築します。これらのタスクを実行して初めて、データを処理できます。その結果、実際にデータ分析に集中できるのは作業のわずかな部分のみです。
ビッグ・データの場合、その複雑さのためにデータ・ロードの事前コストが増大します。ビッグ・データでは、データの量と種類が増大します。特に非構造化ソースなど、分析の準備ができるまで、新しいソース・データを理解して操作するために必要な時間は大幅に伸びています。ビッグ・データは、すぐに変化します。新しいデータで既存の分析プロジェクトを定期的に更新する必要があります。このようなデータのロードと更新のタスクには、高い技術力を備えた有能なエンジニアが必要です。その結果、事前のデータ・ロードとデータ更新に多くの時間とコストがかかります。
BDDには、データ更新のためのスクリプトを作成できるツールがあります。また、ビジネス・ユーザーがStudioのプロジェクトのデータを更新およびリロードできます。その結果、データを事前に準備する必要がありません。かわりに、データの検索、インサイトの検出、データの分析、意思決定、決定に基づいた行動が可能です。