BDDでは、従来のアナリティクス・ツールと比較して、多数のユーザーがビッグ・データを操作できます。 データのロードおよび更新にかかる時間が削減し、ビッグ・データの実際のデータ分析に集中できます。
従来のアナリティクスでは、ほとんどの作業をデータ準備に費やします。 最初に、すべての考えられるビジネス上の質問を予測し、照合するデータをモデル化し、データ・ソースを検索して取得し、モデルに適合するようにフィードを操作する必要があります。 データ(ETL)の抽出、変換およびロード用のパイプラインを構築します。 これらのタスクの後にのみ、データに関与できます。 その結果、実際のデータ分析には最小限の労力のみが絞られます。
大量のデータの複雑さにより、データ・ロードの先行コストが実現します。 ビッグ・データは、データの量および種類を増加します。 分析の準備ができる前に、新しいソース・データ、特に非構造化ソースを理解して操作するほうが時間のかかる場合があります。
また、ビッグ・データは高速で変更されます。 既存のアナリティクス・プロジェクトを新しいデータで定期的に更新する必要があります。 このようなデータのロードおよび更新タスクには、エキスパート・スキルを持つ適格なエンジニアが必要です。 そのため、データのロードおよび更新の完了に時間とコストがかかります。