2 Big Data Spatial and Graphおよび空間データの使用
この章では、ビッグ・データ環境での空間データのロード、格納、アクセス、および使用に関する概念と使用状況の情報について説明します。
- 空間データに対するBig Data Spatial and Graphのサポートについて
Oracle Big Data Spatial and Graphの機能では、位置情報に基づく意思決定のために、空間データを迅速かつ効率的に格納、アクセス、および分析できます。 - Oracle Big Dataベクトル・データおよびラスター・データの処理
Oracle Big Data Spatial and Graphでは、ベクトルおよびラスター空間データの両方の保管と処理をサポートしています。 - ラスター・データ処理のためのOracle Big Data Spatial Hadoop Image Processing Framework
Oracle Spatial Hadoop Image Processing Frameworkを使用すると、一連の並列処理フェーズの結果として生成される新しい結合イメージの作成が可能になります。 - Image Loaderを使用したHadoopへのイメージのロード
Oracle Spatial and Graph Hadoop Image Processing Frameworkを使用してイメージを処理するには、最初にイメージを実際にHDFSに保存し、次に各イメージをそれぞれ別のスマート・タイルに保存します。 - Oracle Spatial Hadoop Image Processorを使用したイメージの処理
イメージはHDFSにロードされると、Oracle Spatial Hadoop Image Processing Frameworkによって並列で処理できます。 - Oracle Spatial Hadoop Raster Processing APIを使用したイメージのロードおよび処理
このフレームワークでは、XMLを作成せずに、Javaアプリケーションを使用してラスターをロードし、処理するラスター処理APIが用意されています。このアプリケーションはクラスタ内またはリモート・ノード上で実行できます。 - Oracle Spatial Hadoop Raster Simulator Frameworkを使用したラスター処理のテスト
カスタム処理クラスを作成する場合、Oracle Spatial Hadoop Raster Simulator Frameworkを使用して、これらをOracle Raster Processing Frameworkにプラグインすることを偽装することにより、次を実行できます。 - Oracle Big Data Spatial Raster Processing for Spark
Oracle Big Data Spatial Raster Processing for Apache Sparkは、Spatial Raster Processing API for Javaです。 - Oracle Big Data Spatial Vector Analysis
Oracle Big Data Spatial Vector AnalysisはSpatial Vector Analysis APIであり、Hadoopジョブとして実行され、HDFSに格納されているデータの空間処理のためのMapReduceコンポーネントを提供します。 - Oracle Big Data Spatial Vector Analysis for Spark
Oracle Big Data Spatial Vector Analysis for Apache Sparkは、空間の変換およびアクション、空間のパーティショニングおよび索引付けをサポートしている空間対応のRDD (Resilient Distributed Datasets)が用意されたSpatial Vector Analysis API for Java and Scalaです。 - Oracle Big Data Spatial Vector Hive Analysis
Oracle Big Data Spatial Vector Hive Analysisには、Hiveを使用してデータを分析するために空間関数が用意されています。 - Oracle Big Data SpatialViewer Webアプリケーションの使用
Oracle Big Data SpatialViewer Webアプリケーション(SpatialViewer)を使用すると、様々なタスクを実行できます。
2.1 空間データに対するBig Data Spatial and Graphのサポートについて
Oracle Big Data Spatial and Graphの機能では、位置情報に基づく意思決定のために、空間データを迅速かつ効率的に格納、アクセス、および分析できます。
空間データは、実際の空間または地理情報システム(GIS)やその他の位置情報アプリケーション上の概念的な空間に関連する実際、または概念的なオブジェクトの位置特性を表します。
空間機能を使用して、特定の位置の2次元および3次元の地理イメージに対して位置情報を付加、補完、視覚化、変換、ロード、処理を行い、GIS機能におけるジオメトリ形状を操作します。
2.1.1 Big Data Spatial and Graph on Apache Hadoopとは
Oracle Big Data Spatial and Graph on Apache Hadoopとは、MapReduceプログラムとHadoopクラスタの分析機能を使用して空間データを格納し、データにアクセスし、分析するフレームワークです。空間機能によってスキーマが提供され、空間データ・コレクションの格納、取得、更新、および問合せが容易になります。Big Data Spatial and Graph on Hadoopでは、ジオメトリ形状、ラスターまたはベクトル・イメージのいずれかの空間イメージの格納と処理をサポートしており、サポート対象の数百種類の形式のいずれかで保存されます。
注意:
空間のコンセプト、データ、および操作の概要は、『Oracle Spatial and Graph開発者ガイド』を参照してください
2.1.2 Oracle Big Data Spatial and Graphの利点
Oracle Big Data Spatial and Graphの使用には、次の利点があります。
-
一部のGISを中心とした空間処理システムやエンジンとは異なり、Oracle Big Data Spatial and Graphでは、空間情報が構造化されていても、構造化されていなくても処理が可能です。
-
顧客の環境で保存するデータ形式が1つに限定されることはありません。空間データと空間以外のビジネスデータの両方が保存されていても、Oracle Big Dataで空間処理を実行できます。
-
これはフレームワークであるため、顧客は提供されているAPIを使用して、アプリケーションや操作をカスタムで作成できます。
-
Oracle Big Data Spatialでは、ベクトル・タイプとラスター・タイプの両方の情報やイメージを処理できます。
2.1.3 Oracle Big Data Spatialの機能
空間データはSpatialサーバーによって問合せと分析のためにロードされ、イメージはイメージ処理フレームワークによって保存され、処理されます。Oracle Big Data Spatial and Graphサーバーは、Hadoop上で次のために使用できます。
-
地勢図上の足跡、ジオメトリのリソースの可用性などの地理空間情報のカタロギング。
-
地図上の位置で最も近い距離などを計算する距離演算の位相処理。
-
地図要素内で人口統計の相関を作成することによって、階層型の地勢図を構築し、地図を補完するためのカテゴリ化。
Oracle Big Data Spatial and Graphには、次の機能が組み込まれています。
-
空間データをすばやく取得するための索引付け機能。
-
地図上に足跡を表示するマップ機能。
-
特定の地勢地域をズームインおよびズームアウトするズーム機能。
-
モザイク操作またはサブセット操作の作成を処理するために一連のイメージ・ファイルをグループ化するモザイクおよびグループ機能。
-
デカルトおよび測地座標系で、空間データを表すデカルトおよび測地座標の機能。
-
国、州、都市、郵便番号などのジオメトリック階層を構築し、関連付ける階層機能。この機能では、ドキュメントまたは緯度/経度座標の形式で入力データを処理できます。
2.2 Oracle Big Dataベクトル・データおよびラスター・データの処理
Oracle Big Data Spatial and Graphでは、ベクトルおよびラスター空間データの両方の保管と処理をサポートしています。
2.2.1 Oracle Big Data Spatialラスター・データの処理
ラスター・データの処理では、GDALローダーがラスター空間データまたはイメージをHDFS環境にロードします。ラスター空間データでは、次の基本操作を実行できます。
-
モザイク: 複数のラスター・イメージを組み合せて単一のモザイク・イメージを作成します。
-
サブセット: 個々のイメージに対してサブセット操作を実行します。
-
ラスター代数演算: ラスター内のすべてのピクセルに対して代数演算を実行します(add、divide、multiply、log、pow、sine、sinhおよびacosなど)。
-
ユーザー定義の処理: ラスター処理は、マッピング・フェーズおよびリデュース・フェーズで実行されるようユーザーが設定するクラスに基づいています。
この機能は、ラスター分析操作のためのMapReduceフレームワークをサポートしています。ユーザーは、ラスター・データの代数関数などの独自のラスター操作をカスタムで構築できます。たとえば、地形など、数値標高モデルや空間的表面の3次元の表現の各基盤の傾斜を計算します。詳細は、「ラスター・データ処理のためのOracle Big Data Spatial Hadoop Image Processing Framework」を参照してください。
2.2.2 Oracle Big Data Spatialベクトル・データの処理
この機能は、空間ベクトル・データの処理をサポートしています。
-
Hadoop HDFS環境へのロードおよび格納
-
デカルトまたは測地データとして格納
格納された空間ベクトル・データは次の問合せ操作などの実行に使用されます。
-
ポイントインポリゴン
-
距離計算
-
Anyinteract
-
バッファ作成
空間ベクトル・データでは、複数のデータ・サービス操作がサポートされています。
-
データ・エンリッチメント
-
データ・カテゴリ化
-
空間の結合
また、HTML5形式にのみ限定されますが、Map Visualization APIもサポートされています。このようなAPIにアクセスして、カスタム操作を作成できます。詳細は、「Oracle Big Data Spatial Vector Analysis」を参照してください。
2.3 ラスター・データ処理のためのOracle Big Data Spatial Hadoop Image Processing Framework
Oracle Spatial Hadoop Image Processing Frameworkを使用すると、一連の並列処理フェーズの結果として生成される新しい結合イメージの作成が可能になります。
次の機能が含まれます。
-
HDFSイメージ・ストレージでは、各ブロック・サイズ分割が個別の四角形として格納され、その後のそれぞれの処理に使用されます
-
MapReduceフレームワークを使用した、サブセット操作、ユーザー定義操作、および地図代数演算の並列処理
-
マッピング・フェーズまたはリデュース・フェーズで透過的に並列して実行されるカスタム処理クラスの追加機能
-
ジオリファレンスされるイメージの高速処理
-
GDAL形式、複数帯域イメージ、DEM (数値標高モデル)、複数ピクセル深度、およびSRIDのサポート
-
Java APIでは、WebサービスまたはスタンドアロンJavaアプリケーションに使用できるフレームワーク操作にアクセスできます
-
ローカル環境でユーザー処理クラスをテストおよびデバッグするためのフレームワーク
Oracle Spatial Hadoop Image Processing Frameworkは、LoaderとProcessorと呼ばれる2つのモジュールで構成されており、次の図に示すように、それぞれがHadoopクラスタ内の別のステージで実行されるHadoopジョブで表されます。また、Image Server Webアプリケーションを使用してイメージをロードおよび処理し、Java APIを使用してフレームワークの機能を公開できます。
インストールと構成について詳しくは、次を参照してください。
2.3.1 Image Loader
Image Loaderは、特定のイメージまたはイメージ・グループをHDFSにロードするHadoopジョブの1つです。
-
イメージはインポート中、HDFSブロックとして四角形処理され、格納されます。
-
GDALはイメージの四角形処理に使用されます。
-
それぞれの四角形は個々のマッパーによってロードされるため、並列で読み取られ、高速になります。
-
それぞれの四角形は一定のバイト数(ユーザー入力)が重なっているため、隣接する四角形の領域にかかっています。
-
MapReduceジョブでは、それぞれの四角形の情報をロードするマッパーを使用します。マッパーの数は、四角形の数、イメージ解像度、およびブロック・サイズに応じて'n'個になります。
-
イメージごとのリデュース・フェーズでは、マッパーによってロードされた情報をすべてまとめ、そのイメージを解像度、帯域、オフセット、イメージ・データを含む特別な
.ohif
形式で格納します。これにより、それぞれの四角形を含むファイル・オフセットとノード場所が明らかになります。 -
それぞれの四角形には、各帯域の情報が含まれます。これは、一部の四角形のみを処理し、それに対応するブロックのみをロードする場合に役立ちます。
次の図はImage Loaderの処理を示しています。
2.3.2 Image Processor
Image Processorは、ユーザー入力に基づいて処理対象の四角形をフィルタ処理し、並列処理によって新しい1つのイメージを作成するためのHadoopジョブです。
-
ユーザーが識別した特定のイメージの四角形を処理します。識別できる処理クラスは1つ、ゼロ、または複数です。これらのクラスは、構成に応じてマッピング・フェーズまたはリデュース・フェーズで実行されます。マッピング・フェーズの場合、処理クラスの実行後、モザイク操作を実行し、ピクセルを調整してユーザーが要求した最終的な出力形式にします。モザイク操作が要求されなかった場合、入力ラスターがそのままリデュース・フェーズに送信されます。リデュース・フェーズの場合、ユーザー・リデュース処理クラス用として入力されるGDALデータ・セットにすべての四角形がまとめられます。これにより、ユーザーのニーズに応じて最終出力を変更または分析できるようになります。
-
マッパーは、データのローカル性を保ちながら、1つの四角形に対応するデータをロードします。
-
データがロードされると、マッパーはユーザーが要求した帯域をフィルタ処理します。
-
フィルタされた情報は、リデュース・フェーズで各マッパーに送信され、そこでバイト数がまとめられ、ユーザーの要求に応じて最終的な処理イメージがHDFSまたは通常のファイル・システムに格納されます。
次の図はImage Processorジョブを示しています。
2.4 Image Loaderを使用したHadoopへのイメージのロード
Oracle Spatial and Graph Hadoop Image Processing Frameworkを使用してイメージを処理するには、最初にイメージを実際にHDFSに保存し、次に各イメージをそれぞれ別のスマート・タイルに保存します。
ここでは、四角形をそれぞれ使用してジョブを処理できます。Image Loaderでは、単一イメージ、またはイメージのコレクションを並列でHDFSにインポートできるため、ロード時間を短縮できます。
Image Loaderはファイル・システムのイメージをHDFSにインポートし、そこでブロックにイメージのすべての帯域のデータを含められるため、特定の位置でその後処理が必要になった場合、その情報を単一ノードで処理できます。
2.4.1 イメージ・ロード・ジョブ
イメージ・ロード・ジョブには、イメージを関連イメージに分割するカスタム入力形式があります。分割は、次の方法で特定される、定義済の領域をカバーするイメージの四角形のブロックを読み取るアルゴリズムに基づいて計算されます
領域 = ((ブロックサイズ - メタデータ・バイト数) / 帯域数) / 1ピクセル当たりのバイト数。
ブロック・サイズ全体を使用しない部分については、残りのバイト数がゼロで埋められます。
分割は複数のマッパーに割り当てられ、そこでImageSplit
情報に基づき、割当て済の四角形がすべてGDALによって読み取られます。その結果、ImageDataWritable
インスタンスが作成され、コンテキストに保存されます。
ImageDataWritable
インスタンスのメタデータ・セットは、四角形処理したイメージを操作および処理できるように、処理クラスでの設定に使用されます。ソース・イメージは複数のマッパーから読み取られるため、並列ロードが高速で実行されます。
マッパーが読取りを完了すると、 リデューサがコンテキストから四角形を選択してまとめ、ファイルをHDFSに保存します。イメージを再度読み取るには、特殊な読取り処理が必要です。
2.4.2 入力パラメータ
次の入力パラメータをHadoopコマンドに指定します。
hadoop jar /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageloader.jar -files <SOURCE_IMGS_PATH> -out <HDFS_OUTPUT_FOLDER> -gdal <GDAL_LIB_PATH> -gdalData <GDAL_DATA_PATH> [-overlap <OVERLAPPING_PIXELS>] [-thumbnail <THUMBNAIL_PATH>] [-expand <false|true>] [-extractLogs <false|true>] [-logFilter <LINES_TO_INCLUDE_IN_LOG>] [-pyramid <OUTPUT_DIRECTORY, LEVEL, [RESAMPLING]>]
説明:
SOURCE_IMGS_PATH
はソース・イメージまたはフォルダのパスです。入力が複数の場合はカンマで区切ります。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。HDFS_OUTPUT_FOLDER
はロードしたイメージを格納するHDFS出力フォルダです。OVERLAPPING_PIXELS
はそれぞれの四角形の境界線上で重なるピクセルの任意の数であり、このパラメータが指定されていない場合、重なっている2つのピクセルのデフォルトが使用されます。GDAL_LIB_PATH
はGDALライブラリの場所を示すパスです。GDAL_DATA_PATH
はGDALデータ・フォルダの場所を示すパスです。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。THUMBNAIL_PATH
はロードしたイメージのサムネイルを格納する任意のパスです。NFSを介してクラスタ内のすべてにアクセスでき、Yarnユーザーの書込みアクセス権のあるパスを指定する必要があります。-expand
は、ロードされたラスターのHDFSパスによってソース・パス(すべてのディレクトリを含む)が拡張されるかどうかを制御します。これをfalse
に設定すると、.ohif
ファイルは、(-o
オプションを使用して指定された)出力ディレクトリに直接格納され、この場合、このラスター内のこのディレクトリのパスは含まれません。-extractLogs
は、実行したアプリケーションのログをシステムの一時ディレクトリに抽出するかどうかを制御します。デフォルトでは有効ではありません。抽出には、Oracle Frameworkクラスの一部ではないログは含まれません。-logFilter <LINES_TO_INCLUDE_IN_LOG>
は、たとえば、カスタム処理クラス・パッケージを含めるために、抽出したログに含めるすべてのパターンがリストされたカンマ区切りの文字列です。-pyramid <OUTPUT_DIRECTORY, LEVEL, [RESAMPLING]>
を使用すると、最初のラスター・ロードを行う際にピラミッドを作成できます。HDFSにアップロードする前に、ローカル・ピラミッドを格納するためのOUPUT_DIRECTORYを指定する必要があります。ピラミッドはロードで要求したHDFSAディレクトリと同じディレクトリにロードされます。各ラスターで必要なピラミッドの数を示すために、ピラミッドのLEVELを指定する必要があります。RESAMPLINGアルゴリズムは、再サンプリングの実行に使用するメソッドを指定するためのオプションです。何も設定しない場合は、BILINEAR
が使用されます。
たとえば、次のコマンドでは、images
フォルダ内のジオリファレンスされたイメージすべてをロードし、該当するすべての境界線に重なる10ピクセルを追加します。HDFS出力フォルダはohiftest
であり、ロードしたイメージのサムネイルがprocesstest
フォルダに格納されます。
hadoop jar /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageloader.jar -files /opt/shareddir/spatial/demo/imageserver/images/hawaii.tif -out ohiftest -overlap 10 -thumbnail /opt/shareddir/spatial/processtest –gdal /opt/oracle/oracle-spatial-graph/spatial/raster/gdal/lib –gdalData /opt/shareddir/data
デフォルトでは、マッパーとリデューサは2GBのJVMを取得できるよう構成されていますが、この設定、またはその他のジョブ構成プロパティは、コマンドを実行する同じフォルダの場所で、ユーザーがimagejob.prop
プロパティ・ファイルを追加することによってオーバーライドできます。このプロパティ・ファイルは、オーバーライドする構成プロパティをすべてリストできます。次に例を示します。
mapreduce.map.memory.mb=2560 mapreduce.reduce.memory.mb=2560 mapreduce.reduce.java.opts=-Xmx2684354560 mapreduce.map.java.opts=-Xmx2684354560
Javaヒープ・メモリー(java.opts
プロパティ)は、マッパーとリデューサ(mapreduce.map.memory
とmapreduce.reduce.memory
)に割り当てられたメモリーの合計以下である必要があります。したがって、Javaヒープ・メモリーを増やす場合、マッパーとリデューサのメモリーも増やすことが必要である場合があります。
GDALが適切に機能するように、$LD_LIBRARY_PATHを使用してライブラリを使用可能にする必要があります。ジョブを実行する前に、共有ライブラリ・パスがシェル・ウィンドウに適切に設定されていることを確認してください。次に例を示します。
export LD_LIBRARY_PATH=$ALLACCESSDIR/gdal/native
2.4.3 出力パラメータ
リデューサは、入力イメージごとに2つの出力ファイルを生成します。1つ目は、ソース・イメージのすべての四角形を集める.ohif
ファイルであり、それぞれの四角形は処理マッパーによって別のインスタンスとして処理されます。四角形は内部でHDFSブロックとして格納されます。ブロックは複数のノードに配置され、1つのノードには特定の.ohif
ファイルのブロックが1つ以上含まれます。.ohif
ファイルは、–expand
が使用されなかった場合、/user/<USER_EXECUTING_JOB>/OUT_FOLDER/<PARENT_DIRECTORIES_OF_SOURCE_RASTER>
フォルダの下にあるユーザー指定フォルダに、-outフラグを付けて格納されます。それ以外の場合、.ohif
は/user/<USER_EXECUTING_JOB>/OUT_FOLDER/
に配置され、このファイルはoriginal_filename.ohif
として識別できます。
2つ目の出力は、メタデータ・ファイルに関連しており、イメージのすべてのピースをリストし、それぞれがカバーする座標を示します。ファイルはメタデータの場所にあるHDFSに置かれており、その名前はohif
ファイルの名前を使用してハッシュ生成されます。このファイルはOracle内部専用であり、ソース・ラスターの重要なメタデータをリストします。メタデータ・ファイルのサンプル行の一部は次のとおりです。
srid:26904 datatype:1 resolution:27.90809458890406,-27.90809458890406 file:/user/hdfs/ohiftest/opt/shareddir/spatial/data/rasters/hawaii.tif.ohif bands:3 mbr:532488.7648166901,4303164.583549625,582723.3350767174,4269619.053853762 0,532488.7648166901,4303164.583549625,582723.3350767174,4269619.053853762 thumbnailpath:/opt/shareddir/spatial/thumb/
-thumbnail
フラグが指定されている場合、ソース・イメージのサムネイルが関連フォルダに格納されます。これは.ohif
ファイルの変換を視覚化する方法の1つです。ジョブ実行ログには、コマンドyarn logs -applicationId <applicationId>
を使用してアクセスできます。
2.5 Oracle Spatial Hadoop Image Processorを使用したイメージの処理
イメージはHDFSにロードされると、Oracle Spatial Hadoop Image Processing Frameworkによって並列で処理されます。
出力を指定すると、フレームワークによって出力に適合するようフィルタおよび処理され、まとめて1つのファイルに格納されます。地図代数演算も可能であり、設定されていれば、処理フェーズの最初の部分になります。最終的な出力がフレームワークによって作成される前であれば、実行する処理クラスを追加で指定できます。
Image Processorは、入力(モザイク記述または単一のラスター)に基づいて特定のデータ・ブロックをロードし、最終的な出力に適合する帯域およびピクセルのみを選択します。指定した処理クラスはすべて実行され、最終的な出力は、ユーザーの要求に応じてHDFSまたはファイル・システムに格納されます。
2.5.1 イメージ処理ジョブ
イメージ処理ジョブには、ユーザーによって要求された処理のタイプに応じて異なるフローがあります。
-
デフォルトのイメージ処理ジョブ・フロー: モザイク操作、単一のラスター操作、または基本的な複数のラスター操作が含まれる処理に対して実行されます。
-
複数のラスター・イメージ処理ジョブ・フロー: 複雑な複数のラスター代数演算が含まれる処理に対して実行されます。
2.5.1.1 デフォルトのイメージ処理ジョブ・フロー
デフォルトのイメージ処理ジョブ・フローは、次の処理のいずれかが要求されたときに実行されます。
-
モザイク操作
-
単一のラスター操作
-
基本的な複数のラスター代数演算
このフローには、独自のカスタムFilterInputFormat
があり、SRIDおよび座標に基づいて処理対象の四角形を決定します。モザイク入力のデータ型(ピクセル深度)と同じデータ型(モザイク深度)のイメージのみが該当します。ユーザーがモザイク出力に指定した座標と交差する四角形のみが含まれます。単一のラスター操作または基本的な複数のラスター代数演算(モザイクを除く)の場合、処理は完全なイメージに対して実行されるため、フィルタには、入力ラスターのすべての四角形が含まれます。四角形が選択されると、イメージごとにカスタムImageProcessSplit
が作成されます。
マッパーがImageProcessSplit
を受け取ると、ImageSplit
の指定に基づいて情報が読み取られ、ユーザーが指定した帯域のみを選択するようフィルタ処理され、地図操作、および(要求に定義されていれば)処理クラスのリストが実行されます。
それぞれのマッパー処理は、データがあるノードで実行されます。地図代数演算および処理クラスが実行された後、検証により、ユーザーがモザイク操作を要求しているかどうか、または分析に完全なイメージが含まれるかどうかが検証されます。モザイク操作が要求されている場合、最終処理によってこの操作が実行されます。モザイク操作では、すべての四角形から出力に適合するピクセルのみを選択し、必要に応じて解像度を変更してモザイク出力に追加します。単一の処理操作では、前のラスターの四角形のバイトがそのままコピーされます。結果として得られたバイトは、リデューサによってリカバリされる対象としてNFSに格納されます。
1つのリデューサで複数の四角形を選択し、それをまとめます。基本的な複数のラスター代数演算を指定した場合、これは、四角形が最終出力にマージされるときに同時に実行されます。この操作は、モザイク出力内の交差ピクセルのみに影響するか、モザイク操作が要求されなかった場合はすべてのピクセルに影響します。リデューサ処理クラスを指定した場合、出力ラスターとともにGDALデータ・セットが分析および処理のためにこのクラスに送信されます。HDFS出力を選択した場合、ImageLoader
が呼び出され、結果がHDFSに格納されます。それ以外の場合、イメージはデフォルトでGDALによって用意され、ファイル・システム(NFS)に格納されます。
親トピック: イメージ処理ジョブ
2.5.1.2 複数のラスター・イメージ処理ジョブ・フロー
複数のラスター・イメージ処理ジョブ・フローは、複雑な複数のラスター代数演算が要求されるときに実行されます。これは、同じMBR、ピクセル・タイプ、ピクセル・サイズおよびSRIDを持つラスターに適用されます。なぜなら、これらの操作は対応するセルにピクセル単位で適用され、この場合、すべてのピクセルが同じ座標を表します。
このフローには、独自のカスタムMultipleRasterInputFormat
があり、SRIDおよび座標に基づいて処理対象の四角形を決定します。同じMBR、ピクセル・タイプ、ピクセル・サイズおよびSRIDを持つイメージのみが考慮されます。カタログ内の最初のラスターによって指定された座標と一致するラスターのみが含まれます。入力ラスターのすべての四角形が考慮されますが、これは、処理が完全なイメージに対して実行されるからです。
四角形が選択されると、カスタムMultipleRasterSplit
が作成されます。この分割には、ブロック・サイズに応じてすべての元の四角形の小さい領域が含まれますが、これは、小さい領域であってもすべてのラスターを分割に含める必要があるからです。これらはそれぞれIndividualRasterSplit
と呼ばれ、これらは親MultipleRasterSplit
に含まれます。
マッパーがMultipleRasterSplit
を受け取ると、親分割に含まれるすべてのラスターの四角形の情報が読み取られ、ユーザーが指定した帯域のみ、およびこの特定のマッパーで処理する対応する小さい領域のみを選択するようフィルタ処理され、複雑な複数のラスター代数演算が実行されます。
同じノード内にない可能性がある単一のマッパーに複数のラスターが含まれるため、処理のこの部分ではデータのローカル性が失われる可能性があります。すべてのピクセルに関して結果として得られたバイトは、リデューサによってリカバリされる対象としてコンテキストに取り込まれます。
1つのリデューサでピクセル値を選択し、それをまとめます。リデューサ処理クラスを指定した場合、出力ラスターとともにGDALデータ・セットが分析および処理のためにこのクラスに送信されます。このシナリオではこのクラスの四角形のリストはnullを受け取り、このクラスは出力データ・セットのみを操作できます。HDFS出力を選択した場合、ImageLoader
が呼び出され、結果がHDFSに格納されます。それ以外の場合、イメージはデフォルトでGDALによって用意され、ファイル・システム(NFS)に格納されます。
親トピック: イメージ処理ジョブ
2.5.2 入力パラメータ
次の入力パラメータをHadoopコマンドに指定できます。
hadoop jar /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageprocessor.jar -config <MOSAIC_CONFIG_PATH> -gdal <GDAL_LIBRARIES_PATH> -gdalData <GDAL_DATA_PATH> [-catalog <IMAGE_CATALOG_PATH>] [-usrlib <USER_PROCESS_JAR_PATH>] [-thumbnail <THUMBNAIL_PATH>] [-nativepath <USER_NATIVE_LIBRARIES_PATH>] [-params <USER_PARAMETERS>] [-file <SINGLE_RASTER_PATH>]
説明:
MOSAIC_CONFIG_PATH
は、出力の機能を定義するモザイク構成xmlへのパスです。GDAL_LIBRARIES_PATH
はGDALライブラリの場所を示すパスです。GDAL_DATA_PATH
はGDALデータ・フォルダの場所を示すパスです。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。IMAGE_CATALOG_PATH
は、処理対象のHDFSイメージをリストするカタログxmlへのパスです。–file
フラグを使用して処理する単一のラスターも指定できるため、これはオプションです。USER_PROCESS_JAR_PATH
は任意のユーザー定義jarファイルまたはjarファイルのカンマ区切りのリストであり、これらにはそれぞれ、ソース・イメージに適用される追加の処理クラスが含まれています。THUMBNAIL_PATH
はロードしたイメージのサムネイル作成を有効化するための任意のフラグです。このパスは、クラスタ内のすべてのノードへのNFSを介してアクセスし、HDFS出力の場合のみ有効です。USER_NATIVE_LIBRARIES_PATH
は、分析で使用する追加のネイティブ・ライブラリの任意のカンマ区切りのリストです。これはまた、アプリケーションにロードするすべてのネイティブ・ライブラリが含まれるディレクトリである場合もあります。USER_PARAMETERS
は、ユーザー処理クラスの入力データを定義するために使用する任意のキー/値のリストです。セミコロンを使用して、パラメータを区切ります。たとえば、azimuth=315;altitude=45
などですSINGLE_RASTER_PATH
は、ジョブによって処理される.ohif
ファイルへの任意のパスです。これが設定されている場合、カタログを設定する必要はありません。
たとえば、次のコマンドは、testFS.xml
ファイルに設定されているモザイク出力定義を使用して、カタログ・ファイルinput.xml
ファイルにリストされるすべてのファイルを処理します。
hadoop jar /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageprocessor.jar -catalog /opt/shareddir/spatial/demo/imageserver/images/input.xml -config /opt/shareddir/spatial/demo/imageserver/images/testFS.xml -thumbnail /opt/shareddir/spatial/processtest –gdal /opt/oracle/oracle-spatial-graph/spatial/raster/gdal/lib –gdalData /opt/shareddir/data
デフォルトでは、マッパーとリデューサは2GBのJVMを取得できるよう構成されていますが、この設定、またはその他のジョブ構成プロパティは、コマンドを実行する同じフォルダの場所で、ユーザーがimagejob.prop
プロパティ・ファイルを追加することによってオーバーライドできます。
GDALが適切に機能するように、$LD_LIBRARY_PATHを使用してライブラリを使用可能にする必要があります。ジョブを実行する前に、共有ライブラリ・パスがシェル・ウィンドウに適切に設定されていることを確認してください。次に例を示します。
export LD_LIBRARY_PATH=$ALLACCESSDIR/gdal/native
2.5.2.1 カタログXML構造
次の例は、イメージ処理ジョブによって生成されるモザイク操作に必要なすべてのソース・イメージをリストする入力カタログXMLを示します。
-<catalog> -<image> <raster>/user/hdfs/ohiftest/opt/shareddir/spatial/data/rasters/maui.tif.ohif</raster> <bands datatype='1' config='1,2,3'>3</bands> </image> </catalog>
<catalog>
要素には処理対象の<image>要素のリストが含まれています。
それぞれの<image>
要素は、<raster>要素内にソース・イメージまたはソース・フォルダを定義します。フォルダ内のすべてのイメージが処理されます。
<bands>
要素はイメージの帯域数を指定し、datatype
属性には、ラスター・データ型があり、config
属性はモザイク出力帯域の順序にどの帯域が表示されるかを指定します。たとえば、3,1,2はモザイク出力帯域番号1にはこのラスターの帯域番号3、モザイク帯域番号2にはソース帯域1、およびモザイク帯域番号3にはソース帯域2があることを示します。この順序はラスターからベクトルへ変更されることがあります。
親トピック: 入力パラメータ
2.5.2.2 モザイク定義XML構造
次の例は、イメージ処理ジョブで生成される出力の機能を定義する場合に必要なモザイク構成XMLを示します。
-<mosaic exec="false"> -<output> <SRID>26904</SRID> <directory type="FS">/opt/shareddir/spatial/processOutput</directory> <!--directory type="HDFS">newData</directory--> <tempFSFolder>/opt/shareddir/spatial/tempOutput</tempFSFolder> <filename>littlemap</filename> <format>GTIFF</format> <width>1600</width> <height>986</height> <algorithm order="0">2</algorithm> <bands layers="3" config="3,1,2"/> <nodata>#000000</nodata> <pixelType>1</pixelType> </output> -<crop> -<transform> 356958.985610072,280.38843650364862,0,2458324.0825054757,0,-280.38843650364862 </transform> </crop> <process><classMapper params="threshold=454,2954">oracle.spatial.hadoop.twc.FarmTransformer</classMapper><classReducer params="plot_size=100400">oracle.spatial.hadoop.twc.FarmAlignment</classReducer></process> <operations> <localif operator="<" operand="3" newvalue="6"/> <localadd arg="5"/> <localsqrt/> <localround/> </operations> </mosaic>
<mosaic>
要素は処理出力の仕様を定義します。exec
属性は、処理にモザイク操作が含まれるかどうかを指定します。“false”
に設定されている場合、モザイク操作は実行されず、単一のラスターが処理されます。“true”
に設定されているか一切設定されていない場合、モザイク操作は実行されます。次の要素の一部はモザイク操作に対してのみ必要であり、単一のラスター処理の場合は無視されます。
<output>
要素は出力に使用される<SRID>などの機能を定義します。異なるSRIDのすべてのイメージは、モザイクSRIDに変換され、その四角形がモザイクに適合するかどうかが判断されます。出力ラスターが入力と同じSRIDを持つため、この要素は単一のラスター処理には必要ありません。
<directory>
要素は出力の場所を定義します。これは、タグの型で指定される、通常のファイルシステム(FS)またはHDFSのいずれかです。
<tempFsFolder>
要素はモザイク出力を一時的に格納するパスを設定します。属性delete=”false”
を指定することにより、出力の出力をHDFSに格納するためにローダーが実行されていた場合でも、この出力を保持できます。
<filename>
および<format>
要素は、出力ファイル名を指定します。<filename>
は、単一のラスター処理には必要ありません。これが指定されていない場合、(ジョブの呼出し時に-file
属性によって決定される)入力ファイルの名前が出力ファイルに使用されます。出力ラスターが入力と同じ形式であるため、<format>
は単一のラスター処理には必要ありません。
<width>
および<height>
要素はモザイク出力の解像度を設定します。出力ラスターが入力と同じ解像度を持つため、これらは単一のラスター処理には必要ありません。
<algorithm>
要素はイメージの順序アルゴリズムを設定します。1はソースの最終変更日付順、2はイメージ・サイズ順を示します。順序タグは昇順モードまたは降順モードを表します。(これらのプロパティは、複数のラスターが重複する可能性があるモザイク操作用です。)
<bands>
要素は出力モザイクの帯域数を指定します。この数より帯域の少ないイメージは破棄されます。config
属性を単一のラスター処理に使用することにより、カタログがない場合に出力の帯域構成を設定できます。
<nodata>
要素は、値のないモザイク出力のすべてのピクセルのうち、最初の3帯域の色を指定します。
<pixelType>
要素はモザイク出力のピクセル・タイプを設定します。同じピクセル・サイズのないソース・イメージは処理段階で破棄されます。この要素は、単一のラスター処理には必要ありません。これが指定されていない場合、ピクセル・タイプは入力と同じものになります。
<crop>
要素は、モザイク出力に含まれる座標を、startcoordinateX
、pixelXWidth
、RotationX
、startcoordinateY
、RotationY
、pixelheightY
の順に定義します。この要素は、単一のラスター処理には必要ありません。これが指定されていない場合、完全なイメージが分析用として考慮されます。
<process>
要素はモザイク操作の前に実行するクラスをすべてリストします。
<classMapper>
要素は、マッピング・フェーズ中に実行されるクラスに使用され、<classReducer>
要素は、リデュース・フェーズ中に実行されるクラスに使用されます。両方の要素がparams
属性を持ち、この場合、ニーズに応じて処理クラスに入力パラメータを送信できます。
<operations>
要素は、この要求で処理される地図代数演算をすべてリストします。この要素には、ピラミッド操作の要求を含めることもできます。次に例を示します。
<operations>
<pyramid resampling="NEAREST_NEIGHBOR" redLevel="6"/>
</operations>
親トピック: 入力パラメータ
2.5.3 ジョブ実行
ジョブの最初のステップは、出力に適合する四角形をフィルタ処理することです。最初に、四角形のメタデータを保持している位置ファイルがInputFormat
に送信されます。
pixelType
を抽出すると、フィルタにより、関連するソース・イメージが処理に有効かどうかが判別されます。カタログxmlで作成したユーザー定義に基づき、次のいずれかが実行されます。
-
イメージが処理に有効な場合、次にSRIDが評価されます
-
ユーザー定義と異なる場合、すべての四角形のMBR座標がユーザーSRIDに変換され、評価されます。
この方法では、すべての四角形が出力定義と交差するかどうかが評価されます。
-
モザイク処理要求の場合、交差する四角形のみが選択され、これらの1つずつに分割が作成されます。
-
単一のラスター処理要求の場合、すべての四角形が選択され、これらの1つずつに分割が作成されます。
-
複雑な複数のラスター代数演算要求の場合、MBRおよびピクセル・サイズが同じであれば、すべての四角形が選択されます。選択したラスターの数およびブロックサイズに応じて、(完全な元のラスターの四角形が必ずしも含まれるわけではない)すべての四角形のラスターの特定の領域が単一の親分割に含まれます。
マッパーでは、格納先のノードでそれぞれの分割が処理されます。(複雑な複数のラスター代数演算の場合、分割に複数のラスターからのデータが含まれるため、データのローカル性が失われる可能性があります。)マッパーでは、ユーザーが定義した地図代数演算および処理クラスが順に実行され、次に、要求された場合、モザイク処理が実行されます。単一のリデューサにより、マッパーの結果がまとめられ、ユーザー指定のリデュース処理クラスの場合、これらのクラスに出力データ・セットが分析または処理のために設定されます。最後に、ユーザーの要求に応じてイメージがFSまたはHDFSに格納されます。ユーザーがHDFSへの出力の格納を要求した場合、ImageLoader
ジョブが起動され、イメージが.ohif
ファイルとして格納されます。
デフォルトでは、マッパーとリデューサは1GBのJVMを取得できるよう構成されていますが、この設定、またはその他の構成プロパティは、コマンドを実行する同じフォルダの場所で、imagejob.prop
プロパティ・ファイルを追加することによってオーバーライドできます。
2.5.4 処理クラスおよびImageBandWritable
カタログXMLで指定した処理クラスは、ジョブで正しく処理できるように、次の一連のルールを遵守している必要があります。マッピング・フェーズのすべての処理クラスにImageProcessorInterface
インタフェースが実装されている必要があります。リデューサ・フェーズの場合、ImageProcessorReduceInterface
インタフェースが実装されている必要があります。
処理クラスを実装するには、そのオブジェクト表現ImageBandWritable
を使用してラスターを操作する必要があります。処理クラスの例はフレームワークで提供され、DEMの傾斜を計算できます。関数によってピクセル値を別の値に変換する場合などは、マッピング操作を作成できます。ImageBandWritable
インスタンスは、解像度、サイズ、ピクセルなど、四角形のコンテンツを定義します。これらの値は、四角形の定義を作成するプロパティに反映する必要があります。モザイク出力の整合性は、これらのプロパティの操作が正しいかどうかによって決まります。
ImageBandWritable
インスタンスは、解像度、サイズ、ピクセルなど、四角形のコンテンツを定義します。これらの値は、四角形の定義を作成するプロパティに反映する必要があります。出力の整合性は、これらのプロパティの操作が正しいかどうかによって決まります。
表2-1 ImageBandWritableプロパティ
タイプ - プロパティ | 説明 |
---|---|
IntWritable dstWidthSize |
四角形の幅のサイズ |
IntWritable dstHeightSize |
四角形の高さのサイズ |
IntWritable bands |
四角形の帯域数 |
IntWritable dType |
四角形のデータ型 |
IntWritable offX |
ソース・イメージに関連し、Xピクセルから開始 |
IntWritable offY |
ソース・イメージに関連し、Yピクセルから開始 |
IntWritable totalWidth |
ソース・イメージの幅のサイズ |
IntWritable totalHeight |
ソース・イメージの高さのサイズ |
IntWritable bytesNumber |
四角形のピクセルを含み、baseArrayに格納されるバイト数 |
BytesWritable[] baseArray |
四角形のピクセルを表すバイト数を含む配列であり、それぞれのセルが1つの帯域を表します |
IntWritable[][] basePaletteArray |
四角形のパレットを表す整数値を含む配列であり、それぞれの配列が帯域を表します。それぞれの整数が色テーブルの各色のエントリを表し、色ごとに4つのエントリがあります |
IntWritable[] baseColorArray |
色の解釈を表す整数値を含む配列であり、それぞれのセルが1つの帯域を表します |
DoubleWritable[] noDataArray |
イメージのNODATA値を含む配列であり、それぞれのセルに関連する帯域の値が含まれます |
ByteWritable isProjection |
四角形にByte.MAX_VALUEの予測情報が含まれている場合に指定します |
ByteWritable isTransform |
四角形にByte.MAX_VALUEの地図変換配列情報が含まれている場合に指定します |
ByteWritable isMetadata |
四角形にByte.MAX_VALUEのメタデータ情報が含まれている場合に指定します |
IntWritable projectionLength |
予測情報の長さを指定します |
BytesWritable projectionRef |
予測情報のバイト数を指定します |
DoubleWritable[] geoTransform |
地理変換配列を含みます |
IntWritable metadataSize |
四角形の中のメタデータ値の数 |
IntWritable[] metadataLength |
それぞれのメタデータ値の長さを指定する配列 |
BytesWritable[] metadata |
四角形のメタデータの配列 |
GeneralInfoWritable mosaicInfo |
モザイクxml内のユーザー定義情報。モザイク出力機能は変更しないでください。新しい名前で元のxmlファイルを変更し、その新しいxmlを使用して実行および処理します |
MapWritable extraFields |
分析のためにリデューサ・フェーズに渡されるすべての四角形に固有のパラメータのキー/値ペアがリストされた地図 |
処理クラスおよびメソッド
四角形のピクセルを変更する場合は、次のメソッドを使用して、最初に帯域情報を配列に取り込みます。
byte [] bandData1 =(byte []) img.getBand(0);
帯域1の四角形のピクセルを表すバイト数は、現在bandData1配列にあります。底の索引はゼロです。
getBand(int bandId)
メソッドは指定したbandId
の位置のラスターの帯域を取得します。取得したオブジェクトをラスターの配列型へのキャストに使用できます。これはbyte、short (unsigned int 16ビット、int 16ビット)、int (unsigned int 32ビット、int 32ビット)、float (float 32ビット)、またはdouble (float 64ビット)のいずれかです。
配列でピクセルを使用できる場合は、この時点でユーザーの要求に応じて変換できます。
ピクセルの処理後、ImageBandWritableの同じインスタンスを使用する必要がある場合は、次のメソッドを実行します。
img.removeBands;
これにより、前の帯域のコンテンツが削除され、新しい帯域の追加を開始できます。新しい帯域を追加するには、次のメソッドを使用します。
img.addBand(Object band);
それ以外の場合は、次のメソッドを使用して特定の帯域を置き換えることもできます。
img.replaceBand(Object band, int bandId)
前述のメソッドでは、band
は、ピクセル情報が含まれる配列であり、bandID
は、置換対象の帯域の識別子です。処理操作の結果、影響を受けるインスタンス・サイズ、データ型、bytesNumberおよびその他のプロパティを必ず更新してください。各プロパティには、セッターを使用できます。
2.5.4.1 クラスおよびJarファイルの位置
Oracle Image Serverコンソールを使用している場合は、すべての処理クラスが単一のJARファイルに含まれます。コマンドライン・オプションを使用している場合、処理クラスはそれぞれ異なるJARファイルに配置されます。
クラスパス内に新しいクラスが表示されている場合、これらを<process><classMapper>
または<process><classReducer>
セクションのモザイクXMLに追加する必要があります。追加されたすべての<class>
要素は、表示されている順序で実行されます。マッパーの場合は最終モザイク操作が実行される直前、リデューサの場合はすべての処理済四角形が単一のデータ・セットにまとめられる直後です。
親トピック: 処理クラスおよびImageBandWritable
2.5.5 地図代数演算
ローカル地図代数演算は入力ラスター上で処理でき、そこではピクセル数が操作に応じて変更されます。構成XMLの操作の順序によって、処理される操作の順序が決まります。すべての地図代数演算が処理されると、処理クラスが実行され、最後にモザイク操作が実行されます。
次の地図代数演算はモザイク構成XMLの<operations>
要素に追加でき、演算名を要素名として使用できます。(各操作がサポートされているデータ型は、カッコで囲まれてリストされています。)
-
localnot
: 各ピクセルの否定を取得し、ビット・パターンを反転します。結果が負の値でデータ型が符号なしの場合、NODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(バイト、Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット) -
locallog
: ピクセルの自然対数(底e)を返します。結果がNaNの場合は元のピクセル値が設定され、結果が無限の場合はNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
locallog10
: ピクセルの底10の対数が返されます。結果がNaNの場合は元のピクセル値が設定され、結果が無限の場合はNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localadd
: 指定した値を引数としてピクセルに追加します。例:<localadd arg="5"/>
。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localdivide
: 各ピクセルの値を、引数として指定した値セットで除算します。例:<localdivide arg="5"/>
。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localif
: 各ピクセルの値を引数として指定した値および条件に基づいて変更します。有効な演算子: =、<、>、>=、< !=。例:<localif operator="<" operand="3" newvalue="6"/>
、ここでは、値が3未満のピクセルがすべて変更され、新しい値が6に設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localmultiply
: 各ピクセルの値に、引数として指定した値を乗算します。例:<localmultiply arg="5"/>
。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localpow
: 各ピクセルの値を、指定した引数の値のべき乗に切り上げます。例:<localpow arg="5"/>
。結果が無限の場合、このピクセルにNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localsqrt
: 各ピクセルを正しく四捨五入した正の値の平方根を返します。結果が無限またはNaNの場合、このピクセルにNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localsubstract
: すべてのピクセル値から引数として指定した値を減算します。例:<localsubstract arg="5"/>
。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localacos
: ピクセルの逆余弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localasin
: ピクセルの逆正弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localatan
: ピクセルの逆正接を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localcos
: ピクセルの余弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localcosh
: ピクセルの逆双曲線余弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localsin
: ピクセルの正弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localtan
: ピクセルの正接を計算します。ピクセルの余弦が0の場合、このピクセルは変更されません。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localsinh
: ピクセルの逆双曲線正弦を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localtanh
: ピクセルの双曲線正接を計算します。結果がNaNの場合、NODATA値がこのピクセルに設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localdefined
: セルの値がNODATAではない場合は整数型指定のピクセルが1にマップされ、それ以外の場合は0にマップされます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット、Float 32ビット) -
localundefined
: セルの値がNODATAではない場合は整数型指定のラスターが0にマップされ、それ以外の場合は1にマップされます。(Unsigned int 16ビット、Unsigned int 32ビット、Int 16ビット、Int 32ビット) -
localabs
: 符号付きピクセルの絶対値を返します。結果が無限の場合、このピクセルにNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localnegate
: 各ピクセルの値から1を引いた数を乗算します。(Int 16ビット、Int 32ビット、Float 32ビット、Float 64ビット) -
localceil
: ピクセル値以上であり、ある数学的整数と等しい最小値を返します。結果が無限の場合、このピクセルにNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Float 32ビット、Float 64ビット) -
localfloor
: ピクセル値以下であり、ある数学的整数と等しい最小値を返します。結果が無限の場合、このピクセルにNODATA値が設定されます。ラスターにNODATA値が指定されていない場合、元のピクセルが設定されます。(Float 32ビット、Float 64ビット) -
localround
: 各ピクセルに最も近い整数値を返します。(Float 32ビット、Float 64ビット)
2.5.6 複数のラスター代数演算
複数のラスターが含まれるラスター代数演算を処理できます。この場合、操作に応じて、および同じセル内の関連するすべてのラスターのピクセルを考慮して、ピクセルが変更されます。
一度に処理できる操作は1つのみであり、この操作は、<multipleops>
要素を使用して構成XMLに定義されます。その値は、処理対象の操作です。
操作には2つのタイプがあります。
-
基本的な複数のラスター代数演算は、ユーザーのリデュース処理クラスの直前のリデュース・フェーズで実行されます。
-
複雑な複数のラスター代数演算は、マッピング・フェーズで実行されます。
2.5.6.1 基本的な複数のラスター代数演算
基本的な複数のラスター代数演算は、ジョブのリデュース・フェーズで実行されます。
これらは、モザイク操作または単なる処理要求とともに要求できます。モザイク操作とともに要求された場合、入力ラスターは同じMBR、ピクセル・サイズ、SRIDおよびデータ型を持つ必要があります。
モザイク操作を実行する場合、交差するピクセル(両方のラスターで同一のピクセル)のみが影響を受けます。
この操作が処理されるのは、マッピング四角形が出力データ・セットにまとめられ、(モザイク操作が要求された場合は)交差するピクセル値、または(モザイクが要求されていない場合は)すべてのピクセルが要求された操作に応じて変更される場合です。
ラスターがデータ・セットに追加される順序は、モザイク操作が要求された場合はモザイク操作の順序であり、それ以外の場合は、カタログ内の表示の順序です。
次の基本的な複数のラスター代数演算が使用可能です。
-
add
: ラスター・シーケンスの同じセル内のすべてのピクセルを加算します。 -
substract
: ラスター・シーケンスの同じセル内のすべてのピクセルを減算します。 -
divide
: ラスター・シーケンスの同じセル内のすべてのピクセルを除算します。 -
multiply
: ラスター・シーケンスの同じセル内のすべてのピクセルを乗算します。 -
min
: ラスター・シーケンスの同じセル内のピクセルの最小値を割り当てます。 -
max
: ラスター・シーケンスの同じセル内のピクセルの最大値を割り当てます。 -
mean
: ラスター・シーケンスの同じセル内のすべてのピクセルの平均値を計算します。 -
and
: ラスター・シーケンスの同じセル内のすべてのピクセルのバイナリ“and”演算を処理し、“and“演算によって結果にビットがコピーされます(両方のオペランドに存在する場合)。 -
or
: ラスター・シーケンスの同じセル内のすべてのピクセルのバイナリ“or”演算を処理し、“or“演算によってビットがコピーされます(どちらかのオペランドに存在する場合)。 -
xor
: ラスター・シーケンスの同じセル内のすべてのピクセルのバイナリ“xor”演算を処理し、“xor“演算によってビットがコピーされます(1つのオペランドに存在するが両方には存在しない場合)。
親トピック: 複数のラスター代数演算
2.5.6.2 複雑な複数のラスター代数演算
複雑な複数のラスター代数演算は、ジョブのマッピング・フェーズで実行され、ジョブはこの演算のみを処理できます。SRIDのサイズ変更、変更、またはカスタム・マッピングに対する要求は前に実行されている必要があります。このジョブの入力は、同じMBR、SRID、データ型およびピクセル・サイズを持つ一連のラスターです。
このジョブの四角形には、カタログ内のすべてのラスターの一部が含まれます。このため、すべてのマッパーがすべてのラスター内のセルの領域にアクセスでき、演算はそこで処理されます。結果として生成されたすべてのセルのピクセルはこのコンテキストで書き込まれるため、リデューサはリデューサ処理クラスを処理する前に結果を出力データ・セットに配置できます。
ラスターが演算を評価すると見なされる順序は、カタログ内に表示される順序です。
次の複雑な複数のラスター代数演算が使用可能です。
-
combine
: ラスター・シーケンスの同じセル内の入力値の一意の組合せごとに一意の出力値を割り当てます。 -
majority
: 最も多数のラスター・シーケンスの同じセル内の値を割り当てます。値が結合されている場合、右側の値が選択されます。 -
minority
: 最も少数のラスター・シーケンスの同じセル内の値を割り当てます。値が結合されている場合、右側の値が選択されます。 -
variety
: ラスター・シーケンスの同じセルごとに一意の値のカウントを割り当てます。 -
mask
: 最初のラスターの値を使用してラスターを生成しますが、シーケンスの残りのラスター内の対応するピクセルが特定のマスク値に設定されているピクセルのみが含まれます。それ以外の場合は、0が設定されます。 -
inversemask
: 最初のラスターの値を使用してラスターを生成しますが、シーケンスの残りのラスター内の対応するピクセルが特定のマスク値に設定されていないピクセルのみが含まれます。それ以外の場合は、0が設定されます。 -
equals
: バイト・データ型でラスターを作成します。この場合、すべての入力ラスターに対応するセルが同じ値を持つ場合、セル値は1です。それ以外の場合は、0が設定されます。 -
unequal
: バイト・データ型でラスターを作成します。この場合、すべての入力ラスターに対応するセルが異なる値を持つ場合、セル値は1です。それ以外の場合は、0が設定されます。 -
greater
: バイト・データ型でラスターを作成します。この場合、最初のラスター内のセル値が、すべての入力ラスターに対応する残りのセル値より大きい場合、セル値は1です。それ以外の場合は、0が設定されます。 -
greaterorequal
: バイト・データ型でラスターを作成します。この場合、最初のラスター内のセル値が、すべての入力ラスターに対応する残りのセル値以上である場合、セル値は1です。それ以外の場合は、0が設定されます。 -
less
: バイト・データ型でラスターを作成します。この場合、最初のラスター内のセル値が、すべての入力ラスターに対応する残りのセル値より小さい場合、セル値は1です。それ以外の場合は、0が設定されます。 -
lessorequal
: バイト・データ型でラスターを作成します。この場合、最初のラスター内のセル値が、すべての入力ラスターに対応する残りのセル値以下である場合、セル値は1です。それ以外の場合は、0が設定されます。
親トピック: 複数のラスター代数演算
2.5.7 Pyramids
Pyramidsは、異なるサイズと解像度でラスター・イメージまたはラスター・データを表すラスター・オブジェクトのサブオブジェクトです。
通常、サイズはアプリケーションが特にWeb経由でイメージを取得して表示するために必要な時間の長さに関連しています。つまり、イメージのサイズが小さければより速く表示できます。詳細な解像度が必要ない場合(たとえば、ユーザーがかなりズームアウトしている場合)は、小さいイメージの表示品質で十分です。
ピラミッドのレベルは、イメージの解像度の増減を表し、それぞれより多くのまたはより少ない記憶域が必要となります。(Big Data Spatial and Graphは、解像度を下げたピラミッドのみをサポートしています。)ピラミッド・レベルが0の場合は、元のラスター・データを示します。つまり、画像の解像度は下がっておらず、必要な記憶域は変わっていません。0(ゼロ)より大きい値は、イメージの解像度が下がり、記憶域の要件が低くなることを示します。
単一のラスターは各ピラミッド要求で処理され、次のパラメータが適用されます。
-
ピラミッド・レベル(必須): 最大減少レベル。つまり、元のオブジェクトより小さいサイズで作成するためのピラミッド・レベルの数です。たとえば、
redLevel="6"
の場合は、レベル0から5のピラミッド・レベルが作成されます。各下位レベルのディメンション・サイズは、
r(n) = r(n - 1)/2
およびc(n) = c(n - 1)/2
となります。ここで、r(n)
およびc(n)
は、レベルn
のピラミッドの行および列のサイズです最上位レベルの概要の行と列のディメンション・サイズの小さい方は、64と128 (最大に下げられた解像度レベル)の間です(
(int)(log2(a/64))
)。ここで、a
は元の行または列のディメンション・サイズの小さい方です。最大に下げられた解像度レベルより大きい
rLevel
値が指定されている場合、rLevel
値は最大に下げられた解像度レベルに設定されます。 -
再サンプリング・アルゴリズム: 使用する再サンプリング方法。
次のいずれかである必要があります:
NEAREST_NEIGHBOR
、BILINEAR
、AVERAGE4
、AVERAGE16
(BILINEAR
およびAVERAGE4
の効果は同じです。)再サンプリング・アルゴリズムが指定されていない場合は、デフォルトでBILINEAR
が使用されます。
ピラミッドは複数のラスターをロードする際や単一ラスターの処理中に作成できます。
-
HDFSでラスターをロードするときに、ローダー・コマンドライン・コールに
-pyramid
パラメータを追加するか、APIloader.addPyramid()
を使用します。 -
単一ラスターの処理の場合は、ユーザー要求XMLに操作を追加するか、API
processor.addPyramid()
を使用します。
2.6 Oracle Spatial Hadoop Raster Processing APIを使用したイメージのロードおよび処理
このフレームワークでは、XMLを作成せずに、Javaアプリケーションを使用してラスターをロードし、処理するラスター処理APIが用意されています。このアプリケーションはクラスタ内またはリモート・ノード上で実行できます。
このAPIはフレームワーク操作へのアクセスが可能であり、WebサービスまたはスタンドアロンJavaアプリケーションに使用できます。
いずれかのジョブを実行するには、HadoopConfiguration
オブジェクトを作成する必要があります。このオブジェクトは、ジョブの作成、ラスターの操作、およびジョブの実行に必要な構成情報(JARファイル名やGDALパスなど)の設定に使用されます。基本のロジックは次のとおりです。
//Creates Hadoop Configuration HadoopConfiguration hadoopConf = new HadoopConfiguration(); //Assigns GDAL_DATA location based on specified SHAREDDIR, this data folder is required by gdal to look for data tables that allow SRID conversions String gdalData = sharedDir + ProcessConstants.DIRECTORY_SEPARATOR + "data"; hadoopConf.setGdalDataPath(gdalData); //Sets jar name for processor hadoopConf.setMapreduceJobJar("hadoop-imageprocessor.jar"); //Creates the job RasterProcessorJob processor = (RasterProcessorJob) hadoopConf.createRasterProcessorJob();
APIがリモート・ノードで使用されている場合は、Hadoop Configurationオブジェクトでプロパティを設定してクラスタに接続できます。次に例を示します。
//Following config settings are required for standalone execution. (REMOTE ACCESS) hadoopConf.setUser("hdfs"); hadoopConf.setHdfsPathPrefix("hdfs://den00btb.us.oracle.com:8020"); hadoopConf.setResourceManagerScheduler("den00btb.us.oracle.com:8030"); hadoopConf.setResourceManagerAddress("den00btb.us.oracle.com:8032"); hadoopConf.setYarnApplicationClasspath("/etc/hadoop/conf/,/usr/lib/hadoop/*,/usr/lib/hadoop/lib/*," + "/usr/lib/hadoop-hdfs/*,/usr/lib/hadoop-hdfs/lib/*,/usr/lib/hadoop-yarn/*," + "/usr/lib/hadoop-yarn/lib/*,/usr/lib/hadoop-mapreduce/*,/usr/lib/hadoop-mapreduce/lib/* ");
ジョブは作成後、その実行のプロパティをジョブ・タイプに応じて設定する必要があります。ジョブ・クラスには、ラスターをHDFSにロードするRasterLoaderJob
、およびそれを処理するRasterProcessorJob
の2つがあります。
次の例では、ハワイのラスターをAPICALL_HDFSディレクトリにロードします。ここでは、共有フォルダにサムネイルを作成し、四角形のそれぞれの辺と重なる10ピクセルを指定します。
private static void executeLoader(HadoopConfiguration hadoopConf){ hadoopConf.setMapreduceJobJar("hadoop-imageloader.jar"); RasterLoaderJob loader = (RasterLoaderJob) hadoopConf.createRasterLoaderJob(); loader.setFilesToLoad("/net/den00btb/scratch/zherena/hawaii/hawaii.tif"); loader.setTileOverlap("10"); loader.setOutputFolder("APICALL"); loader.setRasterThumbnailFolder("/net/den00btb/scratch/zherena/processOutput"); try{ loader.setGdalPath("/net/den00btb/scratch/zherena/gdal/lib"); boolean loaderSuccess = loader.execute(); if(loaderSuccess){ System.out.println("Successfully executed loader job"); } else{ System.out.println("Failed to execute loader job"); } }catch(Exception e ){ System.out.println("Problem when trying to execute raster loader " + e.getMessage()); } } }
次の例では、ロードしたラスターを処理します。
private static void executeProcessor(HadoopConfiguration hadoopConf){ hadoopConf.setMapreduceJobJar("hadoop-imageprocessor.jar"); RasterProcessorJob processor = (RasterProcessorJob) hadoopConf.createRasterProcessorJob(); try{ processor.setGdalPath("/net/den00btb/scratch/zherena/gdal/lib"); MosaicConfiguration mosaic = new MosaicConfiguration(); mosaic.setBands(3); mosaic.setDirectory("/net/den00btb/scratch/zherena/processOutput"); mosaic.setFileName("APIMosaic"); mosaic.setFileSystem(RasterProcessorJob.FS); mosaic.setFormat("GTIFF"); mosaic.setHeight(3192); mosaic.setNoData("#FFFFFF"); mosaic.setOrderAlgorithm(ProcessConstants.ALGORITMH_FILE_LENGTH); mosaic.setOrder("1"); mosaic.setPixelType("1"); mosaic.setPixelXWidth(67.457513); mosaic.setPixelYWidth(-67.457513); mosaic.setSrid("26904"); mosaic.setUpperLeftX(830763.281336); mosaic.setUpperLeftY(2259894.481403); mosaic.setWidth(1300); processor.setMosaicConfigurationObject(mosaic.getCompactMosaic()); RasterCatalog catalog = new RasterCatalog(); Raster raster = new Raster(); raster.setBands(3); raster.setBandsOrder("1,2,3"); raster.setDataType(1); raster.setRasterLocation("/user/hdfs/APICALL/net/den00btb/scratch/zherena/hawaii/hawaii.tif.ohif"); catalog.addRasterToCatalog(raster); processor.setCatalogObject(catalog.getCompactCatalog()); boolean processorSuccess = processor.execute(); if(processorSuccess){ System.out.println("Successfully executed processor job"); } else{ System.out.println("Failed to execute processor job"); } }catch(Exception e ){ System.out.println("Problem when trying to execute raster processor " + e.getMessage()); } }
前の例でモザイクの結果がHDFSに格納される場合は、サムネイルがオプションになります。JARファイルの処理が指定されている場合(追加のユーザー処理クラスが指定されている場合に使用)、このクラスを含むJARファイルの場所を指定する必要があります。モザイクを正しく生成するには、その他のパラメータが必要です。
処理APIを使用するいくつかの例については、/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/src
を参照してください。Javaクラスを確認し、その目的を理解します。これらは/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/cmd
にあるそれぞれの例に示すスクリプトを使用して実行できます。
スクリプトを実行してその結果を検証した後、用意されているスクリプト/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/build.xml
を使用して、試験を実行し、コンパイルできるようにJavaソース・ファイルを変更します。/opt/oracle/oracle-spatial-graph/spatial/raster/jlib directory
への書込みアクセスが可能であることを確認します。
2.7 Oracle Spatial Hadoop Raster Simulator Frameworkを使用したラスター処理のテスト
カスタム処理クラスを作成する場合、Oracle Spatial Hadoop Raster Simulator Frameworkを使用して、これらをOracle Raster Processing Frameworkにプラグインすることを「偽装」することにより、次を実行できます。
-
ローカル・コンピュータでのユーザー処理クラスの開発
-
ユーザー処理クラスをクラスタ内またはBig Data Lite内でデプロイして正しく機能するかどうかを検証する必要性の回避
-
ユーザー処理クラスのデバッグ
-
小さいローカルデータ・セットの使用
-
ローカル・デバッグ出力の作成
-
ユニット・テストの自動化
シミュレータ・フレームワークにより、ローカル環境内のロード・プロセスおよび処理プロセスがクラスタ内で実行されているかのように、これらがエミュレートされます。このため、必要なのは、1つ以上のラスターをロードしてXMLまたは構成オブジェクト内の仕様に応じてこれらを処理するJunitテスト・ケースを作成することのみです。
タイルは指定したブロック・サイズに応じて生成されるため、ブロック・サイズを設定する必要があります。実行するマッパーおよびリデューサの数は、通常のクラスタ実行の場合と同じように、タイルの数によって決まります。ロード・プロセス中に生成されるOHIFファイルは、HDFSが必要ないため、ローカル・ディレクトリに格納されます。
-
シミュレータ("モック")オブジェクト
-
ユーザーのローカル環境要件
-
ラスターをロードおよび処理するためのサンプル・テスト・ケース
シミュレータ("モック")オブジェクト
ラスターをロードし、処理可能な.OHIFファイルに変換するには、RasterLoaderJobMock
を実行する必要があります。このクラス・コンストラクタは、ブロック・サイズ、ロード対象のディレクトリまたはラスター、OHIFファイルを格納するための出力ディレクトリ、およびgdalディレクトリを含める必要があるHadoopConfiguration
を受け取ります。入力ファイルおよびユーザー構成を表すパラメータは、これらを指定する方法によって変化します。
-
カタログおよびユーザー構成XMLファイルの場所の文字列
-
カタログ・オブジェクト(
CatalogMock
) -
構成オブジェクト(
MosaicProcessConfigurationMock
またはSingleProcessConfigurationMock
) -
単一のラスター処理およびユーザー構成の場所(
MosaicProcessConfigurationMock
またはSingleProcessConfigurationMock
)
ユーザーのローカル環境要件
テスト・ケースを作成する前に、ローカル環境を構成する必要があります。
-
1. ディレクトリにネイティブgdalライブラリ
gdal-data
およびlibproj
があることを確認します。Linuxの場合:
-
「Cartographic Projections Libraryの取得およびコンパイル」の手順に従い
libproj.so
を取得します。 -
クラスタまたはBigDataLite VM (
/opt/oracle/oracle-spatial-graph/spatial/raster/gdal
)にあるSpatialインストールからgdalディストリビューションを取得します。 -
libproj.so
を残りのネイティブgdalライブラリとともにgdal/lib
の下のローカルgdalディレクトリに移動します。
Windowsの場合:
-
クラスタまたはBigDataLite VM (
/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/mock/lib/gdal_windows.x64.zip
)にあるSpatialインストールからgdalディストリビューションを取得します。 -
Visual Studioがインストールされていることを確認します。インストールする場合、「Common Tools for Visual C++」を選択していることを確認します。
-
PROJ 4ソース・コード、バージョン・ブランチ4.9をhttps://trac.osgeo.org/proj4jからダウンロードします。
-
Visual Studio開発者コマンド・プロンプトを開き、以下を入力します。
cd PROJ4/src_dir nmake /f makefile.vc
-
proj.dll
を残りのネイティブgdalライブラリとともにgdal/bin
の下のローカルgdalディレクトリに移動します。
-
-
GDALネイティブ・ライブラリをシステム・パスに追加します。
Linuxの場合: LD_LIBRARY_PATHを対応するネイティブgdalライブラリ・ディレクトリとともにエクスポートします。
Windowsの場合: Path環境変数にネイティブgdalライブラリ・ディレクトリを追加します。
-
JavaプロジェクトにJunitライブラリがあることを確認します。
-
Javaプロジェクトのクラスパス内に次のHadoop jarおよびOracle Image Processing Frameworkファイルが含まれることを確認します。これらは、Oracle BigDataLite VMまたはクラスタから取得できます。これらはすべて、Hadoopディストリビューションに含まれるjarです。特定のフレームワークのjarについては、
/opt/oracle/oracle-spatial-graph/spatial/raster/jlib
を参照してください。(次のリストでは、
VERSION_INCLUDED
は、ファイルが含まれるHadoopインストールからのバージョン番号です。これは、BDAクラスタである場合やBigDataLite VMである場合があります。)commons-collections-VERSION_INCLUDED.jar commons-configuration-VERSION_INCLUDED.jar commons-lang-VERSION_INCLUDED.jar commons-logging-VERSION_INCLUDED.jar commons-math3-VERSION_INCLUDED.jar gdal.jar guava-VERSION_INCLUDED.jar hadoop-auth-VERSION_INCLUDED-cdhVERSION_INCLUDED.jar hadoop-common-VERSION_INCLUDED-cdhVERSION_INCLUDED.jar hadoop-imageloader.jar hadoop-imagemocking-fwk.jar hadoop-imageprocessor.jar hadoop-mapreduce-client-core-VERSION_INCLUDED-cdhVERSION_INCLUDED.jar hadoop-raster-fwk-api.jar jackson-core-asl-VERSION_INCLUDED.jar jackson-mapper-asl-VERSION_INCLUDED.jar log4j-VERSION_INCLUDED.jar slf4j-api-VERSION_INCLUDED.jar slf4j-log4j12-VERSION_INCLUDED.jar
ラスターをロードおよび処理するためのサンプル・テスト・ケース
Javaプロジェクトがテスト・ケース用として準備された後、ラスターのロードおよび処理をテストできます。
次の例では、setUp
メソッドを使用してクラスを作成し、gdal、ロード対象のラスター、構成XMLファイル、出力サムネイル、ohifファイルおよび処理結果用のディレクトリを構成します。また、ブロック・サイズ(8 MB)も構成しています。(単一のコンピュータの場合はブロック・サイズを小さくすることをお薦めします。)/** * Set the basic directories before starting the test execution */ @Before public void setUp(){ String sharedDir = "C:\\Users\\zherena\\Oracle Stuff\\Hadoop\\Release 4\\MockTest"; String allAccessDir = sharedDir + "/out/"; gdalDir = sharedDir + "/gdal"; directoryToLoad = allAccessDir + "rasters"; xmlDir = sharedDir + "/xmls/"; outputDir = allAccessDir; blockSize = 8; }
次の例では、RasterLoaderJobMockオブジェクトを作成し、ロード対象のラスター、およびOHIFファイルの出力パスを設定します。
/** * Loads a directory of rasters, and generate ohif files and thumbnails * for all of them * @throws Exception if there is a problem during load process */ @Test public void basicLoad() throws Exception { System.out.println("***LOAD OF DIRECTORY WITHOUT EXPANSION***"); HadoopConfiguration conf = new HadoopConfiguration(); conf.setBlockSize(blockSize); System.out.println("Set block size of: " + conf.getProperty("dfs.blocksize")); RasterLoaderJobMock loader = new RasterLoaderJobMock(conf, outputDir, directoryToLoad, gdalDir); //Puts the ohif file directly in the specified output directory loader.dontExpandOutputDir(); System.out.println("Starting execution"); System.out.println("------------------------------------------------------------------------------------------------------------"); loader.waitForCompletion(); System.out.println("Finished loader"); System.out.println("LOAD OF DIRECTORY WITHOUT EXPANSION ENDED"); System.out.println(); System.out.println(); }
次の例では、RasterProcessorJobMock
オブジェクトに対するカタログおよびユーザー構成XMLファイルを指定します。catalog xml
がローカルOHIFファイルの正しい場所を指し示していることを確認します。
/** * Creates a mosaic raster by using configuration and catalog xmls. * Only two bands are selected per raster. * @throws Exception if there is a problem during mosaic process. */ @Test public void mosaicUsingXmls() throws Exception { System.out.println("***MOSAIC PROCESS USING XMLS***"); HadoopConfiguration conf = new HadoopConfiguration(); conf.setBlockSize(blockSize); System.out.println("Set block size of: " + conf.getProperty("dfs.blocksize")); String catalogXml = xmlDir + "catalog.xml"; String configXml = xmlDir + "config.xml"; RasterProcessorJobMock processor = new RasterProcessorJobMock(conf, configXml, catalogXml, gdalDir); System.out.println("Starting execution"); System.out.println("------------------------------------------------------------------------------------------------------------"); processor.waitForCompletion(); System.out.println("Finished processor"); System.out.println("***********************************************MOSAIC PROCESS USING XMLS ENDED***********************************************"); System.out.println(); System.out.println();
RasterProcessorJobMock
に対してサポートされている様々な構成を使用した追加例は、/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/mock/src
に用意されています。これらには、外部処理クラスを使用した例が含まれており、このクラスも組み込まれていて、デバッグすることもできます。
2.8 Oracle Big Data Spatial Raster Processing for Spark
Oracle Big Data Spatial Raster Processing for Apache Sparkは、Spatial Raster Processing API for Javaです。
このAPIでは、次の機能を使用して、一連のユーザー定義の処理フェーズの結果からイメージを組み合わせて新たに作成できます。
-
各ブロック・サイズ分割が個別の四角形として格納され、その後のそれぞれの処理に使用される、HDFSイメージ・ストレージ
-
処理を分割するためにSparkを使用して並行して処理されるサブセット、モザイクおよびラスター代数演算。
-
GDAL形式、複数帯域イメージ、DEM (数値標高モデル)、複数ピクセル深度、およびSRIDのサポート
2.8.1 Sparkラスター・ローダー
Spark Java API用のラスター処理を使用するには、最初にイメージをHDFSに保存し、次に各イメージをそれぞれ別のスマート・タイルに保存します。これにより、プロセッサを使用して各四角形を個別に処理できます。Sparkラスター・ローダーでは、単一イメージ、またはイメージのコレクションを並列でHDFSにインポートできるため、ロード時間を短縮できます。各ブロックにはすべてのラスター帯域のデータが含まれるため、特定のピクセルでその後処理が必要になった場合、その情報を単一ノードで処理できます。
Sparkラスター・ローダーの基本的なワークフローは、次のとおりです。
-
GDALを使用して、ラスターがインポートされ、ブロック・サイズに応じてこれらが四角形に分けられてから、各四角形がHDFSブロックとして格納されます。
-
ロード対象のラスターのセットが、
JavaRDD
の拡張機能であるSpatialRasterJavaRDD
に読み込まれます。このRDDは、帯域の数、ピクセル・サイズ、HDFSブロック・サイズおよびラスター解像度に基づいてラスターごとに作成される四角形の情報を表すImagePieceWritable
オブジェクトのコレクションです。これは、Spatial Hadoopローダーで使用されるカスタム入力形式を使用することによって実現されます。 -
各四角形のラスター情報がロードされます。このロードは、各四角形のエグゼキュータによって実行されるため、読込みは並行して実行されます。それぞれの四角形は一定のバイト数(ユーザー入力)が重なっているため、隣接する四角形の領域にかかっています。Sparkエグゼキュータの数は、四角形の数、イメージ解像度、およびブロック・サイズに応じて“n”個になります。
-
RDDはキーによってグループ化されるため、同じラスターに対応する四角形はすべて同じレコードの一部になります。このRDDは、
OhifOutputFormat
を使用してOHIFとして保存されます。このクラスは、エグゼキュータによってロードされた情報をすべてまとめ、そのイメージを解像度、帯域、オフセット、イメージ・データを含む特別な.ohif
形式で格納します。これにより、それぞれの四角形を含むファイル・オフセットとノード場所が明らかになります。イメージを読み込み戻すには、特別な読込みプロセスが必要であり、このプロセスは、Spark SQLラスター・プロセッサに含まれています。
それぞれの四角形には、各帯域の情報が含まれます。これは、一部の四角形のみを処理し、それに対応するブロックのみをロードする場合に役立ちます。
ローダーは、コマンドラインでパラメータを設定するか、Spark APIを使用することにより、構成できます。
2.8.1.1 Sparkラスター・ローダーへの入力パラメータ
次の例は、spark-submitコマンドを使用して提供される入力パラメータを示します。
spark-submit
--class <DRIVER_CLASS>
--driver-memory <DRIVER_JVM>
--driver-class-path <DRIVER_CLASSPATH>
--jars <EXECUTORS_JARS>
<DRIVER_JAR>
-files <SOURCE_IMGS_PATH>
-out <HDFS_OUTPUT_FOLDER>
-gdal <GDAL_LIB_PATH>
-gdalData <GDAL_DATA_PATH>
[-overlap <OVERLAPPING_PIXELS>]
[-thumbnail <THUMBNAIL_PATH>]
[-expand <false|true>]
説明:
-
DRIVER_CLASS
は、ドライバ・コードを持ち、Sparkによって実行されるクラスです。 -
DRIVER_JVM
は、ドライバのJVMに割り当てるメモリーです。 -
DRIVER_CLASSPATH
は、ドライバ・クラスのクラスパスで、jarはコロンによって区切られます。 -
EXECUTOR_JARS
は、エグゼキュータに配布されるクラスパスで、jarはカンマによって区切られます。 -
DRIVER_JAR
は、Sparkによって実行される<DRIVER_CLASS>が含まれるjarです。 -
SOURCE_IMGS_PATH
は、ソース・ラスターまたはフォルダのパスです。入力が複数の場合はカンマで区切ります。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。 -
HDFS_OUTPUT_FOLDER
はロードしたイメージを格納するHDFS出力フォルダです。 -
OVERLAPPING_PIXELS
はそれぞれの四角形の境界線上で重なるピクセルの任意の数であり、このパラメータが指定されていない場合、重なっている2つのピクセルのデフォルトが使用されます。 -
GDAL_LIB_PATH
はGDALライブラリの場所を示すパスです。 -
GDAL_DATA_PATH
はGDALデータ・フォルダの場所を示すパスです。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。 -
THUMBNAIL_PATH
はロードしたイメージのサムネイルを格納する任意のパスです。NFSを介してクラスタ内のすべてにアクセスでき、Yarnユーザーの書込みアクセス権のあるパスを指定する必要があります。 -
-expand
は、ロードされたラスターのHDFSパスによってソース・パス(すべてのディレクトリを含む)が拡張されるかどうかを制御します。これをfalse
に設定すると、.ohif
ファイルは、(-o
オプションを使用して指定された)出力ディレクトリに直接格納され、この場合、このラスター内のこのディレクトリのパスは含まれません。
それぞれの四角形には、各帯域の情報が含まれます。これは、一部の四角形のみを処理し、それに対応するブロックのみをロードする場合に役立ちます。
ローダーは、コマンドラインでパラメータを設定するか、Spark APIを使用することにより、構成できます。
親トピック: Sparkラスター・ローダー
2.8.1.2 Sparkラスター・ローダーの予想出力
Sparkラスター・ローダーに対する各出力イメージには、入力イメージごとに2つの出力ファイルがあります。
-
ソース・イメージのすべての四角形を集める
.ohif
ファイル。各四角形(HDFSブロックとして格納されます)は、処理エグゼキュータによって別のインスタンスとして処理される場合があります。.ohif
ファイルは、–expand
が使用されなかった場合、/user/<USER_EXECUTING_JOB>/OUT_FOLDER/<PARENT_DIRECTORIES_OF_SOURCE_RASTER>
の下にあるユーザー指定フォルダに、-out
フラグを付けて格納されます。それ以外の場合、.ohif
は/user/<USER_EXECUTING_JOB>/OUT_FOLDER/
に配置され、このファイルはoriginal_filename.ohif
として識別できます。 -
イメージのすべてのピースをリストし、それぞれがカバーする座標を示す関連メタデータ・ファイル。このファイルは、
spatial_raster/metadata
の場所にあるHDFSに置かれており、その名前は.ohif
ファイルの名前を使用してハッシュ生成されます。このファイルはOracle内部専用であり、ソース・ラスターの重要なメタデータをリストします。メタデータ・ファイルのサンプル行の一部は次のとおりです。size:3200,2112 srid:26904 datatype:1 resolution:27.90809458890406,-27.90809458890406 file:/user/hdfs/ohiftest/opt/shareddir/spatial/data/rasters/hawaii.tif.ohif bands:3 mbr:532488.7648166901,4303164.583549625,582723.3350767174,4269619.053853762 0,532488.7648166901,4303164.583549625,582723.3350767174,4269619.053853762 thumbnailpath:/opt/shareddir/spatial/thumb/
-thumbnail
フラグが指定されている場合、ソース・イメージのサムネイルが関連フォルダに格納されます。これは.ohif
ファイルの変換を視覚化する方法の1つです。実行ログには、コマンドyarn logs -applicationId <applicationId>
を使用してアクセスできます。
親トピック: Sparkラスター・ローダー
2.8.2 Spark SQLラスター・プロセッサ
イメージがHDFSにロードされたら、Spark SQLラスター・プロセッサを使用して処理できるようになります。モザイク定義XML構造またはSpark APIを使用して予想されるラスター出力機能を指定すると、モザイクUDFにより、四角形がその出力に適合するようフィルタおよび処理されます。ラスター代数演算はUDFで実行可能です。
Hadoopラスター処理フレームワークでも使用されるカスタムInputFormat
は、ラスターSRIDおよび座標を使用して入力(モザイクの記述または単一のラスター)に基づいて特定のデータのブロックをロードし、処理操作を受け入れる前に最終出力に適合する帯域およびピクセルのみを選択します。
-
モザイク処理要求の場合、交差する四角形のみが選択され、これらの1つずつに分割が作成されます。
-
単一のラスター処理要求の場合、すべての四角形が選択され、これらの1つずつに分割が作成されます。
Spark SQLラスター・プロセッサを使用すると、四角形を表すすべての行とともに、入力カタログまたはラスターに基づいてOHIF四角形をフィルタしてDataframeにまとめ、Spatial UDF Spark機能を使用してこれらを処理できます。
簡略化されたSpark SQLラスター処理の擬似コード表現は、次のとおりです。
sqlContext.udf().register("localop", new LocalOperationsFunction(),DataTypes.createStructType(SpatialRasterJavaRDD.createSimpleTileStructField(dataTypeOfTileToProcess)));
tileRows.registerTempTable("tiles");
String query = "SELECT localop(tileInfo, userRequest, \"localnot\"), userRequest FROM tiles";
DataFrame processedTiles = sqlContext.sql(query);
Spark SQLラスター・プロセッサの基本的なワークフローは、以下のとおりです。
-
処理対象のラスターが最初に四角形メタデータにRDDとしてロードされます。ユーザーがモザイク操作用の構成を設定している場合、これらの四角形をフィルタできます。RDDは後で、2つの複雑な行のSpark DataFrameに変換されます。最初の行は、四角形のすべてのメタデータが含まれる
tileInfo
で、2番目の行は、ラスタークライアントの予想される機能がリストされたユーザー入力構成が含まれるuserRequest
です。 -
DataFrameが作成されたら、ドライバは、処理対象の問合せを実行する前に、“localop” UDFを登録するとともに、DataFrameも表として登録する必要があります。モザイクUDFを実行できるのは、ユーザーが必要なパラメータをすべて正しく構成した場合のみです。XMLが使用されておらず、APIを使用して構成が設定されている場合、
setExecuteMosaic(false)
メソッドが設定されていない限り、デフォルトでは、モザイク操作構成が予想されます。 -
モザイク操作では、すべての四角形から出力に適合するピクセルのみを選択し、必要に応じて解像度を変更してモザイク出力に追加します。
-
問合せが実行されたら、エグゼキュータにより、データのローカル性を保ちながら、四角形に対応するデータがロードされ、指定したローカル・ラスター代数演算が実行されます。
-
DataFrame内の行が新しいピクセル・データを使用して更新され、後処理が必要になった場合のためにドライバに返されます。
-
処理が完了したら、DataFrameは、処理された四角形のMapReduce表現である
ImageBandWritable
オブジェクトのリストに変換されます。これらは、ProcessedRasterCreator
に入力されます。ここでは、ローカル・ラスター代数演算および/またはモザイク操作の結果として生成されたバイトがまとめられ、ユーザーの要求に応じて最終的なラスターがHDFSまたは通常のファイル・システムに格納されます。
ユーザー構成入力のデータ型(ピクセル深度)と同じデータ型(モザイク深度)のイメージのみが該当します。ユーザーがモザイク出力に指定した座標と交差する四角形のみが含まれます。単一のラスター操作の場合、処理は完全なイメージに対して実行されるため、フィルタには、入力ラスターのすべての四角形が含まれます。
2.8.2.1 Spark SQLラスター・プロセッサへの入力パラメータ
次の例は、spark-submitコマンドを使用して提供される入力パラメータを示します。
spark-submit
--class <DRIVER_CLASS>
--driver-memory <DRIVER_JVM>
--driver-class-path <DRIVER_CLASSPATH>
--jars <EXECUTORS_JARS>
<DRIVER_JAR>
-config <MOSAIC_CONFIG_PATH>
-gdal <GDAL_LIBRARIES_PATH>
-gdalData <GDAL_DATA_PATH>
[-catalog <IMAGE_CATALOG_PATH>]
[-file <SINGLE_RASTER_PATH>]
説明:
-
DRIVER_CLASS
は、ドライバ・コードを持ち、Sparkによって実行されるクラスです。 -
DRIVER_JVM
は、ドライバのJVMに割り当てるメモリーです。 -
DRIVER_CLASSPATH
は、ドライバ・クラスのクラスパスで、jarはコロンによって区切られます。 -
EXECUTOR_JARS
は、エグゼキュータに配布されるクラスパスで、jarはカンマによって区切られます。 -
DRIVER_JAR
は、Sparkによって実行される<DRIVER_CLASS>が含まれるjarです。 -
MOSAIC_CONFIG_PATH
は、出力の機能を定義するモザイク構成XMLへのパスです。 -
GDAL_LIBRARIES_PATH
はGDALライブラリの場所を示すパスです。 -
GDAL_DATA_PATH
はGDALデータ・フォルダの場所を示すパスです。NFSを介してクラスタ内のすべてにアクセスできるパスを指定する必要があります。 -
IMAGE_CATALOG_PATH
は、処理対象のHDFSイメージをリストするカタログxmlへのパスです。–fileフラグを使用して処理する単一のラスターも指定できるため、これはオプションです。 -
SINGLE_RASTER_PATH
は、ジョブによって処理される.ohifファイルへの任意のパスです。これが設定されている場合、カタログを設定する必要はありません。
次の例のコマンドは、testFS.xml
ファイルに設定されているモザイク出力定義を使用して、カタログ・ファイルinputSPARK.xml
にリストされるすべてのファイルを処理します。
spark-submit --class oracle.spatial.spark.raster.test.SpatialRasterTest --driver-memory 2048m --driver-class-path /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-raster-fwk-api.jar:/opt/oracle/oracle-spatial-graph/spatial/raster/jlib/gdal.jar:/opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageloader.jar:/opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageprocessor.jar --jars /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageloader.jar,/opt/oracle/oracle-spatial-graph/spatial/raster/jlib/hadoop-imageprocessor.jar,/opt/oracle/oracle-spatial-graph/spatial/raster/jlib/gdal.jar /opt/oracle/oracle-spatial-graph/spatial/raster/jlib/spark-raster-fwk-api.jar -taskType algebra -catalog /opt/shareddir/spatial/data/xmls/inputSPARK.xml -config /opt/shareddir/spatial/data/xmls/testFS.xml -gdal /opt/oracle/oracle-spatial-graph/spatial/raster/gdal/lib –gdalData /opt/shareddir/data
親トピック: Spark SQLラスター・プロセッサ
2.8.2.2 Spark SQLラスター・プロセッサの予想出力
Spark処理の場合、ファイル・システムの出力のみがサポートされています。つまり、生成された出力は、指定されたファイル名およびタイプを持つイメージであり、通常のFileSystemに格納されます。
ジョブ実行ログには、コマンドyarn logs -applicationId <applicationId>
を使用してアクセスできます。
親トピック: Spark SQLラスター・プロセッサ
2.8.3 Sparkラスター処理APIの使用
SparkラスターAPIを使用して、ドライバ・クラスを作成することによってラスターをロードおよび処理できます。
一部のクラス例は、/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/src
の下に用意されています。また、/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/cmd
ディレクトリにも、これらの例をコマンドラインから実行するためのスクリプトが含まれています。
スクリプトを実行してその結果を検証した後、用意されているスクリプト/opt/oracle/oracle-spatial-graph/spatial/raster/examples/java/build.xml
を使用して、試験を実行し、コンパイルできるようにJavaソース・ファイルを変更できます。/opt/oracle/oracle-spatial-graph/spatial/raster/jlib
への書込みアクセスが可能であることを確認します。
GDALが適切に機能するように、$LD_LIBRARY_PATHを使用してライブラリを使用可能にする必要があります。ジョブを実行する前に、共有ライブラリ・パスがシェル・ウィンドウに適切に設定されていることを確認してください。次に例を示します。
export LD_LIBRARY_PATH=$ALLACCESSDIR/gdal/native
2.8.3.1 Sparkラスター・ローダーAPIの使用
イメージ・ロードを実行するには、SpatialRasterLoader
オブジェクトを作成する必要があります。このオブジェクトを使用して、実行に必要な構成情報を設定します。インスタンスの作成には2つの方法があります。
-
コマンドラインから受け取った引数の配列をパラメータとして送信します。次に例を示します。
//args is the String[] received from command line SpatialRasterLoader core = new SpatialRasterLoaderCore(args);
-
このトピックの対象であるAPIを使用してドライバ・クラス内で直接構成します
ローダーAPIを使用して、GDALライブラリ・パスを設定します。これにより、SparkContext
および対応するHadoop構成が内部的に初期化されるためです。次に例を示します。
SpatialRasterLoader core = new SpatialRasterLoader();
core.setGdalLibrary("/opt/sharedddir/spatial/gdal");
core.setFilesToLoad("/opt/shareddir/spatial/rasters");
core.setHDFSOutputDirectory("ohifsparktest");
core.setGdalData("/opt/shareddir/data");
core.setOverlap("20");
core.setThumbnailDirectory("/opt/shareddir/spatial/");
関連するラスターの最も一般的なサイズに応じて、ブロック・サイズを必要に応じて変更できます。たとえば、クラスタのHDFSのブロック・サイズがデフォルトでは大きすぎるときに(256MBなど)、ユーザー・ラスターの平均サイズが64MBである場合、ピクセルによってブロックが埋められていなくてもHDFS内のブロックがすべての四角形によって占有されるため、実際のデータが含まれないHDFS空間の使用は避ける必要があります。このシナリオでは、次の例のように、ブロック・サイズを64MBに変更できます。
JavaSparkContext sc = core.getRasterSparkContext();
core.getHadoopConfiguration().set("dfs.blocksize", "67108864");
ローダーを実行するには、ラスターのロードが成功した場合はtrue
を返し、失敗した場合はfalse
を返すloadRasters
メソッドを使用します。次に例を示します。
if (core.loadRasters(sc, StorageLevel.DISK_ONLY())) {
LOG.info("Successfully loaded raster files");
}
処理が正常に終了した場合、OHIFファイルはHDFS内に格納され、対応するサムネイルは、ユーザー検証のために指定されたディレクトリに格納されます。
親トピック: Sparkラスター処理APIの使用
2.8.3.2 Spark SQLプロセッサAPIを使用するための構成
プロセッサを実行するには、SpatialRasterProcessor
オブジェクトを作成し、実行に必要な構成情報を設定する必要があります。インスタンスの作成には2つの方法があります。
-
コマンドラインから受け取った引数の配列をパラメータとして送信します。次に例を示します。
//args is the String[] received from command line SpatialRasterProcessor processor = new SpatialRasterProcessor(args);
-
このトピックの対象であるAPIを使用してドライバ・クラス内で直接構成します
ローダーAPIを使用して、GDALライブラリ・パスを設定します。これにより、SparkContext
および対応するHadoop構成が内部的に初期化されるためです。次に例を示します。
SpatialRasterProcessor processor = new SpatialRasterProcessor();
processor.setGdalLibrary("/opt/sharedddir/spatial/gdal");
processor.setGdalData("/opt/sharedddir/spatial/data");
処理対象のラスターを指定します。
-
処理するラスターのカタログの追加については、モザイク操作を実行する場合は特に、次の例を考慮してください。
String ohifPath = "ohifsparktest/opt/shareddir/spatial/data/rasters"); //Creates a catalog to list the rasters to process RasterCatalog catalog = new RasterCatalog(); //Creates a raster object for the catalog Raster raster = new Raster(); //raster of 3 bands raster.setBands(3); //the tree bands will appear in order 1,2,3. You may list less bands here. raster.setBandsOrder("1,2,3"); //raster data type is byte raster.setDataType(1); raster.setRasterLocation(ohifPath + "hawaii.tif.ohif"); //Add raster to catalog //catalog.addRasterToCatalog(raster); Raster rasterKahoolawe = new Raster(); rasterKahoolawe.setBands(3); rasterKahoolawe.setBandsOrder("1,2,3"); rasterKahoolawe.setDataType(1); rasterKahoolawe.setRasterLocation(ohifPath + "kahoolawe.tif.ohif"); catalog.addRasterToCatalog(rasterKahoolawe); //Sets the catalog to the job processor.setCatalogObject(catalog.getCompactCatalog());
-
単一のラスターの処理については、次の例を考慮してください。
String ohifPath = "ohifsparktest/opt/shareddir/spatial/data/rasters"); //Set the file to process to the job processor.setFileToProcess(ohifPath + "NapaDEM.tif.ohif");*/
出力ラスターの詳細を定義するユーザー構成要求を設定します。
-
モザイク操作を実行する場合、予想される出力のすべての機能(座標を含む)をMosaicConfigurationオブジェクトに設定する必要があります。次の例では、以前にカタログに追加されたハワイのラスターが両方とも含まれるラスターを作成します。
MosaicConfiguration mosaic = new MosaicConfiguration(); mosaic.setFormat("GTIFF"); mosaic.setBands(3); mosaic.setFileSystem(RasterProcessorJob.FS); mosaic.setDirectory("/opt/shareddir/spatial/processtest"); mosaic.setFileName("HawaiiIslands"); mosaic.setHeight(986); //value for pixels where there is no data, starts with #, followed by //two characters per band mosaic.setNoData("#FFFFFF"); //byte datatype mosaic.setPixelType("1"); //width for pixels in X and Y mosaic.setPixelXWidth(280.388143); mosaic.setPixelYWidth(-280.388143); mosaic.setSrid("26904"); //upper left coordinates mosaic.setUpperLeftX(556958.985610); mosaic.setUpperLeftY(2350324.082505); mosaic.setWidth(1600); mosaic.setOrderAlgorithm(ProcessConstants.ALGORITHM_FILE_LENGTH); mosaic.setOrder(RasterProcessorJob.DESC); //mosaic configuration must be set to the job processor.setUserRequestConfigurationObject(mosaic.getCompactMosaic());
-
モザイク操作を実行しない場合は、より簡単な構成が必要です。次に例を示します。
MosaicConfiguration mosaic = new MosaicConfiguration(); mosaic.setExecuteMosaic(false); mosaic.setBands(1); mosaic.setLayers("1"); mosaic.setDirectory("/opt/shareddir/spatial/processtest"); mosaic.setFileSystem(RasterProcessorJob.FS); mosaic.setNoData("#00");
この時点で、必要な構成がすべて完了しました。これで、処理を開始できます。
親トピック: Sparkラスター処理APIの使用
2.8.3.3 DataFrameの作成
ラスターに対して問合せを実行する前に、すべての行が分割を表しているDataFrameにこれらをロードする必要があります。これらの分割はまとめて四角形のSpatialJavaRDD
として作成され、これがDataFrameに変換されます。使用可能なJVMランタイム・メモリーに応じて、DataFrameをメモリーまたはディスクにキャッシュすることをお薦めします。ディスクにキャッシュする場合、SparkインストールにKryoが使用されている必要があります。
DataFrameは、tileInfo
とuserRequest
という2つの複雑な列で構成されています。
-
tileInfo
: ピクセル情報だけでなくメタデータの詳細を含む、すべての四角形に関するデータ。表2-2 tileInfo列データ
列 データ型 NULL値可能 説明 dstWidthSize
Integer
False
幅
dstHeightSize
Integer
False
高さ
bands
Integer
False
帯域の数
dType
Integer
False
データ型
piece
Integer
False
ソース・ラスター内のピース合計のピース数
offX
Integer
False
X内のオフセット
offY
Integer
False
Y内のオフセット
sourceWidth
Integer
False
ソース・ラスターの幅
sourceHeight
Integer
False
ソース・ラスターの高さ
bytesNumber
Integer
False
バイトの数
baseArray
[[Pixel DataType]]
False
ピクセルの配列(帯域ごとに1つ)
basePaletteArray
[[整数]]
True
パレット解釈の配列(ラスターに含まれる場合、帯域ごとに1つ)
baseColorArray
[Integer]
False
色の配列(帯域ごとに1つ)
noDataArray
[Double]
False
NODATA値の配列(帯域ごとに1つ)
Overlap
Integer
False
重なるピクセルの数
leftOv
Byte
False
左側に重なるピクセルがあるかどうかを示すフラグ
rightOv
Byte
False
右側に重なるピクセルがあるかどうかを示すフラグ
upOv
Byte
False
上側に重なるピクセルがあるかどうかを示すフラグ
downOv
Byte
False
下側に重なるピクセルがあるかどうかを示すフラグ
projectionRef
String
False
予測参照
geoTransform
[Double]
False
地理変換配列
Metadata
[String]
False
場所メタデータ
lastModified
Long
False
ソース・ラスターの最終変更日
imageLength
Double
False
ソース・ラスターの長さ
dataLength
Integer
True
モザイク後のバイトの数
xCropInit
Integer
True
モザイク後のX内の開始ピクセル
yCropInit
Integer
True
モザイク後のY内の開始ピクセル
xCropLast
Integer
True
モザイク後のX内の終了ピクセル
yCropLast
Integer
True
モザイク後のY内の終了ピクセル
catalogOrder
Integer
False
カタログ内の順序
baseMountPoint
String
False
ソース・ラスターのパス
sourceResolution
String
False
ソース・ラスターの解像度
extraFields
[String]
True
その他のフィールド・マップ、NA
-
userRequest
: 予想される出力ラスター機能が定義されているユーザー要求構成。表2-3 userRequest列データ
列 データ型 NULL値可能 説明 offset
Long
False
オフセット
piece
Integer
False
ピース数
splitSize
Long
False
分割サイズ
bandsToAdd
String
False
出力に含める帯域(“1,2,3”など)
upperLeftX
Double
True
モザイクの要求時に使用されるXの左上の出力の座標
upperLeftY
Double
True
モザイクの要求時に使用されるYの左上の出力の座標
lowerRightX
Double
True
モザイクの要求時に使用されるXの右下の出力の座標
lowerRightY
Double
True
モザイクの要求時に使用されるYの右下の出力の座標
width
Integer
True
モザイクが要求されたときに使用される出力の幅
height
Integer
True
モザイクが要求されたときに使用される出力の高さ
srid
String
True
モザイクが要求されたときに使用される出力のSRID
order
String
True
モザイクが要求されたときに使用される出力の順序(昇順または降順)
format
String
True
モザイクが要求されたときに使用される出力のGDAL形式
noData
String
False
出力のNODATA値(#の後ろに帯域当たり2桁の数値、たとえば、3帯域出力の場合は“#000000”)
pixelType
String
True
モザイクが要求されたときに使用される出力のGDALデータ型
Directory
String
False
出力ディレクトリ
pixelXWidth
Double
True
モザイクが要求されたときに使用される出力のピクセルの幅
pixelYWidth
Double
True
モザイクが要求されたときに使用される出力のピクセルの高さ
wkt
String
False
ソース予測参照
mosaicWkt
String
True
モザイクが要求されたときに使用される出力の予測参照
processingClasses
String
True
実行対象のユーザー処理クラス(Sparkではまだサポートされていません)
reducingClasses
String
True
実行対象のユーザー・リデュース・クラス(Sparkではまだサポートされていません)
tempOut
String
True
HDFS出力が要求された場合の一時出力フォルダ(Sparkではまだサポートされていません)
filename
String
False
出力のファイル名
contextId
String
False
実行コンテキストID
sourceResolution
String
False
ソース・ラスターの解像度
catalogOrder
Integer
False
カタログ内のソース・ラスターの順序
executeMosaic
Boolean
False
モザイク操作が要求されたかどうかを示すフラグ
次の例では、DataFrameを作成し、これに関する情報を表示します。
JavaSparkContext sc = processor.getRasterSparkContext();
SpatialRasterJavaRDD<GeneralInfoWritable> spatialRDD = processor.getProcessSplits();
HiveContext sqlContext = new HiveContext(sc.sc());
DataFrame tileRows = spatialRDD.createSpatialTileDataFrame(sqlContext, StorageLevel.DISK_ONLY());
Row[] rows = tileRows.collect();
System.out.println("First Tile info: ");
System.out.println("Width " + rows[0].getStruct(0).getInt(0));
System.out.println("Height " + rows[0].getStruct(0).getInt(1));
System.out.println("Total width " + rows[0].getStruct(0).getInt(7));
System.out.println("Total height " + rows[0].getStruct(0).getInt(8));
System.out.println("File " + rows[0].getStruct(0).getString(30));
System.out.println("First Tile User request data: ");
System.out.println("Bands to add " + rows[0].getStruct(1).getString(3));
親トピック: Sparkラスター処理APIの使用
2.8.3.4 ラスター代数演算用のSpark SQLの使用
Spark UDF localop
を使用すると、Hadoopイメージ・プロセッサを使用してイメージを処理するために、「地図代数演算」で説明されているラスター代数演算を実行できます。Spark SQL UDF用の演算名およびサポート対象のデータ型は、Hadoopの場合と同じです
任意の問合せが実行される前に、ドライバ・クラスでは、UDFを登録するとともに、四角形のDataFrameを一時表として登録する必要があります。次に例を示します。
sqlContext.udf().register("localop", new LocalOperationsFunction(),
DataTypes.createStructType(SpatialRasterJavaRDD.createSimpleTileStructField(dataTypeOfTileToProcess)));
tileRows.registerTempTable("tiles");
これで、localop UDFが登録され、使用する準備が整いました。この関数は、2つのパラメータを受け取ります。
-
tileInfo
行 -
実行対象のラスター代数演算が含まれる文字列。同じ問合せ内で複数の演算を実行でき、これらはセミコロンで区切る必要があります。パラメータを受け取る演算の場合、これらをカンマで区切る必要があります。
この関数により、問合せに送信されたtileInfo
が返されますが、これとともに、実行された演算に基づいて更新されたピクセル・データも返されます。
以下に、様々な演算の実行の例を示します。
String query = "SELECT localop(tileInfo, \"localnot\"),
userRequest FROM tiles";
String query = "SELECT localop(tileInfo,\"localadd,456;localdivide,2;
localif,>,0,12;localmultiply,20;
localpow,2;localsubstract,4;
localsqrt;localacos\"),
userRequest FROM tiles";
String query = "SELECT localop(tileInfo,\"localnot;localatan;localcos;
localasin;localtan;localcosh;
localtanh\"), userRequest FROM tiles";
問合せを実行するには、以下を入力します。
DataFrame cachedTiles = processor.queryAndCache(query, sqlContext);
この新しいDataFrameには、更新されたピクセルがあります。必要に応じて、特定の四角形のコンテンツをTIFファイルとして保存でき、このファイル内でこの四角形は構成済の出力ディレクトリ内に格納されます。次に例を示します。
Row[] pRows = cachedTiles.collect();
processor.debugTileBySavingTif(pRows[0],
processor.getHadoopConfiguration());
モザイク操作を実行するには、最初に任意のラスター代数演算を実行してから、モザイク操作を実行します。新しいSpark UDFがモザイク操作に使用されます。これは、tileInfo
およびuserRequest
列を受け取り、モザイクに適合するよう更新されたtileInfo
を返します。次に例を示します。
sqlContext.udf().register("mosaic", new MosaicFunction(),
DataTypes.createStructType(SpatialRasterJavaRDD.createSimpleTileStructField(dataTypeOfTileToProcess)));
cachedTiles.registerTempTable("processedTiles");
String queryMosaic = "SELECT mosaic(tileInfo, userRequest), userRequest
FROM processedTiles";
DataFrame mosaicTiles = processor.queryAndCache(queryMosaic,
sqlContext);
処理が完了したら、内部操作用の一時HDFSディレクトリ、マージ対象のDataFrame、およびSparkコンテキストをHadoop構成から受け取るProcessedRasterCreator
を使用することにより、四角形を出力ラスターにまとめることができます。これにより、指定した出力ディレクトリ内に予想される出力ラスターが作成されます。次に例を示します。
try {
ProcessedRasterCreator creator = new ProcessedRasterCreator();
creator.create(new Text("createOutput"), mosaicTiles,
sc.hadoopConfiguration());
LOG.info("Finished");
} catch (Exception e) {
LOG.error("Failed processor job due to " + e.getMessage());
throw e;
}
親トピック: Sparkラスター処理APIの使用
2.9 Oracle Big Data Spatial Vector Analysis
Oracle Big Data Spatial Vector AnalysisはSpatial Vector Analysis APIであり、Hadoopジョブとして実行され、HDFSに格納されているデータの空間処理のためのMapReduceコンポーネントを提供します。
これらのコンポーネントでは、Spatial Java APIを利用して空間分析タスクを実行します。このAPIには、Webコンソールも用意されています。
- 複数のHadoop APIのサポート
- 空間の索引付け
- MVSuggestの使用
- 空間のフィルタ処理
- データの階層分類
- バッファの生成
- 空間のビニング
- 空間のクラスタ化
- 空間の結合
- 空間のパーティション化
- RecordInfoProvider
- HierarchyInfo
- MapReduceジョブでのJGeometryの使用
- 異なるデータ・ソースのサポート
- ジョブ・レジストリ
- Vector Analysis APIを使用したジョブ実行時間のパフォーマンス・データのチューニング
関連項目:
次の情報を参照し、実装について詳しく理解してください。
2.9.1 複数のHadoop APIのサポート
Oracle Big Data Spatial Vector Analysisには、新旧両方の(コンテキスト・オブジェクト) Hadoop API用のクラスが用意されています。通常、mapred
パッケージ内のクラスが古いAPIとともに使用され、mapreduce
パッケージ内のクラスが新しいAPIとともに使用されます
このガイドの例では古いHadoop APIを使用しますが、すべての古いHadoop Vector APIクラスが新しいAPI内に同等のクラスを持ちます。たとえば、古いクラスであるoracle.spatial.hadoop.vector.mapred.job.SpatialIndexing
は、oracle.spatial.hadoop.vector.mapreduce.job.SpatialIndexing
という名前の新しい同等のクラスを持ちます。通常、別途記述がない限り、新しいHadoop API Vectorクラスを使用するには、mapred
からmapreduce
に変更するだけですみます。
mapredまたはmapreduceパッケージに含まれていないoracle.spatial.hadoop.vector.RecordInfo
などのクラスには、両方のHadoop APIとの互換性があります。
2.9.2 空間の索引付け
空間の索引付けは、キー/値ペアの形式をとり、Hadoop MapFileとして生成されます。それぞれのMapFileエントリには、元のデータの分割の1つに対する空間索引付けが含まれます。キー/値ペアには次の情報が含まれます。
-
キー: パス + 開始オフセット + 長さの形式の分割識別子。
-
値: 実際に索引付けしたレコードを含む空間索引の構造。
次の図は、ユーザー・データに関連する空間索引を表します。レコードはr1、r2、のように表現されます。レコードは分割(Split 1、Split 2、Split 3、Split n)ごとにまとめられます。それぞれの分割にはキー/値ペアがあり、キーは分割を表し、値はその分割のレコード上にあるRtree索引を表します。
2.9.2.1 空間の索引付けクラスの構造
空間の索引付けのレコードは、クラスoracle.spatial.hadoop.vector.RecordInfo
を使用して表現されます。RecordInfo
には通常、元のレコード・データのサブセット、およびレコードが格納されているファイル内でレコードを特定する方法が含まれています。それぞれのRecordInfo
データは次の2つに応じて異なります。
-
データの読取りに使用する
InputFormat
-
レコードのデータを提供する
RecordInfoProvider
実装
RecordInfo
には次のフィールドが含まれています。
-
Id: レコードIDを含むテキスト・フィールド。
-
Geometry: レコード・ジオメトリのある
JGeometry
フィールド。 -
Extra fields: その他の任意のレコード・フィールドを名前/値ペアとして追加できます。値は常にテキストで表現されます。
-
Start offset: バイト・オフセットとしてのファイル内のレコードの位置。この値は元のデータを読み取る
InputFormat
によって異なります。 -
Length: 元のレコードの長さ(バイト単位)。
-
Path: ファイル・パスはオプションで追加できます。ファイル・パスは空間の索引付けエントリ・キーとして把握できるため、これはオプションです。ただし、空間索引を作成するときに
RecordInfo
インスタンスへのパスを追加するには、構成プロパティoracle.spatial.recordInfo.includePathField
キーの値がtrue
に設定されます。
親トピック: 空間の索引付け
2.9.2.2 空間索引を作成する構成
空間索引はFileSplitInputFormat
、SpatialIndexingMapper
、InputFormat
、およびRecordInfoProvider
を組み合せて作成されますが、この最後の2つはユーザーが提供します。次のコードの例は、HDFSフォルダ/user/data
で特定されたデータの空間索引を作成するジョブを実行するために必要な構成の一部を示します。
//input conf.setInputFormat(FileSplitInputFormat.class); FileSplitInputFormat.setInputPaths(conf, new Path("/user/data")); FileSplitInputFormat.setInternalInputFormatClass(conf, GeoJsonInputFormat.class); FileSplitInputFormat.setRecordInfoProviderClass(conf, GeoJsonRecordInfoProvider.class); //output conf.setOutputFormat(MapFileOutputFormat.class); FileOutputFormat.setOutputPath(conf, new Path("/user/data_spatial_index")); //mapper conf.setMapperClass(SpatialIndexingMapper.class); conf.setOutputKeyClass(Text.class); conf.setOutputValueClass(RTreeWritable.class);
この例では次のとおりです。
-
FileSplitInputFormat
はジョブInputFormat
として設定されています。FileSplitInputFormat
は、データを読み取るための別のInputFormat
実装(internalInputFormat
)を使用する抽象クラスであるCompositeInputFormat
(新しいHadoop APIバージョン内のWrapperInputFormat
)のサブクラスです。内部InputFormat
およびRecordInfoProvider
実装はユーザーによって指定され、それぞれGeoJsonInputFormat
およびGeoJsonRecordInfoProvider
に設定されます。 -
MapFileOutputFormat
は、MapFile
を生成するためにOutputFormat
として設定されます -
マッパーは
SpatialIndexingMappper
に設定されます。マッパー出力キーおよび値のタイプは、Text
(分割識別子)およびRTreeWritable
(実際の空間索引)です。 -
リデューサ・クラスが指定されていないため、デフォルトのリデューサで実行されます。出力MapFileキーをソートするには、リデュース・フェーズが必要です。
また、この構成は、oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing
クラスを使用すると設定が容易になります。SpatialIndexing
は空間索引を作成するジョブ・ドライバです。次の例では、SpatialIndexing
インスタンスが作成および設定され、configure()
メソッドを呼び出してジョブ構成への設定の追加に使用されます。構成が設定されると、ジョブが開始されます。
SpatialIndexing<LongWritable, Text> spatialIndexing = new SpatialIndexing<LongWritable, Text>(); //path to input data spatialIndexing.setInput("/user/data"); //path of the spatial index to be generated spatialIndexing.setOutput("/user/data_spatial_index"); //input format used to read the data spatialIndexing.setInputFormatClass(TextInputFormat.class); //record info provider used to extract records information spatialIndexing.setRecordInfoProviderClass(TwitterLogRecordInfoProvider.class); //add the spatial indexing configuration to the job configuration spatialIndexing.configure(jobConf); //run the job JobClient.runJob(jobConf);
親トピック: 空間の索引付け
2.9.2.3 空間索引メタデータ
作成されるすべての空間索引にメタデータ・ファイルが生成されます。空間索引メタデータを使用すると、索引付きレコードの数、索引付きデータの最小外接矩形(MBR)、および空間索引と索引付きソース・データの両方のパスなど、空間索引に関連する情報を簡単に検索できます。空間索引メタデータは、空間索引名を使用して取得できます。
空間索引メタデータ・ファイルには、次の情報が含まれます。
-
空間索引名
-
空間索引へのパス
-
索引付きレコードの数
-
ローカル索引の数
-
索引付きレコードに含まれる追加フィールド
-
SRID、次元、許容差、境界、およびジオメトリが測地であるかどうかの是非などのジオメトリ・レイヤー情報
-
各ローカル空間索引ファイルに関する次の情報: 索引付きデータへのパス、ローカル索引へのパス、および索引付きデータのMBR
SpatialIndexing
クラスを使用して空間索引を作成する場合、次のメタデータ・プロパティを設定できます。
-
indexName
: 空間索引の名前。設定されていない場合、出力フォルダ名が使用されます。 -
metadataDir
: メタデータ・ファイルの格納先のディレクトリへのパス。-
デフォルトでは、ユーザー・ディレクトリへの相対パスである
oracle_spatial/index_metadata
に格納されます。ユーザーがhdfs
である場合は、/user/hdfs/oracle_spatial/index_metadata
になります。
-
-
overwriteMetadata
:true
に設定すると、現在のmetadataDir
内で同じindexName
を持つ空間索引に対して空間索引メタデータ・ファイルがすでに存在する場合、この空間索引メタデータが上書きされます。false
に設定し、現在のmetadataDir
内で同じindexName
を持つ空間索引に対して空間索引メタデータ・ファイルがすでに存在する場合、エラーが発生します。
次の例では、メタデータ・ディレクトリおよび空間索引名を設定し、索引がすでに存在する場合は既存の任意のメタデータを上書きするよう指定します。
spatialIndexing.setMetadataDir("/user/hdfs/myIndexMetadataDir");
spatialIndexing.setIndexName("testIndex");
spatialIndexing.setOverwriteMetadata(true);
indexName
のみを指定するとともに、必要に応じて索引メタデータがあるindexMetadataDir
を指定することにより、既存の空間索引を他のジョブに渡すことができます。索引名が提供されている場合、空間索引パスや入力形式を指定する必要はありません。
次のジョブ・ドライバは、indexName
をパラメータとして受け取ります。
-
oracle.spatial.hadoop.vector.mapred.job.Categorization
-
oracle.spatial.hadoop.vector.mapred.job.SpatialFilter
-
oracle.spatial.hadoop.vector.mapred.job.Binning
-
oracle.spatial.hadoop.vector.InputDataSet
を受け取るドライバ(SpatialJoin
やPartitioning
など)
索引名がindexMetadataDir
パスで見つからない場合、空間索引が見つからなかったことを示すエラーがスローされます。
次の例は、ビニング・ジョブの入力データ・セットとして設定されている空間索引を示します。
Binning binning = new Binning();
binning.setIndexName("indexExample");
binning.setIndexMetadataDir("indexMetadataDir");
親トピック: 空間の索引付け
2.9.2.4 空間索引の入力形式
InputFormat
は次のサポート対象の要件と一致している必要があります。
-
FileInputFormat
のサブクラスであること。 -
getSplits()
メソッドがFileSplit
またはCombineFileSplit
分割タイプを返すこと。 -
古いHadoop APIの場合、
RecordReader
のgetPos()
メソッドが現在の位置を返し、空間索引のレコードをユーザー・ファイルの元のレコードにトラック・バックすること。現在の位置が返されない場合、空間索引では元のレコードが見つかりません。ただし、空間索引は引き続き作成でき、元のレコードの読取りを必要としない操作に使用できます。たとえば、他のフィールドを追加フィールドとして追加すると、元のレコード全体を読み取る必要はありません。
注意:
それぞれの分割が
getSplits()
メソッドから返されたら、その分割に対して空間索引が作成されます。空間索引をフィルタ処理に使用する(空間のフィルタ処理)場合は、空間索引を作成したものと同じInputFormat
実装を使用して、分割索引があるかどうか確認することをお薦めします。
getPos()
メソッドはHadoopの新しいAPIから削除されていますが、org.apache.hadoop.mapreduce.lib.input.TextInputFormat
およびCombineTextInputFormat
はサポートされており、引き続きレコードの開始オフセットの取得に使用できます。
新しいAPIのその他の入力形式もサポートされていますが、レコード開始オフセットは空間索引に含まれません。このため、元のレコードは検索できません。新しいAPI入力形式の要件は、古いAPIのものと同じです。ただし、新しいAPI FileInputFormat
、FileSplit
、およびCombineFileSplit
に変換する必要があります。
親トピック: 空間の索引付け
2.9.2.5 GeoJSONおよびShapefile形式のサポート
Vector APIには、GeoJSONおよびShapefileファイル形式のためのInputFormat
実装、およびRecordInfoProvider
実装が提供されています。
次のInputFormat/RecordInfoProvider
ペアは、それぞれGeoJSONおよびShapeFilesの読取りと解釈に使用されます。
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat / oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider oracle.spatial.hadoop.vector.shapefile.mapred.ShapeFileInputFormat / oracle.spatial.hadoop.vector.shapefile.ShapeFileRecordInfoProvider
使用方法とプロパティについて詳しくは、Javadocを参照してください。
親トピック: 空間の索引付け
2.9.2.6 空間索引の削除
次を実行することにより、前に生成した空間索引を削除できます。
oracle.spatial.hadoop.vector.util.Tools removeSpatialIndex indexName=<INDEX_NAME> [indexMetadataDir=<PATH>] [removeIndexFiles=<true|false*>]
説明:
-
indexName
: 前に生成した索引の名前。 -
indexMetadataDir
(オプション): 索引メタデータ・ディレクトリへのパス。指定されていない場合、ユーザー・ディレクトリに対する相対パスとしてoracle_spatial/index_metadataが使用されます -
removeIndexFiles
(オプション): 索引メタデータファイルに加えて生成された索引地図ファイルを削除する必要がある場合はtrue
です。デフォルトでは、false
です。
親トピック: 空間の索引付け
2.9.3 MVSuggestの使用
MVSuggest
は、ジオメトリがなく、テキスト・フィールドのあるレコードの推定の位置を取得するための空間の索引付けに使用できます。このテキスト・フィールドはレコードの位置の特定に使用されます。MVSuggest
から返されたジオメトリが、空間索引内のレコードの包括に使用されます。
すべてのレコードについて検索テキストを含むフィールドを把握する必要があるため、RecordInfoProvider
実装では、LocalizableRecordInfoProvider
も実装する必要があります。または、検索テキストを含むフィールドの名前で、構成パラメータoracle.spatial.recordInfo.locationField
を設定できます。詳細は、LocalizableRecordInfoProvider
のJavadocを参照してください。
MVSuggest
のスタンドアロン・バージョンがVector APIに用意されているため、入力パラメータとしてMVSConfig
を受け入れる一部のジョブに使用できます。
次のジョブ・ドライバはMVSuggest
で使用でき、そのすべてにMVSConfig
のインスタンスを受け入れるsetMVSConfig()
メソッドがあります。
-
oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing: ジオメトリを含まないレコードの推定の空間位置を取得するための
MVSuggest
オプションがあります。 -
oracle.spatial.hadoop.vector.mapred.job.Categorization:
MVSuggest
を使用して、USAの州のレイヤーのカリフォルニアの機能など、レイヤー内の特定の機能にレコードを割り当てます。 -
oracle.spatial.hadoop.vector.mapred.job.SuggestService: 入力レコードごとの検索テキストとその一致を含むファイルを生成する単一のジョブです。
MVSuggestの構成は、MVSConfigまたはLocalMVSConfigクラスを使用してジョブに渡されます。基本のMVSuggestプロパティは次のとおりです。
-
serviceLocation
:MVSuggest
を使用するために必要な最小のプロパティです。これにはパスまたはURLが含まれており、MVSuggest
ディレクトリのある場所、URLの場合はMVSuggest
サービスがデプロイされている場所を示します。 -
serviceInterfaceType
: 使用するMVSuggest
実装のタイプ。スタンドアロン・バージョンの場合はLOCAL (デフォルト)、Webサービス・バージョンの場合はWEBです。 -
matchLayers
: 検索の実行に使用するレイヤー名の配列。
MVSuggest
のスタンドアロン・バージョンを使用する場合は、MVSuggest
ディレクトリまたはリポジトリをserviceLocation
として指定する必要があります。MVSuggest
ディレクトリは次のような構造である必要があります。
mvsuggest_config.json repository folder one or more layer template files in .json format optionally, a _config_ directory optionally, a _geonames_ directory
examples
フォルダには多数のレイヤー・テンプレート・ファイルがあり、_config_
ディレクトリには各テンプレートの構成があります。
リポジトリ・フォルダ(テンプレートを含むもの)をMVSuggest
ディレクトリ全体ではなく、mvsLocationとして設定できます。この場合、次の例に示すように、クラスLocalMVSConfig
をMVSConfig
のかわりに使用して、repositoryLocation
プロパティをtrue
に設定できます。
LocalMVSConfig lmvsConf = new LocalMVSConfig(); lmvsConf.setServiceLocation(���file:///home/user/mvs_dir/repository/���); lmvsConf.setRepositoryLocation(true); lmvsConf.setPersistentServiceLocation(���/user/hdfs/hdfs_mvs_dir���); spatialIndexingJob.setMvsConfig(lmvsConf);
前の例では、リポジトリ・フォルダをMVSサービスの場所として設定しています。setRepositoryLocation
はtrue
に設定され、サービスの場所がMVSuggest
ディレクトリ全体のかわりにリポジトリになることを示します。ジョブを実行すると、指定のリポジトリの場所を使用してMVSuggest
ディレクトリ全体が作成されます。リポジトリはジョブの完了時に索引付けられ、一時フォルダに置かれます。最初に索引付けしてあったMVSuggest
ディレクトリは維持されるため、後で使用できます。前の例では、生成されたMVSuggest
ディレクトリをHDFSパス/user/hdfs/hdfs_mvs_dir
に保存します。MVSuggest
ディレクトリがすでに存在する場合はMVSDirectoryを使用します。
2.9.4 空間のフィルタ処理
空間索引は生成後、データの空間フィルタ処理に使用できます。データの読取り中、マッパーに達するまではフィルタ処理が実行されます。次のサンプル・コードは、SpatialFilterInputFormat
をデータの空間フィルタ処理に使用する方法を示しています。
//set input path and format FileInputFormat.setInputPaths(conf, new Path("/user/data/")); conf.setInputFormat(SpatialFilterInputFormat.class); //set internal input format SpatialFilterInputFormat.setInternalInputFormatClass(conf, TextInputFormat.class); if( spatialIndexPath != null ) { //set the path to the spatial index and put it in the distributed cache boolean useDistributedCache = true; SpatialFilterInputFormat.setSpatialIndexPath(conf, spatialIndexPath, useDistributedCache); } else { //as no spatial index is used a RecordInfoProvider is needed SpatialFilterInputFormat.setRecordInfoProviderClass(conf, TwitterLogRecordInfoProvider.class); } //set spatial operation used to filter the records SpatialOperationConfig spatialOpConf = new SpatialOperationConfig(); spatialOpConf.setOperation(SpatialOperation.IsInside); spatialOpConf.setJsonQueryWindow("{\"type\":\"Polygon\", \"coordinates\":[[-106.64595, 25.83997, -106.64595, 36.50061, -93.51001, 36.50061, -93.51001, 25.83997 , -106.64595, 25.83997]]}"); spatialOpConf.setSrid(8307); spatialOpConf.setTolerance(0.5); spatialOpConf.setGeodetic(true);
SpatialFilterInputFormat
はジョブのInputFormat
として設定する必要があります。実際にデータを読み取るInputFormat
は、内部InputFormat
として設定する必要があります。この例では、内部InputFormat
はTextInputFormat
です。
空間索引が指定されている場合、それがフィルタ処理に使用されます。それ以外の場合は、RecordInfoProvider
を指定してレコードのジオメトリを取得する必要があり、フィルタ処理がレコードごとに実行されます。
最終ステップとして、空間フィルタ処理を実行する空間操作と問合せウィンドウが設定されます。空間索引が作成されている場合、または少なくとも実装で分割の生成に同じ基準が使用されている場合は、使用されている同じ内部InputFormat
実装を使用することをお薦めします。詳細は、「空間索引の入力形式」を参照してください。
単一の空間フィルタ処理のみ(つまり、問合せウィンドウとやり取りするレコードの取得のみ)を実行する必要がある場合、ビルトインのジョブ・ドライバoracle.spatial.hadoop.vector.mapred.job.SpatialFilter
をかわりに使用できます。このジョブ・ドライバは索引付き入力と索引のない入力、およびSpatialOperationConfig
を受け入れてフィルタ処理を実行します。
2.9.4.1 レコードのフィルタ処理
次の手順は、SpatialFilterInputFormat
および空間索引を使用してレコードをフィルタ処理するときに実行します。
-
SpatialFilterInputFormat getRecordReader()
メソッドは、マッパーが現在の分割にRecordReader
を要求すると呼び出されます。 -
現在の分割の空間索引が取得されます。
-
空間索引を使用して、そこに含まれるレコードに空間問合せが実行されます。
その結果、空間フィルタと一致するレコードを含む分割の範囲が判別されます。たとえば、分割がファイル位置1000から2000になる場合、空間フィルタの実行時に空間条件を満たすレコードが1100-1200、1500-1600、および1800-1950の範囲であることが特定されます。そのため、この段階の空間フィルタ処理の実行結果は、さらに小さい分割を含む元のフィルタのサブセットになります。
-
内部
InputFormat
RecordReader
は、結果の分割サブセットを細分した分割すべてに要求されます。 -
RecordReaderが呼出し元のマッパーに返されます。返されるRecordReaderは、内部
InputFormat
から返された1つ以上のRecordReadersのある実際のラッパーRecordReaderです。 -
マッパーがRecordReaderを呼び出すたびに、レコードを読み取る次のメソッドへの呼び出しが内部RecordReaderに委任されます。
次の空間フィルタ処理の相互作用の図にこれらの手順を示します。
親トピック: 空間のフィルタ処理
2.9.4.2 入力形式の使用のフィルタ処理
前に生成した空間索引は、入力形式実装oracle.spatial.hadoop.vector.mapred.input.SpatialIndexInputFormat
(またはmapred
の代わりにmapreduce
パッケージと同等の新しいHadoop API)を使用して読み取ることができます。SpatialIndexInputFormat
は、入力パスを受け入れ、ジョブの入力家として設定される点において、他の任意のFileInputFormat
サブクラスと同じように使用されます。返されるキーおよび値は、空間索引に格納されているレコードのID (Text)
およびレコード情報(RecordInfo)
です。
また、空間操作構成を入力形式に指定して空間フィルタ操作を実行することにより、一部の空間的相互作用と一致するレコードのみがマッパーに返されるようにすることもできます。次の例は、特定の領域内にあるすべてのレコードを取得するための空間索引を読み取るジョブを構成する方法を示します。
JobConf conf = new JobConf();
conf.setMapperClass(MyMapper.class);
conf.setInputFormat(SpatialIndexInputFormat.class);
SpatialOperationConfig spatialOpConf = new SpatialOperationConfig();
spatialOpConf.setOperation(SpatialOperation.IsInside);
spatialOpConf.setQueryWindow(JGeometry.createLinearPolygon(new double[]{47.70, -124.28, 47.70, -95.12, 35.45, -95.12, 35.45, -124.28, 47.70, -124.28}, 2, 8307));
SpatialIndexInputFormat.setFilterSpatialOperationConfig(spatialOpConf, conf);
前の例のマッパーでは、次の例に示すように、RecordInfo
の追加フィールドを使用することにより、空間以外のフィルタを追加できます。
public class MyMapper extends MapReduceBase implements Mapper<Text, RecordInfo, Text, RecordInfo>{
@Override
public void map(Text key, RecordInfo value, OutputCollector<Text, RecordInfo> output, Reporter reporter)
throws IOException {
if( Integer.valueOf(value.getField("followers_count")) > 0){
output.collect(key, value);
}
}
}
親トピック: 空間のフィルタ処理
2.9.5 データの階層分類
Vector Analysis APIでは、データを階層エンティティに分類する方法があります。たとえば、大陸部、国、および州などの行政区分のレベルが定義されている一連の特定のカタログの場合、ユーザー・データのレコードを階層データ・セットの各レベルに結合できます。次の例では、大陸部、国および州ごとのユーザー・レコードの数が含まれる各階層レベルの集計カウントを生成します。
Categorization catJob = new Categorization(); //set a spatial index as the input catJob.setIndexName("indexExample"); //set the job's output catJob.setOutput("hierarchy_count"); //set HierarchyInfo implementation which describes the world administrative boundaries hierarchy catJob.setHierarchyInfoClass( WorldDynaAdminHierarchyInfo.class ); //specify the paths of the hierarchy data Path[] hierarchyDataPaths = { new Path("file:///home/user/catalogs/world_continents.json"), new Path("file:///home/user/catalogs/world_countries.json"), new Path("file:///home/user/catalogs/world_states_provinces.json")}; catJob.setHierarchyDataPaths(hierarchyDataPaths); //set the path where the index for the previous hierarchy data will be generated catJob.setHierarchyIndexPath(new Path("/user/hierarchy_data_index/")); //setup the spatial operation which will be used to join records from the two datasets (spatial index and hierarchy data). SpatialOperationConfig spatialOpConf = new SpatialOperationConfig(); spatialOpConf.setOperation(SpatialOperation.IsInside); spatialOpConf.setSrid(8307); spatialOpConf.setTolerance(0.5); spatialOpConf.setGeodetic(true); catJob.setSpatialOperationConfig(spatialOpConf); //add the previous setup to the job configuration catJob.configure(conf); //run the job RunningJob rj = JobClient.runJob(conf);
前の例では、Categorization
ジョブ・ドライバを使用します。構成は次のカテゴリに分けられます。
-
入力データ: 前に生成した(ジョブ入力として受け取った)空間索引。
-
出力データ: 階層レベルごとのサマリー数を含むフォルダ。
-
階層データ構成: これには次のものが含まれます。
-
HierarchyInfo
クラス: 現在の階層データを記述するHierarchyInfo
クラスの実装です。ここでは階層レベルの数、レベル名、および各レベルに含まれるデータを示します。 -
階層データ・パス: 各階層カタログへのパスです。これらのカタログは
HierarchyInfo
クラスによって読み取られます。 -
階層索引パス: 階層データ索引が格納されるパスです。階層データは、階層レベル間の親子関係を判別するために事前処理する必要があります。この情報は1回処理され、階層索引に保存されるため、後で現在のジョブまたは他のジョブに使用できます。
-
-
空間操作の構成: ユーザー・データと階層データの間で、両方のデータセットを結合するために実行する必要のある空間操作です。ここで設定するパラメータは、空間操作タイプ(IsInside)、SRID (8307)、許容差(0.5メートル)、およびジオメトリが測地(true)であるかどうかです。
Categorization.configure()
メソッドは、内部でマッパーとリデューサをそれぞれSpatialHierarchicalCountMapper
とSpatialHierarchicalCountReducer
に設定します。SpatialHierarchicalCountMapper
の出力キーは、hierarchy_level
+ hierarchy_entry_id
という形式の階層エントリ識別子です。マッパー出力値は出力キーごとに1件です。リデューサは各キーの件数をすべて合計します。
注意:
階層データ全体がメモリーに読み込まれるため、すべてのカタログの合計サイズはユーザー・データよりも大幅に小さくなると予想されます。階層データ・サイズは数GBを超えないようにします。
たとえば、階層エントリに応じたユーザー・レコードのリストなど、件数ではなく別の出力タイプが必要な場合があります。その場合は、SpatialHierarchicalJoinMapper
を使用できます。SpatialHierarchicalJoinMapper
出力値はRecordInfo
インスタンスであり、ユーザー定義リデューサでまとめられ、別の出力を作成します。次のユーザー定義リデューサでは、MultipleOutputs
クラスを使用して各階層レベルにMapFileを生成します。各MapFileには、キーとしての階層エントリID、および値として各階層エントリの一致レコードを含むArrayWritable
インスタンスがあります。階層エントリごとのレコード・リストを返すユーザー定義リデューサを次に示します。
public class HierarchyJoinReducer extends MapReduceBase implements Reducer<Text, RecordInfo, Text, ArrayWritable> { private MultipleOutputs mos = null; private Text outKey = new Text(); private ArrayWritable outValue = new ArrayWritable( RecordInfo.class ); @Override public void configure(JobConf conf) { super.configure(conf); //use MultipleOutputs to generate different outputs for each hierarchy level mos = new MultipleOutputs(conf); } @Override public void reduce(Text key, Iterator<RecordInfo> values, OutputCollector<Text, RecordInfoArrayWritable> output, Reporter reporter) throws IOException { //Get the hierarchy level name and the hierarchy entry id from the key String[] keyComponents = HierarchyHelper.getMapRedOutputKeyComponents(key.toString()); String hierarchyLevelName = keyComponents[0]; String entryId = keyComponents[1]; List<Writable> records = new LinkedList<Writable>(); //load the values to memory to fill output ArrayWritable while(values.hasNext()) { RecordInfo recordInfo = new RecordInfo( values.next() ); records.add( recordInfo ); } if(!records.isEmpty()) { //set the hierarchy entry id as key outKey.set(entryId); //list of records matching the hierarchy entry id outValue.set( records.toArray(new Writable[]{} ) ); //get the named output for the given hierarchy level hierarchyLevelName = FileUtils.toValidMONamedOutput(hierarchyLevelName); OutputCollector<Text, ArrayWritable> mout = mos.getCollector(hierarchyLevelName, reporter); //Emit key and value mout.collect(outKey, outValue); } } @Override public void close() throws IOException { mos.close(); } }
次の構成では、1つのジョブで同じリデューサが使用され、階層レベルに応じたレコードのリストが生成されます。
JobConf conf = new JobConf(getConf()); //input path FileInputFormat.setInputPaths(conf, new Path("/user/data_spatial_index/") ); //output path FileOutputFormat.setOutputPath(conf, new Path("/user/records_per_hier_level/") ); //input format used to read the spatial index conf.setInputFormat( SequenceFileInputFormat.class); //output format: the real output format will be configured for each multiple output later conf.setOutputFormat(NullOutputFormat.class); //mapper conf.setMapperClass( SpatialHierarchicalJoinMapper.class ); conf.setMapOutputKeyClass(Text.class); conf.setMapOutputValueClass(RecordInfo.class); //reducer conf.setReducerClass( HierarchyJoinReducer.class ); conf.setOutputKeyClass(Text.class); conf.setOutputValueClass(ArrayWritable.class); //////////////////////////////////////////////////////////////////// //hierarchy data setup //set HierarchyInfo class implementation conf.setClass(ConfigParams.HIERARCHY_INFO_CLASS, WorldAdminHierarchyInfo.class, HierarchyInfo.class); //paths to hierarchical catalogs Path[] hierarchyDataPaths = { new Path("file:///home/user/catalogs/world_continents.json"), new Path("file:///home/user/catalogs/world_countries.json"), new Path("file:///home/user/catalogs/world_states_provinces.json")}; //path to hierarchy index Path hierarchyDataIndexPath = new Path("/user/hierarchy_data_index/"); //instantiate the HierarchyInfo class to index the data if needed. HierarchyInfo hierarchyInfo = new WorldAdminHierarchyInfo(); hierarchyInfo.initialize(conf); //Create the hierarchy index if needed. If it already exists, it will only load the hierarchy index to the distributed cache HierarchyHelper.setupHierarchyDataIndex(hierarchyDataPaths, hierarchyDataIndexPath, hierarchyInfo, conf); /////////////////////////////////////////////////////////////////// //setup the multiple named outputs: int levels = hierarchyInfo.getNumberOfLevels(); for(int i=1; i<=levels; i++) { String levelName = hierarchyInfo.getLevelName(i); //the hierarchy level name is used as the named output String namedOutput = FileUtils.toValidMONamedOutput(levelName); MultipleOutputs.addNamedOutput(conf, namedOutput, MapFileOutputFormat.class, Text.class, ArrayWritable.class); } //finally, setup the spatial operation SpatialOperationConfig spatialOpConf = new SpatialOperationConfig(); spatialOpConf.setOperation(SpatialOperation.IsInside); spatialOpConf.setSrid(8307); spatialOpConf.setTolerance(0.5); spatialOpConf.setGeodetic(true); spatialOpConf.store(conf); //run job JobClient.runJob(conf);
出力値がRecordInfo
インスタンスの配列ではなく、レコードIDの配列であるとすると、前に定義したリデューサで一部を変更するだけで済みます。
前の例でoutValue
が宣言されている行は、次のように変更されます。
private ArrayWritable outValue = new ArrayWritable(Text.class);
前の例で入力値を取得するloopは、次のように変更されます。このため、レコード全体ではなくレコードIDを取得します。
while(values.hasNext()) { records.add( new Text(values.next().getId()) ); }
レコードIDのみが必要なとき、マッパーがRecordInfo
インスタンス全体を発行します。このため、これを改善するには、マッパーの出力値を変更します。マッパー出力値はAbstractSpatialJoinMapper
を拡張して変更できます。次の例では、レコードが階層エントリの一部と一致するたびに、マッパーはRecorInfo
インスタンス全体ではなく、レコードIDのみを発行します。
public class IdSpatialHierarchicalMapper extends AbstractSpatialHierarchicalMapper< Text > { Text outValue = new Text(); @Override protected Text getOutValue(RecordInfo matchingRecordInfo) { //the out value is the record's id outValue.set(matchingRecordInfo.getId()); return outValue; } }
2.9.5.1 階層レベル範囲の変更
デフォルトでは、階層検索を実行すると、HierarchyInfo
実装に定義されている階層レベルがすべてロードされます。ロードされる階層レベルの範囲は、レベル1 (親レベル)からHierarchyInfo.getNumberOfLevels()
メソッドが返すレベルまでに及びます。次の例では、レベル2と3のみをロードするジョブを設定する方法を示します。
conf.setInt( ConfigParams.HIERARCHY_LOAD_MIN_LEVEL, 2); conf.setInt( ConfigParams.HIERARCHY_LOAD_MAX_LEVEL, 3);
注意:
これらのパラメータは、階層レベルのサブセットのみが必要であり、HierarchyInfo
の実装を変更しない場合に役立ちます。
親トピック: データの階層分類
2.9.5.2 検索階層の制御
検索は常に、(レベル番号が大きい)最下層の階層レベルで実行されます。ユーザー・レコードがこのレベルの階層エントリの一部と一致する場合、その一致は上位レベルの親エントリに伝播されます。たとえば、ユーザー・レコードがロサンゼルスと一致する場合、カリフォルニア、USA、および北米にも一致します。最下位レベルのユーザー・レコードと一致するものがない場合、上位レベルへの検索は続行されません。
この動作は構成パラメータConfigParams.HIERARCHY_SEARCH_MULTIPLE_LEVELS
をtrue
に設定して変更できます。このため、最下位の下層レベルの検索で、一致しないユーザー・レコードが見つかった場合、最上位レベルに達するまで、あるいは結合するユーザー・レコードがなくなるまで、上位レベルへの検索が続行されます。この動作は、親レベルのジオメトリがその子エントリのジオメトリを完全に囲んでいない場合に使用できます
親トピック: データの階層分類
2.9.5.3 データを分類するためのMVSuggestの使用
データを分類するには、空間索引ではなくMVSuggest
を使用できます。その場合、LocalizableRecordInfoProvider
の実装を特定し、MVSuggestを送信して検索を実行する必要があります。LocalizableRecordInfoProvider
に関する情報を参照してください。
次の例では、プログラム・オプションが空間からMVSに変更されています。入力は空間索引ではなくユーザー・データへのパスです。ユーザー・レコードの読取りに使用するInputFormat
とLocalizableRecordInfoProvider
の実装が指定されます。MVSuggest
サービス構成が設定されます。この場合、空間操作の構成は必要ありません。
Categorization<LongWritable, Text> hierCount = new Categorization<LongWritable, Text>(); // the input path is the user's data hierCount.setInput("/user/data/"); // set the job's output hierCount.setOutput("/user/mvs_hierarchy_count"); // set HierarchyInfo implementation which describes the world // administrative boundaries hierarchy hierCount.setHierarchyInfoClass(WorldDynaAdminHierarchyInfo.class); // specify the paths of the hierarchy data Path[] hierarchyDataPaths = { new Path("file:///home/user/catalogs/world_continents.json"), new Path("file:///home/user/catalogs/world_countries.json"), new Path("file:///home/user/catalogs/world_states_provinces.json") }; hierCount.setHierarchyDataPaths(hierarchyDataPaths); // set the path where the index for the previous hierarchy data will be // generated hierCount.setHierarchyIndexPath(new Path("/user/hierarchy_data_index/")); // No spatial operation configuration is needed, Instead, specify the // InputFormat used to read the user's data and the // LocalizableRecordInfoProvider class. hierCount.setInputFormatClass(TextInputFormat.class); hierCount.setRecordInfoProviderClass(MyLocalizableRecordInfoProvider.class); // finally, set the MVSuggest configuration LocalMVSConfig lmvsConf = new LocalMVSConfig(); lmvsConf.setServiceLocation("file:///home/user/mvs_dir/oraclemaps_pub"); lmvsConf.setRepositoryLocation(true); hierCount.setMvsConfig(lmvsConf); // add the previous setup to the job configuration hierCount.configure(conf); // run the job JobClient.runJob(conf);
注意:
MVSuggest
を使用する場合、階層データ・ファイルはMVSuggest
で使用するレイヤー・テンプレート・ファイルと同じである必要があります。HierarchyInfo.getLevelNames()
メソッドによって返される階層レベル名が、MVSuggest
で一致するレイヤーとして使用されます。
親トピック: データの階層分類
2.9.6 バッファの生成
APIには、各レコードのジオメトリを囲んでバッファを生成するマッパーがあります。次のサンプル・コードでは、BufferMapper
クラスを使用して各レコード・ジオメトリのバッファ生成ジョブを実行する方法を示します。
//configure input conf.setInputFormat(FileSplitInputFormat.class); FileSplitInputFormat.setInputPaths(conf, "/user/waterlines/"); FileSplitInputFormat.setRecordInfoProviderClass(conf, GeoJsonRecordInfoProvider.class); //configure output conf.setOutputFormat(SequenceFileOutputFormat.class); SequenceFileOutputFormat.setOutputPath(conf, new Path("/user/data_buffer/")); //set the BufferMapper as the job mapper conf.setMapperClass(BufferMapper.class); conf.setMapOutputKeyClass(Text.class); conf.setMapOutputValueClass(RecordInfo.class); conf.setOutputKeyClass(Text.class); conf.setOutputValueClass(RecordInfo.class); //set the width of the buffers to be generated conf.setDouble(ConfigParams.BUFFER_WIDTH, 0.2); //run the job JobClient.runJob(conf);
BufferMapper
は、ジオメトリを含むそれぞれの入力レコードのバッファを生成します。出力キーおよび値は、レコードIDおよび生成したバッファを含むRecordInfo
インスタンスです。結果ファイルはマッパー出力キーおよび値を含むHadoop MapFile
です。必要であれば、マッパーの出力キーと値、および別のタイプの出力キーと値をとるリデューサを実装すると、出力形式を変更できます。
BufferMapper
は次のパラメータを受け入れます。
パラメータ | ConfigParam定数 | 型 | 説明 |
---|---|---|---|
oracle.spatial.buffer.width |
BUFFER_WIDTH |
double |
バッファの幅 |
oracle.spatial.buffer.sma |
BUFFER_SMA |
double |
入力の座標系で使用される基準の長半径 |
oracle.spatial.buffer.iFlat |
BUFFER_IFLAT |
double |
フラット化データ |
oracle.spatial.buffer.arcT |
BUFFER_ARCT |
double |
測地高密度化に使用する円弧許容差 |
2.9.7 空間のビニング
ベクトルAPIには、空間データ・セットに空間ビニングを実行するクラスoracle.spatial.hadoop.vector.mapred.job.Binning
があります。Binning
クラスは(空間索引付けした、または索引付けしない)入力データ・セットをとるMapReduceジョブ・ドライバであり、各レコードをビンに割り当て、(1つ以上のレコードおよび任意の集計値を含む)すべてのビンを含めたファイルを生成します。
ビニング・ジョブは次のように構成できます。
-
ビニングするデータ・セットと、それが読み込まれ、解釈される方法(
InputFormat
およびRecordInfoProvider
)、を指定するか、既存の空間索引の名前を指定します。 -
出力パスを設定します。
-
ビニングする矩形領域であるグリッドMBRを設定します。
-
ビン
RECTANGLE
またはHEXAGON
の形状を設定します。 -
ビン(セル)のサイズを指定します。矩形については、幅と高さをしてします。六角形のセルについては、六角形の幅を指定します。それぞれの六角形は、常にその頂点のいずれかが底として描かれます。
-
ビンごとに集計する数値フィールド名のリストを渡すこともできます。
結果の出力はテキスト・ファイルであり、そこで各レコードはJSON形式のビン(セル)であり、次の情報が含まれています。
-
id: ビンのID
-
geom: ビンのジオメトリ。常に六角形または八角形のポリゴン
-
count: ビンに含まれるポイント数
-
aggregated fields: ゼロ以上の集計フィールド
次の例では、ビニング・ジョブを構成し、実行します。
//create job driver Binning<LongWritable, Text> binJob = new Binning<LongWritable, Text>(); //setup input binJob.setInput("/user/hdfs/input/part*"); binJob.setInputFormatClass(GeoJsonInputFormat.class); binJob.setRecordInfoProviderClass(GeoJsonRecordInfoProvider.class); //set binning output binJob.setOutput("/user/hdfs/output/binning"); //create a binning configuration to produce rectangular cells BinningConfig binConf = new BinningConfig(); binConf.setShape(BinShape.RECTANGLE); //set the bin size binConf.setCellHeight(0.2); binConf.setCellWidth(0.2); //specify the area to be binned binConf.setGridMbr(new double[]{-50,10,50,40}); binJob.setBinConf(binConf); //save configuration binJob.configure(conf); //run job JobClient.runJob(conf);
2.9.8 空間のクラスタ化
ジョブ・ドライバ・クラスoracle.spatial.hadoop.mapred.KMeansClustering
はデータ・セットの空間クラスタの検索に使用できます。このクラスでは、k-meansアルゴリズムの分散バージョンを使用します。
必須パラメータ:
-
InputFormat
クラスが入力データ・セットの読取りに使用され、RecordInfoProvider
がレコードからの空間情報の抽出に使用される、入力データ・セットへのパス。 -
結果が格納されるパス。
-
検出されるクラスタの数。
オプションのパラメータ:
-
アルゴリズムが終了するまでの最大反復数。
-
クラスタがいつ収束するかを判断するための基準関数。これは
oracle.spatial.hadoop.vector.cluster.kmeans.CriterionFunction
の実装として提供されます。Vector APIには、SquaredErrorCriterionFunction
およびEuclideanDistanceCriterionFunction
という基準関数の実装が含まれています。 -
各クラスタのジオメトリを生成するための
oracle.spatial.hadoop.vector.cluster.kmeans.ClusterShapeGenerator
の実装。デフォルトの実装はConvexHullClusterShapeGenerator
であり、各クラスタの凸包を生成します。クラスタ・ジオメトリが必要でない場合は、DummyClusterShapeGenerator
クラスを使用できます。 -
連続するx、yの縦座標としての初期Kクラスタ・ポイント。例: x1,y1,x2,y2,…xk,yk
この結果はclusters.json
というファイルになり、クラスタを呼び出した機能の配列が含まれます。各クラスタには、次の情報が含まれます。
-
id: クラスタID
-
memberCount: クラスタ内の要素の数
-
geom: クラスタ・ジオメトリ
次の例では、KMeansClustering
アルゴリズムを実行して5クラスタを検出します。デフォルトでSquredErrorCriterionFunction
およびConvexHullClusterShapeGenerator
が使用されるため、これらのクラスを明示的に設定する必要はありません。また、runIterations()
がアルゴリズム実行のために内部的に呼び出されると、反復ごとにMapReduceが1回起動されます。この例では、数値20が許容されている反復の最大数としてrunIterations()
に渡されます。
//create the cluster job driver KMeansClustering<LongWritable, Text> clusterJob = new KMeansClustering<LongWritable, Text>(); //set input properties: //input dataset path clusterJob.setInput("/user/hdfs/input/part*"); //InputFormat class clusterJob.setInputFormatClass(GeoJsonInputFormat.class); //RecordInfoProvider implementation clusterJob.setRecordInfoProviderClass(GeoJsonRecordInfoProvider.class); //specify where the results will be saved clusterJob.setOutput("/user/hdfs/output/clusters"); //5 cluster will be found clusterJob.setK(5); //run the algorithm success = clusterJob.runIterations(20, conf);
2.9.9 空間の結合
空間の結合機能を使用すると、2つの異なる大きいデータ・セットのレコード間の空間的相互作用を検出できます。
ドライバ・クラスoracle.spatial.hadoop.vector.mapred.job.SpatialJoin
を使用して、2つのデータ・セット間の空間結合を実行するためのジョブを実行または構成できます。このジョブ・ドライバは、次の入力を受け入れます。
-
入力データ・セット: 2つの入力データ・セットが予想されます。各入力データ・セットは、データ・セットからのレコードを解釈するために使用されるパス、空間索引、入力形式およびレコード情報プロバイダなどのデータ・セットを見つける場所および読み取る方法に関する情報が格納されたクラス
oracle.spatial.hadoop.vector.InputDataSet
を使用して表現されます。これはまた、データ・セットの空間構成も受け入れます。 -
空間操作構成: 空間操作構成は、2つのレコードが相互に関連しているかどうかを確認するために使用される空間的相互作用を定義します。これはまた、網羅する領域(MBR)も定義します。つまり、MBR内のレコードまたはMBRと交差するレコードのみが検索時に考慮されます。
-
パーティション化結果ファイル・パス: 両方のデータ・セットについて前に生成されたパーティション化結果を指し示すオプションのパラメータです。操作を分散するには、データをパーティション化する必要があります。このパラメータが指定されていない場合、パーティション化プロセスは入力データ・セット全体に対して実行されます。(詳細は、「空間のパーティション化」を参照してください。)
-
出力パス: 結果ファイルが書き込まれるパス。
空間の結合結果はテキスト・ファイルであり、その各行は、空間操作構成に定義されている空間的相互作用に応じたレコードのペアです。
次の表は、空間の結合に対して現在サポートされている空間的相互作用を示しています。
空間操作 | 追加パラメータ | 型 |
---|---|---|
AnyInteract |
なし |
(該当なし) |
IsInside |
なし |
(該当なし) |
WithinDistance |
oracle.spatial.hadoop.vector.util.SpatialOperationConfig.PARAM_WD_DISTANCE |
double |
WithinDistance
操作の場合、次の例に示すように、SpatialOperationConfig
に距離パラメータを指定できます。
spatialOpConf.setOperation(SpatialOperation.WithinDistance);
spatialOpConf.addParam(SpatialOperationConfig.PARAM_WD_DISTANCE, 5.0);
次の例では、2つの入力データ・セットに対して空間の結合ジョブを実行します。最初のデータ・セットである郵便番号の境界は、空間索引の名前を提供して指定されています。2番目のデータ・セットであるツイートの場合、ファイルへのパス、入力形式およびレコード情報プロバイダが指定されています。検出対象の空間的相互作用はIsInside
であるため、郵便番号の境界(ポリゴン)内にあるツイート(ポイント)のみが、それが含まれる郵便番号の境界とともに結果に表示されます。
SpatialJoin spatialJoin = new SpatialJoin();
List<InputDataSet> inputDataSets = new ArrayList<InputDataSet>(2);
// set the spatial index of the 3-digit postal boundaries of the USA as the first input data set
InputDataSet pbInputDataSet = new InputDataSet();
pbInputDataSet.setIndexName("usa_pcb3_index");
//no input format or record info provider are required here as a spatial index is provided
inputDataSets.add(pbInputDataSet);
// set the tweets data set in GeoJSON format as the second data set
InputDataSet tweetsDataSet = new InputDataSet();
tweetsDataSet.setPaths(new Path[]{new Path("/user/example/tweets.json")});
tweetsDataSet.setInputFormatClass(GeoJsonInputFormat.class);
tweetsDataSet.setRecordInfoProviderClass(GeoJsonRecordInfoProvider.class);
inputDataSets.add(tweetsDataSet);
//set input data sets
spatialJoin.setInputDataSets(inputDataSets);
//spatial operation configuration
SpatialOperationConfig spatialOpConf = new SpatialOperationConfig();
spatialOpConf.setOperation(SpatialOperation.IsInside);
spatialOpConf.setBoundaries(new double[]{47.70, -124.28, 35.45, -95.12});
spatialOpConf.setSrid(8307);
spatialOpConf.setTolerance(0.5);
spatialOpConf.setGeodetic(true);
spatialJoin.setSpatialOperationConfig(spatialOpConf);
//set output path
spatialJoin.setOutput("/user/example/spatialjoin");
// prepare job
JobConf jobConf = new JobConf(getConf());
//preprocess will partition both data sets as no partitioning result file was specified
spatialJoin.preprocess(jobConf);
spatialJoin.configure(jobConf);
JobClient.runJob(jobConf);
2.9.10 空間のパーティション化
パーティション化機能を使用して、1つ以上のデータ・セットを空間的にパーティション化します。
空間のパーティション化は、複数の矩形への空間の分割で構成されています。この場合、各矩形は、ほぼ同じ数のポイントが含まれるよう意図されます。最終的に、これらのパーティションを使用して、空間の結合などの他のジョブ内のリデューサ間の操作を分散できます。
空間のパーティション化プロセスは、次の入力パラメータを受け入れるoracle.spatial.hadoop.mapred.job.Partitioning
ドライバ・クラスを使用して実行または構成されます。
-
入力データ・セット: 1つ以上の入力データ・セットを指定できます。各入力データ・セットは、データ・セットからのレコードを解釈するために使用されるパス、空間索引、入力形式およびレコード情報プロバイダなどのデータ・セットを見つける場所および読み取る方法に関する情報が格納されたクラス
oracle.spatial.hadoop.vector.InputDataSet
を使用して表現されます。これはまた、データ・セットの空間構成も受け入れます。 -
サンプリング比率: 1つ以上のデータ・セット全体の一部のみを使用してパーティション化を実行します。サンプリング比率は、入力データ・セットのサイズ全体に対するサンプルのサイズの比率です。指定されていない場合、入力データ・セットのサイズの10パーセント(0.1)が使用されます。
-
空間構成: SRIDなどの入力データ・セットの空間プロパティを定義します。少なくとも次元境界を指定する必要があります。
-
出力パス: 結果ファイルが書き込まれるパス。
生成されたパーティション化結果ファイルは、GeoJSON形式であり、生成された各パーティションに関する情報(パーティションのジオメトリおよび(サンプルから)含まれるポイントの数を含む)が格納されています。
次の例では、ツイート・データ・セットをパーティション化します。サンプリング比率は指定されていないため、デフォルトでは0.1が使用されています。
Partitioning partitioning = new Partitioning();
List<InputDataSet> inputDataSets = new ArrayList<InputDataSet>(1);
//define the input data set
InputDataSet dataSet = new InputDataSet();
dataSet.setPaths(new Path[]{new Path("/user/example/tweets.json")});
dataSet.setInputFormatClass(GeoJsonInputFormat.class);
dataSet.setRecordInfoProviderClass(GeoJsonRecordInfoProvider.class);
inputDataSets.add(dataSet);
partitioning.setInputDataSets(inputDataSets);
//spatial configuration
SpatialConfig spatialConf = new SpatialConfig();
spatialConf.setSrid(8307);
spatialConf.setBoundaries(new double[]{-180,-90,180,90});
partitioning.setSpatialConfig(spatialConf);
//set output
partitioning.setOutput("/user/example/tweets_partitions.json");
//run the partitioning process
partitioning.runFullPartitioningProcess(new JobConf());
2.9.11 RecordInfoProvider
HDFSからMapReduceジョブによって読み取られたレコードは、LongWritable、Text、ArrayWritableなどのJavaタイプ(通常)の書込み可能サブクラス、または一部のユーザー定義タイプを使用してキー/値ペアとしてメモリーに表示されます。たとえば、TextInputFormatを使用して読み取られたレコードは、メモリー内でLongWritable、Textキー/値ペアとして表示されます。
RecordInfoProvider
はこのようなメモリー・レコード表現を解釈し、Vector Analysis APIで必要なデータを返すコンポーネントです。このため、APIは特定の形式やメモリー表現に関連付けられていません。
RecordInfoProvider
インタフェースには、次のメソッドがあります。
-
void setCurrentRecord(K key, V value)
-
String getId()
-
JGeometry getGeometry()
-
boolean getExtraFields(Map<String, String> extraFields)
InputFormat
ごとに常にRecordInfoProvider
インスタンスがあります。メソッドsetCurrentRecord()
は、RecordReader
から取得した現在のキー/値ペアを渡して呼び出されます。次に、RecordInfoProvider
によって現在のレコードID、ジオメトリ、および追加フィールドを取得します。これらのフィールドのいずれも必須フィールドではありません。ジオメトリのあるレコードのみが空間操作に関与します。IDは、カテゴリ化などの操作で、レコードの区別に使用されます。追加フィールドは、テキストとして表現され、元のレコードを読み取らない簡易アクセスに必要なレコード情報の格納、またはMVSuggest
を使用する操作のために使用されます。
通常、RecordInfoProviderから返される情報は、RecordInfo
インスタンスの移入に使用されます。RecordInfoはレコードの簡易バージョンとみなされ、RecordInfoProviderから返された情報、およびファイル内で元のレコードを特定する情報が含まれています。
2.9.11.1 サンプルRecordInfoProvider実装
このサンプル実装はJsonRecordInfoProvider
と呼ばれ、TextInputFormat
を使用して読み取られるJSON形式のテキスト・レコードをとります。レコード・サンプルを次に示します。
{ "_id":"ABCD1234", "location":" 119.31669, -31.21615", "locationText":"Boston, Ma", "date":"03-18-2015", "time":"18:05", "device-type":"cellphone", "device-name":"iPhone"}
JsonRecordInfoProviderがインスタンス化されると、JSON ObjectMapperが作成されます。ObjectMapperは、後でsetCurrentRecord()
が呼び出されたときのレコード値の解析に使用されます。レコード・キーは無視されます。レコードID、ジオメトリ、および1つの追加フィールドが_id、locationおよびlocationText JSONプロパティから取得されます。ジオメトリは緯度/経度ペアとして表現され、JGeometry.createPoint()
メソッドによる点ジオメトリの作成に使用されます。追加フィールド(locationText)は、出力パラメータとして機能するextraFieldsマップに追加され、追加フィールドが追加されたことを示すtrueを返します。
public class JsonRecordInfoProvider implements RecordInfoProvider<LongWritable, Text> { private Text value = null; private ObjectMapper jsonMapper = null; private JsonNode recordNode = null; public JsonRecordInfoProvider(){ //json mapper used to parse all the records jsonMapper = new ObjectMapper(); } @Override public void setCurrentRecord(LongWritable key, Text value) throws Exception { try{ //parse the current value recordNode = jsonMapper.readTree(value.toString()); }catch(Exception ex){ recordNode = null; throw ex; } } @Override public String getId() { String id = null; if(recordNode != null ){ id = recordNode.get("_id").getTextValue(); } return id; } @Override public JGeometry getGeometry() { JGeometry geom = null; if(recordNode!= null){ //location is represented as a lat,lon pair String location = recordNode.get("location").getTextValue(); String[] locTokens = location.split(","); double lat = Double.parseDouble(locTokens[0]); double lon = Double.parseDouble(locTokens[1]); geom = JGeometry.createPoint( new double[]{lon, lat}, 2, 8307); } return geom; } @Override public boolean getExtraFields(Map<String, String> extraFields) { boolean extraFieldsExist = false; if(recordNode != null) { extraFields.put("locationText", recordNode.get("locationText").getTextValue() ); extraFieldsExist = true; } return extraFieldsExist; } }
親トピック: RecordInfoProvider
2.9.11.2 LocalizableRecordInfoProvider
このインタフェースはRecordInfoProvider
を拡張し、MVSuggest
が使用されているときに検索テキストとして使用できる追加フィールドの特定に使用されます。
このインタフェースで追加されるメソッドはgetLocationServiceField()
のみであり、MVSuggestに送信される追加フィールドの名前を返します。
また、「サンプルRecordInfoProvider実装」に基づく実装を次に示します。この例で返される名前はlocationText
であり、親クラスに含まれている追加フィールドの名前です。
public class LocalizableJsonRecordInfoProvider extends JsonRecordInfoProvider implements LocalizableRecordInfoProvider<LongWritable, Text> { @Override public String getLocationServiceField() { return "locationText"; } }
LocalizableRecordInfoProvider
のかわりに、構成プロパティoracle.spatial.recordInfo.locationField
を検索フィールドの名前で設定すると、その値がMVSuggest
に送信されます。例: configuration.set(LocatizableRecordInfoProvider.CONF_RECORD_INFO_LOCATION_FIELD, “locationField”)
親トピック: RecordInfoProvider
2.9.12 HierarchyInfo
HierarchyInfo
インタフェースは階層データ・セットの説明に使用されます。このHierarchyInfoの実装では、説明する階層の階層レベルの数、名前、およびエントリを示すものとされます。
ルート階層レベルは常に階層レベル1です。このレベルのエントリに親エントリはなく、このレベルが最上位の階層レベルとみなされます。子階層レベルには、上位のレベル値があります。たとえば、大陸部、国、および州に応じた階層のレベルは、それぞれ1、2、および3になります。大陸部レイヤーのエントリには親はありませんが、国レイヤーの子エントリがあります。下部レベルである州レイヤーのエントリには、子はありません。
HierarchyInfo実装は、Vector Analysis APIですぐに使用できるように用意されています。DynaAdminHierarchyInfo
実装は、GeoJSON形式で認識されている階層レイヤーの読取りと説明に使用できます。DynaAdminHierarchyInfoはインスタンス化および構成、あるいはサブクラス化が可能です。これに含まれる階層レイヤーは、次のパラメータをとるaddLevel()
メソッドを呼び出して指定します。
-
階層レベル番号
-
データを含むGeoJSONファイルのファイル名(拡張子なし)と一致する階層レベル名。たとえば、ファイル
world_continents.json
の階層レベル名はworld_continents
であり、world_countries.json
の階層レベル名はworld_countries
のようになります。 -
「Children join」フィールド: 現在レベルのエントリを、下位レベルの子エントリと結合するためのJSONプロパティです。nullが渡された場合、エントリIDが使用されます。
-
「Parent join」フィールド: 現在レベルのエントリを、上位レベルの親エントリと結合するためのJSONプロパティです。この値は、結合する上位レベルのない最上位レベルでは使用されません。1より大きい数のその他のレベルで値がnullに設定された場合、
IsInside
空間操作が実行され、親と子のエントリが結合されます。このシナリオでは、上位レベルのジオメトリには、下位レベルのエントリが含まれることを示しています。
たとえば、1つの階層は、1- world_continents、2 - world_countries、および3 - world_states_provincesのように、指定したレイヤーのレベルを含むとします。各レイヤーのサンプル・エントリは次のようになります。
world_continents: {"type":"Feature","_id":"NA","geometry": {"type":"MultiPolygon", "coordinates":[ x,y,x,y,x,y] }"properties":{"NAME":"NORTH AMERICA", "CONTINENT_LONG_LABEL":"North America"},"label_box":[-118.07998,32.21006,-86.58515,44.71352]} world_countries: {"type":"Feature","_id":"iso_CAN","geometry":{"type":"MultiPolygon","coordinates":[x,y,x,y,x,y]},"properties":{"NAME":"CANADA","CONTINENT":"NA","ALT_REGION":"NA","COUNTRY CODE":"CAN"},"label_box":[-124.28092,49.90408,-94.44878,66.89287]} world_states_provinces: {"type":"Feature","_id":"6093943","geometry": {"type":"Polygon", "coordinates":[ x,y,x,y,x,y]},"properties":{"COUNTRY":"Canada", "ISO":"CAN", "STATE_NAME":"Ontario"},"label_box":[-91.84903,49.39557,-82.32462,54.98426]}
DynaAdminHierarchyInfoは、次の方法で前述のレイヤーを含む階層を作成するために構成されます。
DynaAdminHierarchyInfo dahi = new DynaAdminHierarchyInfo(); dahi.addLevel(1, "world_continents", null /*_id is used by default to join with child entries*/, null /*not needed as there are not upper hierarchy levels*/); dahi.addLevel(2, "world_countries", "properties.COUNTRY CODE"/*field used to join with child entries*/, "properties.CONTINENT" /*the value "NA" will be used to find Canada's parent which is North America and which _id field value is also "NA" */); dahi.addLevel(3, "world_states_provinces", null /*not needed as not child entries are expected*/, "properties.ISO"/*field used to join with parent entries. For Ontario, it is the same value than the field properties.COUNTRY CODE specified for Canada*/); //save the previous configuration to the job configuration dahi.initialize(conf);
同様の構成を使用して、国、州、郡などの複数のレイヤー、または同様のJSON形式の他のレイヤーから階層を作成できます。
他にも、ジョブ実行ごとの階層の構成を避けるため、次の例に示すように、階層構成をDynaAdminHierarchyInfoサブクラスで囲むこともできます。
public class WorldDynaAdminHierarchyInfo extends DynaAdminHierarchyInfo \ { public WorldDynaAdminHierarchyInfo() { super(); addLevel(1, "world_continents", null, null); addLevel(2, "world_countries", "properties.COUNTRY CODE", "properties.CONTINENT"); addLevel(3, "world_states_provinces", null, "properties.ISO"); } }
2.9.12.1 サンプルHierarchyInfo実装
HierarchyInfo
インタフェースには、階層の説明を実装するために次のメソッドが含まれています。メソッドは次の3つのカテゴリに分けられます。
-
階層を説明するメソッド
-
データをロードするメソッド
-
データを供給するメソッド
また、ジョブ構成の初期化を実行、およびジョブ構成へデータを保存、またはジョブ構成から読み取るためのinitialize()
メソッドがあります
void initialize(JobConf conf); //methods to describe the hierarchy String getLevelName(int level); int getLevelNumber(String levelName); int getNumberOfLevels(); //methods to load data void load(Path[] hierDataPaths, int fromLevel, JobConf conf) throws Exception; void loadFromIndex(HierarchyDataIndexReader[] readers, int fromLevel, JobConf conf) throws Exception; //methods to supply data Collection<String> getEntriesIds(int level); JGeometry getEntryGeometry(int level, String entryId); String getParentId(int childLevel, String childId);
前述の階層レベルとしての地域レイヤーをとるHierarchyInfo実装のサンプルを次に示します。最初のセクションには、初期化メソッドと階層を記述するメソッドがあります。この場合、初期化メソッドは何もしません。次の例に示すメソッドは、hierarchyLevelNames
配列を使用して階層を記述します。インスタンス変数entriesGeoms
およびentriesParent
は、それぞれエントリのジオメトリとエントリの親を含むjava.util.Map
の配列です。どちらの場合も、エントリIDはキーとして使用されます。配列索引は0から始まり、階層レベルは1から始まるため、配列索引は、配列索引 + 1 = 階層レベルとして階層レベルに対応します。
public class WorldHierarchyInfo implements HierarchyInfo { private String[] hierarchyLevelNames = {"world_continents", "world_countries", "world_states_provinces"}; private Map<String, JGeometry>[] entriesGeoms = new Map[3]; private Map<String, String>[] entriesParents = new Map[3]; @Override public void initialize(JobConf conf) { //do nothing for this implementation } @Override public int getNumberOfLevels() { return hierarchyLevelNames.length; } @Override public String getLevelName(int level) { String levelName = null; if(level >=1 && level <= hierarchyLevelNames.length) { levelName = hierarchyLevelNames[ level - 1]; } return levelName; } @Override public int getLevelNumber(String levelName) { for(int i=0; i< hierarchyLevelNames.length; i++ ) { if(hierarchyLevelNames.equals( levelName) ) return i+1; } return -1; }
次の例には、複数の階層レベル・データをロードするメソッドが含まれています。load()
メソッドはソース・ファイルworld_continents.json
、world_countries.json
、およびworld_states_provinces.json
からデータを読み取ります。簡略化のため、内部的に呼び出されたloadLevel()
メソッドは指定されませんが、JSONファイルの解析と読取りが行われます。
loadFromIndex()
メソッドは、パラメータとして渡されたHierarchyIndexReader
インスタンスから提供された情報のみを受け取ります。load()
メソッドは、階層索引がジョブで作成されない場合にかぎり、1回のみ実行されます。データはロード後に自動的に索引付けられ、階層データがメモリーにロードされるたびにloadFromIndex()
メソッドが呼び出されます。
@Override public void load(Path[] hierDataPaths, int fromLevel, JobConf conf) throws Exception { int toLevel = fromLevel + hierDataPaths.length - 1; int levels = getNumberOfLevels(); for(int i=0, level=fromLevel; i<hierDataPaths.length && level<=levels; i++, level++) { //load current level from the current path loadLevel(level, hierDataPaths[i]); } } @Override public void loadFromIndex(HierarchyDataIndexReader[] readers, int fromLevel, JobConf conf) throws Exception { Text parentId = new Text(); RecordInfoArrayWritable records = new RecordInfoArrayWritable(); int levels = getNumberOfLevels(); //iterate through each reader to load each level's entries for(int i=0, level=fromLevel; i<readers.length && level<=levels; i++, level++) { entriesGeoms[ level - 1 ] = new Hashtable<String, JGeometry>(); entriesParents[ level - 1 ] = new Hashtable<String, String>(); //each entry is a parent record id (key) and a list of entries as RecordInfo (value) while(readers[i].nextParentRecords(parentId, records)) { String pId = null; //entries with no parent will have the parent id UNDEFINED_PARENT_ID. Such is the case of the first level entries if( ! UNDEFINED_PARENT_ID.equals( parentId.toString() ) ) { pId = parentId.toString(); } //add the current level's entries for(Object obj : records.get()) { RecordInfo entry = (RecordInfo) obj; entriesGeoms[ level - 1 ].put(entry.getId(), entry.getGeometry()); if(pId != null) { entriesParents[ level -1 ].put(entry.getId(), pId); } }//finishin loading current parent entries }//finish reading single hierarchy level index }//finish iterating index readers }
最後に、次に示すコードには、各階層レベルのそれぞれのエントリの情報を提供するメソッドが含まれます。提供される情報は、階層レベルに含まれるすべてのエントリのID、各エントリのジオメトリ、および各エントリの親です。
@Override public Collection<String> getEntriesIds(int level) { Collection<String> ids = null; if(level >= 1 && level <= getNumberOfLevels() && entriesGeoms[ level - 1 ] != null) { //returns the ids of all the entries from the given level ids = entriesGeoms[ level - 1 ].keySet(); } return ids; } @Override public JGeometry getEntryGeometry(int level, String entryId) { JGeometry geom = null; if(level >= 1 && level <= getNumberOfLevels() && entriesGeoms[ level - 1 ] != null) { //returns the geometry of the entry with the given id and level geom = entriesGeoms[ level - 1 ].get(entryId); } return geom; } @Override public String getParentId(int childLevel, String childId) { String parentId = null; if(childLevel >= 1 && childLevel <= getNumberOfLevels() && entriesGeoms[ childLevel - 1 ] != null) { //returns the parent id of the entry with the given id and level parentId = entriesParents[ childLevel - 1 ].get(childId); } return parentId; } }//end of class
親トピック: HierarchyInfo
2.9.13 MapReduceジョブでのJGeometryの使用
Spatial Hadoop Vector Analysisには、Spatial Java APIで提供される機能の小さいサブセットのみが含まれており、MapReduceジョブでも使用できます。このセクションでは、空間処理のためにHadoopでJGeometryをどのように使用するかの簡単な例をいくつか示します。次の例では、JGeometryクラスを使用したデータセットと問合せジオメトリの間のIsInside
テストを実行する簡単なマッパーを示します。
この例では、空間操作で使用される問合せジオメトリの座標系、SRID、測地の値および許容差が構成メソッドのジョブ構成から取得されます。ポリゴンの問合せジオメトリは、IsInside
操作を迅速に実行するため事前処理されます。
MAPメソッドは空間操作を実行する場所です。それぞれの入力レコード値が問合せジオメトリに対してテストされ、テストが完了するとIDが返されます。
public class IsInsideMapper extends MapReduceBase implements Mapper<LongWritable, Text, NullWritable, Text> { private JGeometry queryGeom = null; private int srid = 0; private double tolerance = 0.0; private boolean geodetic = false; private Text outputValue = new Text(); private double[] locationPoint = new double[2]; @Override public void configure(JobConf conf) { super.configure(conf); srid = conf.getInt("srid", 8307); tolerance = conf.getDouble("tolerance", 0.0); geodetic = conf.getBoolean("geodetic", true); //The ordinates are represented as a string of comma separated double values String[] ordsStr = conf.get("ordinates").split(","); double[] ordinates = new double[ordsStr.length]; for(int i=0; i<ordsStr.length; i++) { ordinates[i] = Double.parseDouble(ordsStr[i]); } //create the query geometry as two-dimensional polygon and the given srid queryGeom = JGeometry.createLinearPolygon(ordinates, 2, srid); //preprocess the query geometry to make the IsInside operation run faster try { queryGeom.preprocess(tolerance, geodetic, EnumSet.of(FastOp.ISINSIDE)); } catch (Exception e) { e.printStackTrace(); } } @Override public void map(LongWritable key, Text value, OutputCollector<NullWritable, Text> output, Reporter reporter) throws IOException { //the input value is a comma separated values text with the following columns: id, x-ordinate, y-ordinate String[] tokens = value.toString().split(","); //create a geometry representation of the record's location locationPoint[0] = Double.parseDouble(tokens[1]);//x ordinate locationPoint[1] = Double.parseDouble(tokens[2]);//y ordinate JGeometry location = JGeometry.createPoint(locationPoint, 2, srid); //perform spatial test try { if( location.isInside(queryGeom, tolerance, geodetic)){ //emit the record's id outputValue.set( tokens[0] ); output.collect(NullWritable.get(), outputValue); } } catch (Exception e) { e.printStackTrace(); } } }
同じような方法で、ジオメトリ自体の空間操作も実行できます。たとえば、バッファを作成します。次の例では、同じテキスト値の形式を使用して、各レコードの場所の周辺にバッファを作成します。マッパー出力キーおよび値はレコードIDおよび生成済のバッファであり、JGeometryWritable
として表現されます。JGeometryWritable
はVector Analysis APIに含まれる書込み可能な実装であり、JGeometryインスタンスを保持します。
public class BufferMapper extends MapReduceBase implements Mapper<LongWritable, Text, Text, JGeometryWritable> { private int srid = 0; private double bufferWidth = 0.0; private Text outputKey = new Text(); private JGeometryWritable outputValue = new JGeometryWritable(); private double[] locationPoint = new double[2]; @Override public void configure(JobConf conf) { super.configure(conf); srid = conf.getInt("srid", 8307); //get the buffer width bufferWidth = conf.getDouble("bufferWidth", 0.0); } @Override public void map(LongWritable key, Text value, OutputCollector<Text, JGeometryWritable> output, Reporter reporter) throws IOException { //the input value is a comma separated record with the following columns: id, longitude, latitude String[] tokens = value.toString().split(","); //create a geometry representation of the record's location locationPoint[0] = Double.parseDouble(tokens[1]); locationPoint[1] = Double.parseDouble(tokens[2]); JGeometry location = JGeometry.createPoint(locationPoint, 2, srid); try { //create the location's buffer JGeometry buffer = location.buffer(bufferWidth); //emit the record's id and the generated buffer outputKey.set( tokens[0] ); outputValue.setGeometry( buffer ); output.collect(outputKey, outputValue); } catch (Exception e) { e.printStackTrace(); } } }
2.9.14 異なるデータ・ソースのサポート
ファイルベースのデータ・ソース(つまり、ローカル・ファイル・システムまたは分散ファイル・システムからのファイルまたはファイル・セット)以外にも、他のタイプのデータ・ソースをVector APIジョブの入力データとして使用できます。
データ・ソースは、Vector API内の入力データ・ソースとして参照されます。すべての入力データ・セットにより、インタフェースoracle.spatial.hadoop.vector.data.AbstractInputDataSet
が実装されます。入力データ・セットのプロパティは、メソッドsetInputFormatClass()
、setRecordInfoProviderClass()
およびsetSpatialConfig()
を使用してVectorジョブに対して直接設定できます。入力データ・セットのタイプに応じて、より多くの情報を設定できます。たとえば、setInput()
を使用してファイル・データ・ソースを指定したり、setIndexName()
を空間索引に使用したりできます。このジョブにより、設定されているプロパティに基づいて入力データ型ソースが決まります。
入力データ・セット情報は、ジョブのメソッドsetInputDataSet()
を使用してVector APIジョブに直接設定することもできます。このメソッドを使用すると、入力データ・ソース情報がカプセル化され、より詳細な制御が可能になり、使用されているデータ・ソースのタイプを識別しやすくなります。
Vector APIには、AsbtractInputDataSet
の次の実装が用意されています。
-
SimpleInputDataSet
: 入力データ・セット用としてVector APIに必要な最小限の情報が含まれます。通常、Apache Hbase、Oracleデータベースまたは他の任意のファイルベース以外のデータ・ソースなど、ファイルベース以外の入力データ・セットには、このタイプの入力データ・セットを使用する必要があります。 -
FileInputDataSet
: ローカル・ファイル・システムまたは分散ファイル・システムからのファイルベースの入力データ・セットをカプセル化します。これには、入力パスをパス・インスタンスの配列として、またはパス選択用の正規表現として使用可能な文字列として設定するためのプロパティが用意されています。 -
SpatialIndexInputDataSet
: Vector APIによって生成された空間索引を操作するために最適化されたFileInputDataSet
のサブクラス。このタイプの入力データ・セットの場合、索引名を指定するだけで十分です。 -
NoSQLInputDataSet
: Oracle NoSQLデータ・ソースを指定します。Vector NoSQL APIと連携して使用する必要があります。NoSQLKVInputFormat
またはTableInputFormat
クラスを使用する必要がある場合は、SimpleInputFormat
を代わりに使用してください。 -
MultiInputDataSet
: 複数の入力データ・セットをカプセル化する入力データ・セット。
複数の入力データ・セット
Vector APIジョブに用意されているHadoopジョブのほとんど(カテゴリ化を除く)では、クラスoracle.spatial.hadoop.vector.data.MultiInputDataSet
を使用することにより、複数の入力データ・セットを管理できます。
1つのジョブに複数の入力データ・セットを追加するには、次の手順を実行します。
-
AbstractInputDataSet
サブクラスの複数のインスタンスを作成および構成します。 -
oracle.spatial.hadoop.vector.data.MultiInputDataSet
のインスタンスを作成します。 -
ステップ1で作成した入力データ・セットを
MultiInputDataSet
インスタンスに追加します。 -
ジョブの入力データ・セットとして
MultiInputDataSet
インスタンスを設定します。
次のコード・スニペットは、1つのVector APIに複数の入力データ・セットを設定する方法を示しています。
//file input data set
FileInputDataSet fileDataSet = new FileInputDataSet();
fileDataSet.setInputFormatClass(GeoJsonInputFormat.class);
fileDataSet.setRecordInfoProviderClass(GeoJsonRecordInfoProvider.class);
fileDataSet.setInputString("/user/myUser/geojson/*.json");
//spatial index input data set
SpatialIndexInputDataSet indexDataSet = new SpatialIndexInputDataSet();
indexDataSet.setIndexName("myIndex");
//create multi input data set
MultiInputDataSet multiDataSet = new MultiInputDataSet();
//add the previously defined input data sets
multiDataSet.addInputDataSet(fileDataSet);
multiDataSet.addInputDataSet(indexDataSet);
Binning binningJob = new Binning();
//set multiple input data sets to the job
binningJob.setInputDataSet(multiDataSet);
NoSQL入力データ・セット
Vector APIには、Oracle NoSQL Databaseからデータを読み取るクラスが用意されています。Vector NoSQLコンポーネントを使用すると、複数のキー/値ペアを単一のレコードにグループ化できます。これらのレコードは、HadoopマッパーにRecordInfo
インスタンスとして渡されます。また、これらを使用して、NoSQLエントリ(キーおよび値)をHadoopレコード・フィールド(RecordInfo
のid
、geometry
および追加フィールド)にマップすることもできます。
NoSQLパラメータは、NoSQLInputDataSet
クラスを使用してVectorジョブに渡されます。必要なのは、NoSQLデータ・ソースのKVストア、ホスト、親キーおよび追加情報が含まれるNoSQLConfiguration
インスタンスを入力および設定することのみです。デフォルトのクラスが使用されるため、InputFormat
およびRecordInfoProvider
クラスを設定する必要はありません。
次の例は、Vector NoSQLクラスを使用して、NoSQLをデータ・ソースとして使用するジョブを構成する方法を示します。
//create NoSQL configuration
NoSQLConfiguration nsqlConf = new NoSQLConfiguration();
// set connection data
nsqlConf.setKvStoreName("mystore");
nsqlConf.setKvStoreHosts(new String[] { "myserver:5000" });
nsqlConf.setParentKey(Key.createKey("tweets"));
// set NoSQL entries to be included in the Hadoop records
// the entries with the following minor keys will be set as the
// RecordInfo's extra fields
nsqlConf.addTargetEntries(new String[] { "friendsCount", "followersCount" });
// add an entry processor to map the spatial entry to a RecordInfo's
// geometry
nsqlConf.addTargetEntry("geometry", NoSQLJGeometryEntryProcessor.class);
//create and set the NoSQL input data set
NoSQLInputDataSet nsqlDataSet = new NoSQLInputDataSet();
//set noSQL configuration
nsqlDataSet.setNoSQLConfig(nsqlConf);
//set spatial configuration
SpatialConfig spatialConf = new SpatialConfig();
spatialConf.setSrid(8307);
nsqlDataSet.setSpatialConfig(spatialConf);
ターゲット・エントリは、Hadoopレコードの一部となるNoSQLエントリを参照しており、NoSQLマイナー・キーによって指定されます。前の例では、マイナー・キーfriendsCount
およびfollowersCount
を持つエントリがHadoopレコードの一部となります。これらのNoSQLエントリは、テキスト値として解析され、friendsCount
およびfollowersCount
と呼ばれる追加フィールドとしてHadoop RecordInfo
に割り当てられます。デフォルトでは、メジャー・キーがレコードIDとして使用されます。マイナー・キーとして“ジオメトリ”が含まれるエントリは、RecordInfo
のgeometry
フィールドを設定するために使用されます。
前の例では、ジオメトリNoSQLエントリの値タイプはJGeometry
であるため、この値を解析するためのクラスを指定し、RecordInfo
のgeometry
フィールドに割り当てる必要があります。これには、NoSQLEntryProcessor
インタフェースの実装を設定する必要があります。この場合、NoSQLJGeometryEntryProcessor
クラスが使用され、このクラスが、NoSQLエントリから値を読み取り、この値を現在のRecordInfo
のgeometry
フィールドに設定します。特定のエントリ形式を解析するためにNoSQLEntryProcessor
の独自の実装を用意できます。
デフォルトでは、同じメジャー・キーを共有するNoSQLエントリが同じHadoopレコードにグループ化されます。この動作を変更するには、oracle.spatial.hadoop.nosql.NoSQLGrouper
を実装し、NoSQLConfiguration
プロパティentryGrouperClass
を新しいgrouperクラスを使用して設定します。
NoSQLを入力データ・ソースとして使用するVector APIジョブを実行する場合、Oracle NoSQLライブラリkvstore.jar
が必要です。
他のファイルベース以外のデータ・ソース
NoSQL (Oracle NoSQLクラスを使用)およびApache HBaseなど、他のファイルベース以外のデータ・ソースをVector APIとともに使用できます。Vector APIには、データ・ソースのすべてのタイプを管理するための特定のクラスは用意されていませんが、特定のデータ・ソースをジョブ構成と関連付け、Vectorジョブに次の情報を指定できます。
-
InputFormat
: データ・ソースからデータを読み取るために使用されるInputFormat
実装。 -
RecordInfoProvider
: 現在のInputFormatから返されたキー/値ペアからid
、空間情報および追加フィールドなどの必要な情報を抽出するためのRecordInfoProvider
の実装。 -
空間構成: SRIDや次元境界などの入力データの空間プロパティを説明します。
次の例は、Vectorジョブ内のApache HBaseデータを使用する方法を示します。
//create job
Job job = Job.getInstance(getConf());
job.setJobName(getClass().getName());
job.setJarByClass(getClass());
//Setup hbase parameters
Scan scan = new Scan();
scan.setCaching(500);
scan.setCacheBlocks(false);
scan.addColumn(Bytes.toBytes("location_data"), Bytes.toBytes("geometry"));
scan.addColumn(Bytes.toBytes("other_data"), Bytes.toBytes("followers_count"));
scan.addColumn(Bytes.toBytes("other_data"), Bytes.toBytes("user_id"));
//initialize job configuration with hbase parameters
TableMapReduceUtil.initTableMapperJob(
"tweets_table",
scan,
null,
null,
null,
job);
//create binning job
Binning<ImmutableBytesWritable, Result> binningJob = new Binning<ImmutableBytesWritable, Result>();
//setup the input data set
SimpleInputDataSet inputDataSet = new SimpleInputDataSet();
//use HBase's TableInputFormat
inputDataSet.setInputFormatClass(TableInputFormat.class);
//Set a RecordInfoProvider which can extract information from HBase TableInputFormat's returned key and values
inputDataSet.setRecordInfoProviderClass(HBaseRecordInfoProvider.class);
//set spatial configuration
SpatialConfig spatialConf = new SpatialConfig();
spatialConf.setSrid(8307);
inputDataSet.setSpatialConfig(spatialConf);
binningJob.setInputDataSet(inputDataSet);
//job output
binningJob.setOutput("hbase_example_output");
//binning configuration
BinningConfig binConf = new BinningConfig();
binConf.setGridMbr(new double[]{-180, -90, 180, 90});
binConf.setCellHeight(5);
binConf.setCellWidth(5);
binningJob.setBinConf(binConf);
//configure the job
binningJob.configure(job);
//run
boolean success = job.waitForCompletion(true);
前の例で設定されたRecordInfoProvider
クラスは、HBaseRecordInfoProvider
と呼ばれるカスタム実装であり、その定義は次のとおりです。
public class HBaseRecordInfoProvider implements RecordInfoProvider<ImmutableBytesWritable, Result>, Configurable{ private Result value = null; private Configuration conf = null; private int srid = 0; @Override public void setCurrentRecord(ImmutableBytesWritable key, Result value) throws Exception { this.value = value; } @Override public String getId() { byte[] idb = value.getValue(Bytes.toBytes("other_data"), Bytes.toBytes("user_id")); String id = idb != null ? Bytes.toString(idb) : null; return id; } @Override public JGeometry getGeometry() { byte[] geomb = value.getValue(Bytes.toBytes("location_data"), Bytes.toBytes("geometry")); String geomStr = geomb!=null ? Bytes.toString(geomb) : null; JGeometry geom = null; if(geomStr != null){ String[] pointsStr = geomStr.split(","); geom = JGeometry.createPoint(new double[]{Double.valueOf(pointsStr[0]), Double.valueOf(pointsStr[1])}, 2, srid); } return geom; } @Override public boolean getExtraFields(Map<String, String> extraFields) { byte[] fcb = value.getValue(Bytes.toBytes("other_data"), Bytes.toBytes("followers_count")); if(fcb!=null){ extraFields.put("followers_count", Bytes.toString(fcb)); } return fcb!=null; } @Override public Configuration getConf() { return conf; } @Override public void setConf(Configuration conf) { srid = conf.getInt(ConfigParams.SRID, 0); } }
2.9.15 ジョブ・レジストリ
コマンド・ライン・インタフェースまたはWebコンソールを使用してVector APIジョブが起動されるたびに、そのジョブ用のレジストリ・ファイルが作成されます。ジョブ・レジストリ・ファイルには、ジョブに関する次の情報が含まれます。
-
ジョブ名
-
ジョブID
-
ジョブを実行したユーザー
-
開始時間および終了時間
-
ジョブの実行に使用されたパラメータ
-
最初のジョブによって起動されたジョブ(child jobsと呼ばれます)。子ジョブには、親ジョブと同じフィールドが含まれます。
ジョブ・レジストリ・ファイルには、ジョブの実行に使用されるパラメータが保持されています。このパラメータは、同一のジョブがコマンド・ライン・インタフェースを使用して最初に実行されていなかった場合でも、このジョブを実行するためのサポート用として使用できます。
デフォルトでは、ジョブ・レジストリ・ファイルは、ユーザー・フォルダoracle_spatial/job_registry
(hdfsユーザー用の/user/hdfs/oracle_spatial/job_registry
など)の相対HDFSパスの下に作成されます。
ジョブ・レジストリ・ファイルは、HDFSコマンドを使用して直接、またはクラスoracle.spatial.hadoop.commons.logging.registry.RegistryManager
の次のユーティリティ・メソッドを使用して削除できます。
-
public static int removeJobRegistry(long beforeDate, Configuration conf)
: デフォルトのジョブ・レジストリ・フォルダから指定されたタイム・スタンプの前に作成されたジョブ・レジストリ・ファイルをすべて削除します。 -
public static int removeJobRegistry(Path jobRegDirPath, long beforeDate, Configuration conf)
: 指定されたジョブ・レジストリ・フォルダから指定されたタイム・スタンプの前に作成されたジョブ・レジストリ・ファイルをすべて削除します。
2.9.16 Vector Analysis APIを使用したジョブ実行時間のパフォーマンス・データのチューニング
この表は、Vector Analysis APIを使用したジョブ作成の実行時間を示します。ジョブは4ノードのクラスタを使用して実行されています。時間はクラスタの特性によって異なります。テスト・データセットには、10億以上のレコードがあり、サイズは1TBを超えています。
表2-4 Vector Analysis APIを使用したジョブ実行のパフォーマンス時間
ジョブ・タイプ | 経過時間(推定値) |
---|---|
空間の索引付け |
2時間 |
空間索引による空間のフィルタ処理 |
1時間 |
空間索引を使用しない空間のフィルタ処理 |
3時間 |
空間索引による階層のカウント |
5分 |
空間索引を使用しない階層のカウント |
3時間 |
ジョブにかかる時間は、次の構成パラメータのいずれかを使用して最大分割サイズを増やすと短縮できます。
mapred.max.split.size mapreduce.input.fileinputformat.split.maxsize
この結果、各マッパーでさらに多くの分割が処理され、実行時間が短縮されます。これはSpatialFilterInputFormat
(空間索引付け)またはFileSplitInputFormat
(空間階層結合、バッファ)を使用して実行します。また、内部InputFormat
としてCombineFileInputFormat
の実装を使用しても、同様の結果が得られます。
2.10 Oracle Big Data Spatial Vector Analysis for Spark
Oracle Big Data Spatial Vector Analysis for Apache Sparkは、空間の変換およびアクション、空間のパーティショニングおよび索引付けをサポートしている空間対応のRDD (Resilient Distributed Datasets)が用意されたSpatial Vector Analysis API for Java and Scalaです。
これらのコンポーネントでは、Spatial Java APIを利用して空間分析タスクを実行します。サポートされている機能には、次が含まれています。
2.10.1 空間RDD (Resilient Distributed Dataset)
空間RDD (Resilient Distributed Dataset)は、空間の変換およびアクションを実行できるSpark RDDです。
現在の空間RDD実装は、Java用のクラスoracle.spatial.spark.vector.rdd.SpatialJavaRDD
およびScala用のoracle.spatial.spark.vector.scala.rdd.SpatialRDD
です。空間RDD実装は、次の例に示すように、RDDまたはJavaRDDの既存のインスタンスから作成できます。
Java:
//create a regular RDD
JavaRDD<String> rdd = sc.textFile("someFile.txt");
//create a SparkRecordInfoProvider to extract spatial information from the source RDD���s records
SparkRecordInfoProvider<String> recordInfoProvider = new MySparkRecordInfoProvider();
//create a spatial RDD
SpatialJavaRDD<String> spatialRDD = SpatialJavaRDD.fromJavaRDD(rdd, recordInfoProvider, String.class));
Scala:
//create a regular RDD
val rdd: RDD[String] = sc.textFile("someFile.txt")
//create a SparkRecordInfoProvider to extract spatial information from the source RDD���s records
val recordInfoProvider: SparkRecordInfoProvider[String] = new MySparkRecordInfoProvider()
//create a spatial RDD
val spatialRDD: SpatialRDD[String] = SpatialRDD(rdd, recordInfoProvider)
空間RDDでは、各RDD要素から空間情報を抽出するために使用されるインタフェースoracle.spatial.spark.vector.SparkRecordInfoProvider
の実装が使用されます。
通常のRDDは、同じ汎用型の空間RDDに変換できます(つまり、ソースRDDに文字列型のレコードが含まれる場合)。空間RDDには文字列レコードも含まれます。
タイプoracle.spatial.spark.vector.SparkRecordInfo
のレコードを使用して空間RDDを作成することもできます。SparkRecordInfo
は、ソースRDDからのレコードの抽象です。これには、ソース・レコードの空間情報が保持され、ソース・レコードのサブセットのデータが含まれる場合があります。
次の例は、SparkRecordInfo
レコードのRDDを作成する方法を示します。
Java:
//create a regular RDD
JavaRDD<String> rdd = sc.textFile("someFile.txt");
//create a SparkRecordInfoProvider to extract spatial information from the source RDD���s records
SparkRecordInfoProvider<String> recordInfoProvider = new MySparkRecordInfoProvider();
//create a spatial RDD
SpatialJavaRDD<SparkRecordInfo> spatialRDD = SpatialJavaRDD.fromJavaRDD(rdd, recordInfoProvider));
Scala:
//create a regular RDD
val rdd: RDD[String] = sc.textFile("someFile.txt")
//create a SparkRecordInfoProvider to extract spatial information from the source RDD���s records
val recordInfoProvider: SparkRecordInfoProvider[String] = new MySparkRecordInfoProvider()
//create a spatial RDD
val spatialRDD: SpatialRDD[SparkRecordInfo] = SpatialRDD.fromRDD(rdd, recordInfoProvider))
SparkRecordInfo
レコードの空間RDDには、空間操作に必要なときに毎回、空間情報を各レコードから抽出する必要がないというメリットがあります。
空間RDDに空間的に索引付けすることにより、空間検索を加速できます。空間索引付けについては、「1.4 空間の索引付け」で説明されています。
空間RDDには、「1.2 空間の変換」および「1.3 空間アクション」の各項で説明されている次の空間の変換およびアクションが用意されています。
空間の変換:
-
filter
-
flatMap
-
join (空間索引の作成時に使用可能)
空間アクション:
-
MBR
-
nearestNeighbors
空間ペアRDD
JavaクラスSpatialJavaRDD
のペア・バージョンが用意されており、クラスoracle.spatial.spark.vector.rdd.SpatialJavaPairRDD
として実装されます。空間ペアRDDは、既存のペアRDDから作成され、単一の空間RDDと同じ空間の変換およびアクションを含みます。空間ペアRDDに使用されるSparkRecordInfoProvider
は、タイプscala.Tuple2<K,V>
のレコードを受け取る必要があります。この場合、K
およびV
は、ペアRDDのキーおよび値のタイプにそれぞれ対応しています。
例2-1 CSVファイルから情報を読み取るためのSparkRecordInfoProvider
次の例は、CSVファイルから情報を読み取るための単純なSparkRecordInfoProvider
を実装する方法を示します。
public class CSVRecordInfoProvider implements SparkRecordInfoProvider<String>{
private int srid = 8307;
//receives an RDD record and fills the given recordInfo
public boolean getRecordInfo(String record, SparkRecordInfo recordInfo) {
try {
String[] tokens = record.split(",");
//expected records have the format: id,name,last_name,x,y where x and y are optional
//output recordInfo will contain the fields id, last name and geometry
recordInfo.addField("id", tokens[0]);
recordInfo.addField("last_name", tokens[2]);
if (tokens.length == 5) {
recordInfo.setGeometry(JGeometry.createPoint(tokens[3], tokens[4], 2, srid));
}
} catch (Exception ex) {
//return false when there is an error extracting data from the input value
return false;
}
return true;
}
public void setSrid(int srid) {this.srid = srid;}
public int getSrid() {return srid;}
}
この例では、出力パラメータとして使用されるSparkRecordInfo
インスタンスに送信される空間情報とともに、レコードのIDおよび姓フィールドが抽出されます。追加情報の抽出が必要なのは、SparkRecordInfo
要素が含まれる空間RDDを作成することが目標である場合のみです。この抽出処理は、元のレコード情報のサブセットを保持するために必要です。それ以外の場合に必要なのは、空間情報を抽出することのみです。
レコードを変換に含めるか検索時に考慮することが必要な場合は常に、SparkRecordInfoProvider.getRecordInfo()
への呼出しによってtrue
が返される必要があります。SparkRecordInfoProvider.getRecordInfo()
によってfalse
が返される場合、レコードは無視されます。
2.10.2 空間の変換
次のサブトピックで説明する変換は、別途記述がない限り(たとえば、結合変換は分散空間索引に対してのみ使用可能であるなど)、空間RDD、空間ペアRDDおよび分散空間索引に対して使用可能です。
2.10.2.1 フィルタ変換
フィルタ変換は、通常のRDDのfilter()変換の空間バージョンです。ユーザー指定のフィルタ機能に加えて、これには、空間レコードのフィルタに使用される空間操作を記述するために使用されるoracle.spatial.hadoop.vector.util.SpatialOperationConfig
のインスタンスが使用されます。SpatialOperationConfig
には、参照および空間操作として使用されるジオメトリである問合せウィンドウが含まれます。空間操作は、(RDDレコードのジオメトリ) (空間操作) (問合せウィンドウ)
という形式で実行されます。たとえば、(RDD record) IsInside (queryWindow)
などです
使用可能な空間操作は、AnyInteract
、IsInside
、Contains
およびWithinDistance
です。
次の例は、特定の問合せウィンドウ内にありnull以外のIDを持つレコードのみが含まれるRDDを返します。
Java:
SpatialOperationConfig soc = new SpatialOperationConfig();
soc.setOperation(SpatialOperation.IsInside);
soc.setQueryWindow(JGeometry.createLinearPolygon(new double[] { 2.0, 1.0, 2.0, 3.0, 6.0, 3.0, 6.0, 1.0, 2.0, 1.0 }, 2, srid));
SpatialJavaRDD<SparkRecordInfo> filteredSpatialRDD = spatialRDD.filter(
(record) -> {
return record.getField(���id���) != null;
}, soc);
Scala:
val soc = new SpatialOperationConfig()
soc.setOperation(SpatialOperation.IsInside)
soc.setQueryWindow(JGeometry.createLinearPolygon(Array(2.0, 1.0, 2.0, 3.0, 6.0, 3.0, 6.0, 1.0, 2.0, 1.0 ), 2, srid))
val filteredSpatialRDD: SpatialRDD[SparkRecordInfo] = spatialRDD.filter(
record => { record.getField(���id���) != null }, soc)
親トピック: 空間の変換
2.10.2.2 FlatMap変換
FlatMap変換は、通常のRDDのflatMap()
変換の空間バージョンです。ユーザー指定の機能以外にも、空間フィルタを実行するためにSpatialOperationConfigが使用されます。これは、空間的にフィルタされた結果がマップ機能に渡されてフラット化される点を除いて、Filter Transformationと同じように機能します。
次の例では、バッファされた特定の問合せウィンドウおよびジオメトリと相互作用する要素のみが含まれるRDDを作成します。
Java:
SpatialOperationConfig soc = new SpatialOperationConfig();
soc.setOperation(SpatialOperation.AnyInteract);
soc.setQueryWindow(JGeometry.createLinearPolygon(new double[] { 2.0, 1.0, 2.0, 3.0, 6.0, 3.0, 6.0, 1.0, 2.0, 1.0 }, 2, srid));
JavaRDD<SparkRecordInfo> mappedRDD = spatialRDD.flatMap(
(record) -> {
JGeometry buffer = record.getGeometry().buffer(2.5);
record.setGeometry(buffer);
return Collections.singletonList(record);
}, soc);
Scala:
val soc = new SpatialOperationConfig()
soc.setOperation(SpatialOperation.AnyInteract)
soc.setQueryWindow(JGeometry.createLinearPolygon(Array( 2.0, 1.0, 2.0, 3.0, 6.0, 3.0, 6.0, 1.0, 2.0, 1.0 ), 2, srid))
val mappedRDD: RDD[SparkRecordInfo] = spatialRDD.flatMap(
record => {
val buffer: JGeometry = record.getGeometry().buffer(2.5)
record.setGeometry(buffer)
record
}, soc)
注意:
Spark 2の時点では、flatMap
変換により受け取るJavaクラスorg.apache.spark.api.java.function.FlatMapFunction
には、Iterable
ではなくjava.util.Iterator
のインスタンスが返されます。したがって、前述のflatMap
変換のJavaの例の戻り行は、Spark 2の場合、return Collections.singletonList(record).iterator();
に変わります。
親トピック: 空間の変換
2.10.2.3 結合変換
結合変換では、2つの空間RDDをそれらのレコード間の空間関係に基づいて結合します。この変換を実行するには、2つのRDDの1つを空間的に索引付けする必要があります。(空間RDDの索引付けの詳細は、「空間の索引付け」を参照してください。)
空間結合変換の結果タイプは、結合されたレコードの各ペアに対して呼び出されるユーザー指定のラムダ関数で定義されます。
次の例では、何らかの方法で相互作用するデータ・セットの両方のレコードをすべて結合します。
Java:
DistributedSpatialIndex index = DistributedSpatialIndex.createIndex(sparkContext, spatialRDD1, new QuadTreeConfiguration());
SpatialJavaRDD<SparkRecordInfo> spatialRDD2 = SpatialJavaRDD.fromJavaRDD(rdd2, new RegionsRecordInfoProvider(srid));
SatialOperationConfig soc = new SpatialOperationConfig();
soc.setOperation(SpatialOperation.AnyInteract);
JavaRDD<Tuple2<SparkRecordInfo, SparkRecordInfo> joinedRDD = index.spatialJoin( spatialRDD2,
(recordRDD1, recordRDD2) -> {
return Collections.singletonList( new Tuple2<>(recordRDD1, recordRDD2)).iterator());
}, soc);
Scala:
val index: DistributedSpatialIndex[SparkRecordInfo] = DistributedSpatialIndex.createIndex(spatialRDD1, new QuadTreeConfiguration())
val spatialRDD2: SpatialRDD[SparkRecordInfo] = SpatialRDD.fromRDD(rdd2, new RegionsRecordInfoProvider(srid))
val soc = new SpatialOperationConfig()
soc.setOperation(SpatialOperation.AnyInteract)
val joinedRDD: RDD[(SparkRecordInfo, SparkRecordInfo)] = index.join( spatialRDD2,
(recordRDD1, recordRDD2) => {Seq((recordRDD1, recordRDD2))}, soc)
親トピック: 空間の変換
2.10.2.4 空間評価の制御
フィルタ処理変換または最近傍アクションを実行する場合、デフォルトでは、空間操作は、ユーザー定義のフィルタ処理機能を呼び出す前に実行されます。ただし、この動作は変更できます。空間操作の前にユーザー定義のフィルタ処理機能を実行すると、ユーザー定義のフィルタ処理機能に比べて空間操作のコストの方が大きい場合にパフォーマンスを向上させることができます。
空間操作の前に実行されるユーザー定義の機能を設定するには、フィルタ変換または最近傍アクションのいずれかに渡されるSpatialOperationConfig
に次のパラメータを設定します。
SpatialOperationConfig spatialOpConf = new SpatialOperationConfig(SpatialOperation.AnyInteract, qryWindow, 0.05);
//set the spatial operation to be executed after the user-defined filtering function
spatialOpConf.addParam(SpatialOperationConfig.PARAM_SPATIAL_EVAL_STAGE, SpatialOperationConfig.VAL_SPATIAL_EVAL_STAGE_POST);
spatialRDD.filter((r)->{ return r.getFollowersCount()>1000;}, spatialOpConf);
前の例は、空間RDDと分散空間索引の両方に適用されます。
親トピック: 空間の変換
2.10.2.5 空間的に有効な変換
空間操作は、任意の変換を実行する前にSpatialTransformationContext
を作成することにより、通常の変換で実行できます。
SpatialTransformationContext
インスタンスが変換機能内に格納された後、次の例に示すように、このインスタンスを使用して、レコードのジオメトリを取得し、空間操作を適用できます。ここでは、StringレコードのRDDを、キーと値がソース・レコードのIDおよびバッファ済ジオメトリに対応しているペアRDDに変換しています。
Java:
SpatialJavaRDD<String> spatialRDD = SpatialJavaRDD.fromJavaRDD(rdd, new CSVRecordInfoProvider(srid), String.class);
SpatialTransformationContext stCtx = spatialRDD.createSpatialTransformationContext();
JavaPairRDD<String, JGeometry> bufferedRDD = spatialRDD.mapToPair(
(record) -> {
SparkRecordInfo recordInfo = stCtx.getRecordInfo(record);
String id = (String) recordInfo.getField(���id���)
JGeometry geom. = recordInfo.getGeometry(record);
JGeometry buffer = geom.buffer(0.5);
return new Tuple2(id, buffer);
});
Scala:
val spatialRDD: SpatialRDD[String]= SpatialRDD.fromRDD(rdd, new CSVRecordInfoProvider(srid))
val stCtx: SpatialTransformationContext[String] = spatialRDD.createSpatialTransformationContext()
val bufferedRDD: RDD[(String, JGeometry)] = spatialRDD.map(
record => {
val recordInfo: SparkRecordInfo = stCtx.getRecordInfo(record)
val id: String = recordInfo.getField(���id���).asInstanceOf[String]
val geom: JGeometry = recordInfo.getGeometry(record)
val buffer: JGeometry = geom.buffer(0.5)
(id, buffer)
})
パーティション単位で作業している場合は、ステートフル・バージョンのSpatialTransformationContext
を使用する必要があります。これにより、SparkRecordInfo
の複数のインスタンスを作成することが回避されます。パーティションごとに作業する場合は、次のパターンを使用できます。
val stCtx: SpatialTransformationContext[String] = spatialRDD.createSpatialTransformationContext()
val bufferedRDD: RDD[(String, JGeometry)] = spatialRDD.mapPartitions(
(records) => {
val sSTCtx = new StatefulSpatialTransformationContext(stCtx)
records.map(record=>{
val recordInfo: SparkRecordInfo = sSTCtx.getRecordInfo(record)
val id: String = recordInfo.getField(���id���).asInstanceOf[String]
val geom: JGeometry = recordInfo.getGeometry(record)
val buffer: JGeometry = geom.buffer(0.5)
(id, buffer)
})
}, true)
親トピック: 空間の変換
2.10.3 空間アクション(MBRおよびNearestNeighbors)
空間RDD、空間ペアRDDおよび分散空間索引には、次の空間アクションが用意されています。
-
MBR: RDDの最小外接矩形(MBR)を計算します。MBRは1回のみ計算され、2回目に呼び出されたときに再計算されないようにキャッシュされます。次の例は、空間RDDからMBRを取得する方法を示します。(この変換は、
DistributedSpatialIndex
に対しては使用できません。)Java:
doubl[] mbr = spatialRDD.getMBR();
Scala:
val mbr: Array[Double] = spatialRDD.getMBR()
-
NearestNeighbors: K最近要素が含まれるリストをRDDまたは分散空間索引から特定のジオメトリに返します。また、ユーザー定義のフィルタ・ラムダ機能を渡すことにより、フィルタを渡すレコードのみをK最近傍リストの一部となる候補にすることができます。次の例は、特定のポイントの最も地階5つのレコードを取得する方法を示します。
Java:
JGeometry qryWindow = JGeometry.createPoint(new double[] { 2.0, 1.0 }, 2, srid)); SpatialOperationConfig soc = new SpatialOperationConfig(SpatialOperation.None, qryWindow, 0.05); List<SparkRecordInfo> nearestNeighbors = spatialRDD.nearestNeighbors( (record)->{ return ((Integer)record.getField(���followers_count���))>1000; }, 5, soc);
Scala:
val qryWindow: JGeometry = JGeometry.createPoint(Array(2.0, 1.0 ), 2, srid)) val soc: SpatialOperationConfig = new SpatialOperationConfig(SpatialOperation.None, qryWindow, 0.05) val nearestNeighbors: Seq[SparkRecordInfo] = spatialRDD.nearestNeighbors( record=>{ record.getField(���followers_count���).asInstanceOf[Int]>1000 }, 5, soc);
2.10.4 空間RDDの空間索引付け
空間RDDを空間的に索引付けすることにより、空間変換の実行時に空間検索を加速できます。
空間索引によって空間RDDを再パーティション化することにより、各パーティションの特定の領域にのみレコードが含まれるようにすることができます。これにより、空間検索に結果が含まれないパーティションを簡単に破棄できるため、検索が高速になります。
空間索引はJava抽象クラスoracle.spatial.spark.vector.index.DistributedSpatialIndex
またはそのScalaの同等クラスoracle.spatial.spark.vector.scala.index.DistributedSpatialIndex
を介して作成されます。これらでは両方とも、実際の空間索引を作成するために特定の実装が使用されます。次の例は、QuadTreeベースの空間索引実装を使用して空間索引を作成する方法を示します。
Java:
DistributedSpatialIndex<String> index = DistributedSpatialIndex.createIndex(sparkContext, spatialRDD1, new QuadTreeConfiguration());
Scala:
val index: DistributedSpatialIndex[String] = DistributedSpatialIndex.createIndex(spatialRDD1, new QuadTreeConfiguration())(sparkContext)
空間索引実装のタイプは、oracle.spatial.spark.vector.index.SpatialPartitioningConfiguration
のサブセットである最後のパラメータによって決まります。索引実装によっては、構成パラメータがパーティション化および索引付けのために異なる設定を受け入れる場合があります。現在、空間索引の唯一の実装はクラスoracle.spatial.spark.vector.index.quadtree.QuadTreeDistIndex
であり、このクラスは、タイプoracle.spatial.spark.vector.index.quadtree.QuadTreeConfiguration
の構成を受け取ります。
DistributedSpatialIndex
クラスは現在、「空間の変換」で説明されているfilter、flatMap、joinおよびnearestNeighbors変換をサポートしています。
空間索引は、既存のSparkContext
および索引の格納先のパスを使用するメソッドDistributedSpatialIndex.save()
を使用して永続化できます。このパスは、ローカル・ファイル・システムである場合や分散(HDFS)ファイル・システムである場合があります。同様に、永続化された空間索引は、こちらも既存のSparkContext
および索引の格納先のパスを使用するメソッドDistributedSpatialIndex.load()
を使用して呼び出すことにより、ロードできます。
2.10.4.1 空間RDDの空間のパーティション化
空間RDDは、クラスoracle.spatial.spark.vector.index.SpatialPartitioning
の実装を介してパーティション化できます。SpatialPartitioning
クラスは、空間RDDを、キーが空間パーティションを指し示している空間的にパーティション化されたペアRDDに変換する空間のパーティション化アルゴリズムを表します。
SpatialPartitioningアルゴリズムは空間索引によって内部的に使用されるか、具象クラスを作成することによって直接使用することもできます。現在、oracle.spatial.spark.vector.index.quadtree.QuadTreePartitioningと呼ばれるQuadTreeベースの実装があります。次の例は、空間RDDを空間的にパーティション化する方法を示します。
QuadTreePartitioning<T> partitioning = new QuadTreePartitioning<>(sparkContext, spatialRDD, new QuadTreeConfiguration());
SpatialJavaPairRDD<PartitionKey, T> partRDD = partitioning.getPartitionedRDD();
親トピック: 空間RDDの空間索引付け
2.10.4.2 空間RDDのローカル空間索引付け
ローカル空間索引は、空間RDDのパーティションごとに作成できます。各パターンのコンテンツをローカルにパーティション化すると、パーティションベースで作業するときに空間の検索効率が上がります。
ローカル索引をパーティションごとに作成するには、分散空間索引の作成時にパラメータuseLocalIndex
をtrue
に設定します。空間的にパーティション化されたRDDは、ユーティリティ・メソッドoracle.spatial.spark.vector.index.local.LocalIndex.createLocallyIndexedRDD(SpatialJavaPairRDD<PartitionKey, T> rdd)
を呼び出すことによって各パーティションがローカルに索引付けされるよう変換することもできます。
親トピック: 空間RDDの空間索引付け
2.10.5 一般的な空間形式のサポート
Spark Vector APIを使用すると、ユーティリティで、GeoJSON、ESRI ShapeFileなどの一般的な空間形式からデータを簡単に読み取ることができます。
Javaクラスoracle.spatial.spark.vector.io.SpatialSources
およびScalaクラスoracle.spatial.spark.vector.scala.io.SpatialSources
には、データ・パスを指定することによってGeoJSON形式およびShapeFile形式からデータを読み取るためのstaticメソッド、データの空間参照システムID (SRID)、およびロードされる空間以外のフィールドのリストが含まれています。
次の例は、GeoJSONファイルからデータをロードする方法を示しています。レコードは、SparkRecordInfo
のインスタンスに自動的に変換されます。これには、空間情報のみでなく、_id
およびfollowers_count
フィールドが含まれています。すべてのフィールドを取得する必要がある場合は、全フィールドのリストのかわりにNULLを渡すことができます。GeoJSONおよびShapefileの読取りメソッドには、元のレコードをそれぞれString表現およびMapWritable表現として返すオーバーロードが含まれています。
Java:
//list of GeoJSON field names to be loaded for each feature
List<String> fieldNames = new ArrayList<String>();
fieldNames.add("_id");
fieldNames.add("followers_count");
//create a spatial RDD from a GeoJSON file
SpatialJavaRDD<SparkRecordInfo> spatialRDD = SpatialSources.readGeoJSONRecordInfo(geoJSONInputPath, 8307, fieldNames, sparkContext);
Scala:
//create a spatial RDD from a GeoJSON file
val spatialRDD = SpatialSources.readGeoJSONRecordInfo(geoJSONInputPath, 8307, Seq("_id","followers_count"))(sparkContext)
または、暗黙的なクラスを使用します。
//create a spatial RDD from a GeoJSON file
import oracle.spatial.spark.vector.scala.io.SpatialSources.ImplicitSpatialSources
val spatialRDD = sparkContext.readGeoJSONRecordInfo(geoJSONInputPath, 8307, Seq("_id","followers_count"))
2.10.6 空間Spark SQL API
空間Spark SQL APIは、任意の形式の空間情報が含まれるSpark SQL DataFrameオブジェクトをサポートします。
Oracle Big Data Spatial Vector Hive Analysisは、Spark SQLとともに使用できます。
例2-2 ツイートを問い合せるための空間DataFrameの作成
次の例では、Spark 1.x APIを使用して、ツイートを問い合せるための空間DataFrameを作成しています。空間RDDを使用してデータがロードされる場合、関数SpatialJavaRDD.createSpatialDataFrame
を使用してDataFrameを作成できます。
//create HiveContext
HiveContext sqlContext = new HiveContext(sparkContext.sc());
//get the spatial DataFrame from the SpatialRDD
//the geometries are in GeoJSON format
DataFrame spatialDataFrame = spatialRDD.createSpatialDataFrame(sqlContext, properties);
// Register the DataFrame as a table.
spatialDataFrame.registerTempTable("tweets");
//register UDFs
sqlContext.sql("create temporary function ST_Polygon as 'oracle.spatial.hadoop.vector.hive.ST_Polygon'");
sqlContext.sql("create temporary function ST_Point as 'oracle.spatial.hadoop.vector.hive.ST_Point'");
sqlContext.sql("create temporary function ST_Contains as 'oracle.spatial.hadoop.vector.hive.function.ST_Contains'");
// SQL can be run over RDDs that have been registered as tables.
StringBuffer query = new StringBuffer();
query.append("SELECT geometry, friends_count, location, followers_count FROM tweets ");
query.append("WHERE ST_Contains( ");
query.append(" ST_Polygon('{\"type\": \"Polygon\",\"coordinates\": [[[-106, 25], [-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}', 8307) ");
query.append(" , ST_Point(geometry, 8307) ");
query.append(" , 0.05)");
query.append(" and followers_count > 50");
DataFrame results = sqlContext.sql(query.toString());
//Filter the tweets in a query window (somewhere in the north of Mexico)
//and with more than 50 followers.
//Note that since the geometries are in GeoJSON format it is possible to create the ST_Point like
//ST_Point(geometry, 8307)
//instead of
//ST_Point(geometry, 'oracle.spatial.hadoop.vector.hive.json.GeoJsonHiveRecordInfoProvider')
List<String> filteredTweets = results.javaRDD().map(new Function<Row, String>() {
public String call(Row row) {
StringBuffer sb = new StringBuffer();
sb.append("Geometry: ");
sb.append(row.getString(0));
sb.append("\nFriends count: ");
sb.append(row.getString(1));
sb.append("\nLocation: ");
sb.append(row.getString(2));
sb.append("\nFollowers count: ");
sb.append(row.getString(3));
return sb.toString();
}
}).collect();
//print the filtered tweets
filteredTweets.forEach(tweet -> System.out.println("Tweet: "+tweet));
2.10.6.1 Spark 2 APIの機能拡張
新しいSpark SQL機能がSpark 2 Vector APIに追加されました。
空間DataSet/DataFrame
空間RDDは、クラスoracle.spatial.spark.vector.sql.SpatialJavaRDDConversions
(Java)およびoracle.spatial.spark.vector.scala.sql. SpatialRDDConversions
(Scala)で提供される関数を使用してDataSet/DataFrameに変換できます。後者には、空間RDDインスタンスから変換を呼び出すことができるようにするための暗黙的なクラスが用意されています。次の例は、空間RDDをDataFrameに変換する方法を示しています。
Java:
List<String> fields = Arrays.asList(new String[]{("friends_count","location", "followers_count"});
DataSet<Row> spatialDataFrame = SpatialJavaRDDConversions.toDataFrame(spatialRDD, fields, sparkSession);
Scala:
//using implicit classes
import oracle.spatial.spark.vector.scala.sql.SpatialRDDConversions.ImplicitSpatialRDDConversions
val spatialDataFrame = spatialRDD.toDataFrame(Seq("friends_count","location", "followers_count"))(sparkSession)
空間UDF
Hive UDFの同じセットをSpark 2 Vector APIのSpark UDFとして使用できます。詳細は、空間分析Spark SQL UDFを参照してください。
SpatialEnvironment.setup(sparkSession)
空間の索引
既存のSpark Vector APIの空間索引をSpark 2 SQLから使用すると、より高速な空間問合せを実行できます。
次の例は、空間索引のインスタンスをDataFrameに変換する方法を示しています。
Java:
// Create a spatial RDD from a GeoJSON file
List<String> fieldNames = Arrays.asList(new String[] {"id", "followers_count"});
SpatialJavaRDD<SparkRecordInfo> spatialRDD = SpatialSources.readGeoJSONRecordInfo(path, srid, fieldNames, sparkContext);
//Create a spatial index
DistributedSpatialIndex<SparkRecordInfo> index = DistributedSpatialIndex.createIndex(sparkContext, spatialRDD, new QuadTreeConfiguration());
//Specify the columns as StructFields. The geometry column is always included by default
StructField[] fields = SchemaUtils.toStringStructFields(fieldNames);
//options can be null if there are no options to be passed
Map<String, Object> options = new HashMap<>();
//include the CRS to all the geometries to avoid using SDO_<TYPE> wrappers in spatial UDF's
options.put(QuadTreeIndexRelation.OptIncludeCRS(), true);
//transform the existing spatial index to DataFrame and register as a temporal table
QuadTreeIndexRelation.toDataFrame(index, SparkRecordInfo.class, fields, options, sparkSession).createOrReplaceTempView("tweets_index");
Scala:
import oracle.spatial.spark.vector.scala.io.SpatialSources.ImplicitSpatialSources
import oracle.spatial.spark.vector.scala.sql.index.quadtree.QuadTreeIndexRelation._
import oracle.spatial.spark.vector.scala.sql.SpatialRDDConversions.ImplicitSpatialRDDConversions
//List of field names to be loaded from the GeoJSON file
val fieldNames = Seq("id", "followers_count")
//create a spatial RDD
val spatialRDD = sparkContext.readGeoJSON(path, srid, fieldNames)
//spatially index the spatial RDD
val index = DistributedSpatialIndex.createIndex(spatialRDD, new QuadTreeConfiguration())(implicitly, sparkContext)
//transform the existing spatial index to DataFrame and register as a temporal table
//fieldNames are automatically transformed to an array of string StructFields thanks to the //import of QuadTreeIndexRelation._
//toDataFrame can be called from the index thanks to the import of //ImplicitSpatialRDDConversions
index.toDataFrame(fieldNames, Map(QuadTreeIndexRelation.OptIncludeCRS->true))(sparkSession).createOrReplaceTempView("tweets_index")
次の例に示すように、永続化された空間索引をDataFrameに直接ロードすることもできます。
Java:
// list of GeoJSON field names to be loaded for each feature
List<String> fieldNames = Arrays.asList(new String[] { "id", "followers_count"});
// Create the required schema for the index. In this case, the schema
// contains only fields of type StringType. A schema with other data
// types can be passed if needed.
StructType schema = SchemaUtils.createStringFieldsSchema(fieldNames);
// read an existing spatial index and register it as table
sparkSession.read().format(QuadTreeIndexRelation.Format()).schema(schema).load(indexPath).createOrReplaceTempView("tweets_index");
Scala:
//List of field names from the spatial index to be included as columns.
val fieldNames = Seq("id", "followers_count")
//Create the required schema for the index.
//In this case, the schema contains only fields of type StringType.
//A schema with other data types can be passed if needed.
val schema = SchemaUtils.createStringFieldsSchema(fieldNames)
//read an existing spatial index and register it as a table
sparkSession.read.format(QuadTreeIndexRelation.Format).schema(schema).load(indexPath).createOrReplaceTempView("tweets_index")
空間索引がDataFrameに変換されたら、その他の空間DataFrameとして使用できます。
Spark 2 SQLでの空間索引のパフォーマンスに関する考慮事項
空間索引は、空間フィルタのみを使用する場合、または空間フィルタを使用しWHERE句にAND条件を指定する場合に、より高速に実行されます。SQL問合せの実行前に空間データが事前にフィルタ処理されているため、次の問合せでは空間索引が最大限に活用されます。
SELECT * FROM tweets_index WHERE ST_ANYINTERACT( ST_POLYGON('$polygonJSON',8307), ST_POINT(geometry,8307), 0.05 )
SELECT * FROM tweets_index WHERE ST_CONTAINS( ST_POLYGON('$polygonJSON',8307), ST_POINT(geometry,8307), 0.05 ) AND followers_count > 50
SELECT * FROM tweets_index WHERE ST_INSIDE( ST_POINT(geometry,8307), ST_POLYGON('$polygonJSON',8307), 0.05 ) AND followers_count > 50 AND id != null
OR条件を指定すると空間データの事前フィルタ処理が回避されますが、一部の空間索引の最適化が適用されます。次の問合せは、この場合の例を示しています。
SELECT * FROM tweets_index WHERE ST_CONTAINS( ST_POLYGON('$polygonJSON',8307), ST_POINT(geometry,8307), 0.05 ) OR followers_count > 50
WHERE句に複数の空間フィルタを使用した場合、空間索引の最適化は行われず、問合せは空間索引がない場合のように実行されます。次に例を示します。
SELECT * FROM tweets_index
WHERE
ST_ANYINTERACT( ST_POLYGON('$polygonJSON1',8307), ST_POINT(geometry,8307), 0.05 )
AND
ST_CONTAINS( ST_POLYGON('$polygonJSON2',8307), ST_POINT(geometry,8307), 0.05 )
親トピック: 空間Spark SQL API
2.10.6.2 空間分析Spark SQL UDF
空間分析関数は、Spark 2 SQL UDF (ユーザー定義関数)として使用できます。
Hive UDFの同じセットをSpark 2 Vector APIのSpark UDFとして使用できます。空間UDFの使用を開始するには、空間UDFを含む問合せを呼び出す前に、クラスoracle.spatial.spark.vector.scala.sql.SpatialEnvironment
の次のメソッドを実行する必要があります。
SpatialEnvironment.setup(sparkSession)
入力空間データは、GeoJSON、WKTまたはWKB形式にすることができます。空間索引は処理を高速にするためにも使用できます。
問合せで、空間ジオメトリ・タイプ・コンストラクタ(ST_Polygon、ST_Pointなど)は、入力ジオメトリのGeoJSON表現を作成し、ジオメトリのSRID (座標系)を追加するために使用できます。空間索引のオプションを使用してジオメトリにSRIDを設定しないかぎり、ジオメトリがすでにGeoJSON形式であっても、ジオメトリが問合せで指定されている場合は、このようなコンストラクタを使用する必要があります。この場合、空間ジオメトリ・タイプ・コンストラクタは不要です。次に例を示します。
spark.read().format(QuadTreeIndexRelation.Format()).schema(schema)
.option(QuadTreeIndexRelation.OptIncludeCRS(), true) //avoid using Type Functions
.load(indexPath).createOrReplaceTempView("tweets_index");
空間分析Spark SQL UDFの前提条件ライブラリ
空間分析Spark SQL UDFに必要なライブラリは次のとおりです。
-
sdohadoop-vector.jar
-
sdospark2-vector.jar
-
sdoutl.jar
-
sdoapi.jar
-
ojdbc8.jar
Spark SQL UDFの使用
空間分析Spark SQL UDFは、一連のSpark SQLユーザー定義関数であり、Spark SQL問合せの作成時に1つまたは2つのジオメトリを使用してジオメトリの作成および空間操作の実行を行うために使用します。
HiveおよびSparkの空間SQL関数では、使用可能な空間関数のリファレンス情報を提供しています。
次の例では、特定の地勢ポリゴン内で50人を超えるフォロワがあるツイートのレコードが返されます。この例の一般的な手順は次のとおりです。
-
空間SQL環境をセットアップします。
-
地理的入力から空間RDDを作成します。
-
SpatialRDDからDataSetを作成します。空間DataSetには、値がGeoJSON形式であるgeometryという列が含まれています。
-
DataSetを登録して、SQL文で表として使用できるようにします。
-
レコードをフィルタ処理する問合せを作成します。
-
フィルタ処理を実行します。
Javaの例:
import java.util.Arrays;
import java.util.List;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import oracle.spatial.spark.vector.SparkRecordInfo;
import oracle.spatial.spark.vector.io.SpatialSources;
import oracle.spatial.spark.vector.rdd.SpatialJavaRDD;
import oracle.spatial.spark.vector.scala.sql.SpatialEnvironment;
import oracle.spatial.spark.vector.sql.SpatialJavaRDDConversions;
public class SpatialQueryExample {
public static void main(String[] args) {
SparkSession spark = SparkSession.builder().appName("SpatialEx").getOrCreate();
//Setup spatial SQL environment
SpatialEnvironment.setup(spark);
String geoJSONInput = args[0];
//The coordinate system the spatial data is expected to be
int srid = 8307;
// list of GeoJSON field names to be loaded for each feature
List<String> fieldNames = Arrays.asList(new String[] {
"id", "followers_count", "friends_count", "location"} );
// Create a spatial RDD from a GeoJSON file
SpatialJavaRDD<SparkRecordInfo> spatialRDD =
SpatialSources.readGeoJSONRecordInfo(geoJSONInput, srid, fieldNames,
JavaSparkContext.fromSparkContext(spark.sparkContext()));
// Create a DataSet from the SpatialRDD.
Dataset<Row> spatialDF = SpatialJavaRDDConversions.toDataFrame(
spatialRDD, fieldNames, spark);
// Register the dataset so it can be used within SQL statements
spatialDF.createOrReplaceTempView("sample_tweets");
//polygon used to spatially filter data
String qryWindow = "{\"type\": \"Polygon\",\"coordinates\": [[[-106, 25], [-106,
30], [-104, 30], [-104, 25], [-106, 25]]]}";
// Filter the tweets within the query window (somewhere in the north of Mexico)
StringBuilder query =new StringBuilder()
.append(" SELECT geometry, friends_count, location, followers_count")
.append(" FROM sample_tweets ")
.append(" WHERE ")
.append(" ST_CONTAINS(ST_POLYGON('").append(qryWindow).append("', 8307),
ST_POINT(geometry, 8307), 0.05)")
.append(" AND followers_count > 50 ");
//Execute the query
spark.sql(query.toString()).show();
}
}
Scalaの例:
import org.apache.spark.sql.SparkSession
import oracle.spatial.spark.vector.sql.udf.function.FunctionExecutor
import oracle.spatial.spark.vector.scala.io.SpatialSources.ImplicitSpatialSources
import oracle.spatial.spark.vector.scala.sql.SpatialRDDConversions.ImplicitSpatialRDDConversions
import scala.collection.mutable.StringBuilder
import oracle.spatial.spark.vector.scala.sql.SpatialEnvironment
object SpatialQueryExample {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder().appName("SpatialQueryExample").getOrCreate()
//Setup spatial SQL environment
SpatialEnvironment.setup(spark)
val geoJSONInput = args(0)
//The coordinate system the spatial data is expected to be
val srid = 8307
// list of GeoJSON field names to be loaded for each feature
val fieldNames = Seq("id", "followers_count", "friends_count", "location")
// Create a spatial RDD from a GeoJSON file
val spatialRDD = spark.sparkContext.readGeoJSONRecordInfo(geoJSONInput, srid,
fieldNames)
// Create a DataSet from the SpatialRDD.
val spatialDF = spatialRDD.toDataFrame(fieldNames)(spark)
// Register the dataset so it can be used within SQL statements
spatialDF.createOrReplaceTempView("sample_tweets")
//polygon used to spatially filter data
val qryWindow = """{"type": "Polygon","coordinates":
[[[-106, 25], [-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}"""
// Filter the tweets within the query window (somewhere in the north of Mexico)
val query =s""" SELECT geometry, friends_count, location, followers_count
| FROM sample_tweets
| WHERE
| ST_CONTAINS(ST_POLYGON('$qryWindow', $srid),
ST_POINT(geometry, $srid), 0.05)
| AND followers_count > 50 """.stripMargin
//Execute the query
val results = spark.sql(query)
results.show()
}
}
Spark UDFでの空間索引の使用
空間Spark SQL UDFは、索引付けされたデータ・セットを処理できます。その場で索引を作成するか、永続化された空間索引を使用できます。詳細は、空間RDDの空間索引付けを参照してください。
次の例では、指定されたポリゴンと空間的にやり取りしているか、フォロワが2人未満のツイート・レコードをフィルタ処理しています。また、空間索引オプションを使用して、geometry列にSRIDを設定しています。このシナリオでは、Type関数でジオメトリをラップする必要はありません。
一般的な手順は次のとおりです。
-
空間SQL環境をセットアップします。
-
永続化された索引をDataSetに読み取り、表として登録します。
-
レコードをフィルタ処理する問合せを作成します。
-
フィルタ処理を実行します。
Javaの例:
import org.apache.spark.SparkConf;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.types.DataTypes;
import org.apache.spark.sql.types.Metadata;
import org.apache.spark.sql.types.StructField;
import org.apache.spark.sql.types.StructType;
import oracle.spatial.spark.vector.scala.sql.SpatialEnvironment;
import oracle.spatial.spark.vector.scala.sql.index.quadtree.QuadTreeIndexRelation;
import oracle.spatial.spark.vector.serialization.SpatialVectorKryoRegistrator;
public class IndexOptionsAndSchemaTypesExample {
public static void main(String[] args) {
SparkConf conf = new SparkConf();
// the index is expected to have its partitions indexed with an R-Tree
// so the following line is required if Kryo is used
SpatialVectorKryoRegistrator.register(conf);
SparkSession spark=SparkSession.builder().config(conf).appName("I").getOrCreate();
//Setup spatial SQL environment
SpatialEnvironment.setup(spark);
String indexPath = args[0];
//Create the required schema for the index.
StructType schema = new StructType(new StructField[]{
new StructField("followers_count", DataTypes.IntegerType, true, Metadata.empty()),
new StructField("friends_count", DataTypes.IntegerType, true, Metadata.empty()),
new StructField("location", DataTypes.StringType, true, Metadata.empty())
});
//read an existing spatial index and register it as table called "tweets_index"
spark.read().format(QuadTreeIndexRelation.Format()).schema(schema)
.option(QuadTreeIndexRelation.OptIncludeCRS(), true)//avoid using Type Functions
.load(indexPath).createOrReplaceTempView("tweets_index");
//polygon used to spatially filter data
String qryWindow = "{\"type\": \"Polygon\",\"coordinates\": [[[-106, 25],
[-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}";
// Retrieve all the tweets which spatially interact with the given polygon
// Note that geometry column is not surrounded by the ST_POINT function
StringBuilder query =new StringBuilder()
.append(" SELECT geometry, friends_count, location, followers_count")
.append(" FROM tweets_index ")
.append(" WHERE ")
.append(" ST_ANYINTERACT(
ST_POLYGON('").append(qryWindow).append("', 8307),
geometry, 0.05)")
.append(" OR followers_count = 2 ");
System.out.println(query);
spark.sql(query.toString()).show();
}
}
Scalaの例:
import org.apache.spark.sql.SparkSession
import oracle.spatial.spark.vector.sql.udf.function.FunctionExecutor
import oracle.spatial.spark.vector.scala.io.SpatialSources.ImplicitSpatialSources
import oracle.spatial.spark.vector.scala.sql.SpatialRDDConversions.ImplicitSpatialRDDConversions
import scala.collection.mutable.StringBuilder
import org.apache.spark.SparkConf
import oracle.spatial.spark.vector.serialization.SpatialVectorKryoRegistrator
import oracle.spatial.spark.vector.scala.sql.SpatialEnvironment
import oracle.spatial.spark.vector.scala.sql.index.quadtree.QuadTreeIndexRelation
import oracle.spatial.spark.vector.scala.sql.util.SchemaUtils
import org.apache.spark.sql.types.StructField
import oracle.spatial.spark.vector.scala.sql.util.SchemaUtils
import org.apache.spark.sql.types.StructType
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.types.Metadata
import org.apache.spark.sql.types.StringType
object IndexOptionsAndSchemaTypesExample {
def main(args: Array[String]): Unit = {
val conf = new SparkConf
//the index is expected to have its partitions indexed with an R-Tree
//so the following line is required if Kryo is used
SpatialVectorKryoRegistrator.register(conf)
val spark = SparkSession.builder().config(conf).appName("IndexEx").getOrCreate()
//Setup spatial SQL environment
SpatialEnvironment.setup(spark)
val indexPath = args(0)
//Create the required schema for the index
val schema = StructType(Array(
StructField("followers_count",IntegerType, true, Metadata.empty),
StructField("friends_count",IntegerType, true, Metadata.empty),
StructField("location",StringType, true, Metadata.empty)))
//read an existing spatial index and register it as table called "tweets_index"
spark.read.format(QuadTreeIndexRelation.Format).schema(schema)
.option(QuadTreeIndexRelation.OptIncludeCRS, true)//set to avoid using Type Functs
.load(indexPath).createOrReplaceTempView("tweets_index")
//polygon used to spatially filter the data
val polygonJSON = """{"type": "Polygon", "coordinates": [[[-106, 25], [-106, 30],
[-104, 30], [-104, 25], [-106, 25]]]}"""
//Spatial reference system ID of the data
val srid = 8307
//Retrieve tweets which spatially interact with the given polygon
//Note that geometry column is not surrounded by the ST_POINT function
val query = s"""SELECT geometry, location, friends_count, followers_count
| FROM tweets_index
| WHERE
| ST_ANYINTERACT( ST_POLYGON('$polygonJSON',$srid), geometry, 0.05 )
| OR followers_count = 2 """.stripMargin
println(s"Executing: \n$query")
val results = spark.sql(query)
results.show()
}
}
親トピック: 空間Spark SQL API
2.10.7 空間RDDのJDBCデータ・ソース
Oracle Databaseデータは、Spark Vector Analysis APIを使用して空間RDDのデータ・ソースとして使用できます。
クラスoracle.spatial.spark.vector.util.JDBCUtils
(またはScala用のoracle.spatial.spark.vector.scala.util.JDBCUtils
)には、Oracleデータベース表またはOracleデータベースに対するSQL問合せから空間RDDを作成するための便利なメソッドが用意されています。表またはSQL問合せには、空間RDDを作成するためにタイプSDO_GEOMETRYの列が1つ含まれる必要があります。
表からのメソッド・バージョンおよび問合せからのメソッド・バージョンでは両方とも、Oracleデータベースへの接続が必要であり、この接続は、テンプレートoracle.spatial.spark.vector.util.ConnectionSupplier
(またはScala用のoracle.spatial.spark.vector.scala.util.ConnectionSupler
)によって定義されるラムダ機能によって提供されます。
この結果として生成される空間RDDタイプのパラメータは常にSparkRecordInfo
になります。つまり、結果として生成されるRDDには、タイプSparkRecordInfo
のレコードが含まれ、これには、SQL問合せのSELECTセクション内の表または列を問い合せるときに指定されるフィールドが含まれます。デフォルトでは、取得される列の名前およびタイプはResultSet
メタデータを使用して推測されます。ただし、SparkRecordInfoProvider
の実装を提供することにより、取得されるフィールドの名前付けおよびタイプを制御できます
次の例は、表とSQL問合せのそれぞれから空間RDDを作成する方法を示します。
例2-3 データベース表からの空間RDDの作成
SpatialJavaRDD<SparkRecordInfoProvider> jdbcSpatialRDD = JDBCUtils.createSpatialRDDFromTable(
sparkContext, //spark context
()->{
Class.forName("oracle.jdbc.driver.OracleDriver");
return new DriverManager.getConnection(connURL, usr, pwd);
}, //DB connection supplier lambda
���VEHICLES���, //DB table
Arrays.asList(new String[]{"ID","DESC","LOCATION"}), //list of fields to retrieve
null //SparkRecordInfoProvider<ResultSet, SparkRecordIngo> (optional)
);
例2-4 データベースに対するSQL問合せからの空間RDDの作成
SpatialJavaRDD<SparkRecordInfoProvider> jdbcSpatialRDD = JDBCUtils.createSpatialRDDFromQuery(
sparkContext, //spark context
()->{
Class.forName("oracle.jdbc.driver.OracleDriver");
return new DriverManager.getConnection(connURL, usr, pwd);
}, //DB connection supplier lambda
���SELECT * FROM VEHICLES WHERE category > 5���, //SQL query
null //SparkRecordInfoProvider<ResultSet, SparkRecordIngo> (optional)
);
前の例では、Oracleデータベースからのデータを問い合せてパーティション化することにより、Spark RDDを作成しています。パーティションの数およびサイズは、Spark Vector Analysis APIによって自動的に決定されます。
この数をパラメータとして使用するメソッド・オーバーロードを呼び出すことにより、Sparkパーティションに含めるデータベース行の目的の数を指定することもできます。パーティションごとの行数を手動で指定すると、空間RDDの作成のパフォーマンスを向上させることができます。
2.11 Oracle Big Data Spatial Vector Hive Analysis
Oracle Big Data Spatial Vector Hive Analysisには、Hiveを使用してデータを分析するために空間関数が用意されています。
空間データは、サポートされている任意のHive形式にすることができます。また、高速処理を目的としてJava分析API (「空間の索引付け」を参照)を使用して作成された空間索引を使用することもできます。
サポートされている機能は次のとおりです。
これらの機能の実装の詳細は、HiveRecordInfoProviderも参照してください。
HiveおよびSparkの空間SQL関数には、使用可能な機能に関する参照情報が用意されています。
前提条件ライブラリ
Spatial Vector Hive Analysis APIには、次のライブラリが必要です。
-
sdohadoop-vector-hive.jar
-
sdohadoop-vector.jar
-
sdoutil.jar
-
sdoapi.jar
-
ojdbc.jar
2.11.1 HiveRecordInfoProvider
Hive表内のレコードには、JSON、WKTまたはユーザー指定形式などの任意の形式のジオメトリ・フィールドが含まれる場合があります。ST_Geometryなどのジオメトリ・コンストラクタにより、ジオメトリのGeoJSON、WKTまたはWKB表現を受け取るジオメトリ作成できます。ジオメトリが別の形式で格納されている場合、HiveRecordInfoProviderを使用できます。
HiveRecordInfoProvider
は、ジオメトリ・フィールド表現を解釈し、ジオメトリをGeoJSON形式で返すコンポーネントです。
返されたジオメトリには、次の形式例のように、ジオメトリSRIDが含まれる必要があります。
{"type":<geometry-type", "crs": {"type": "name", "properties": {"name": "EPSG:4326"}}"coordinates":[c1,c2,....cn]}
HiveRecordInfoProvider
インタフェースには、次のメソッドがあります。
-
void setCurrentRecord(Object record)
-
String getGeometry()
メソッドsetCurrentRecord()
は、Hiveでのジオメトリの作成時に提供された現在のジオメトリ・フィールドを渡すことによって呼び出されます。この際、レコードに空間情報がない場合にジオメトリを取得するかnullを返すためにHiveRecordInfoProvider
が使用されます。
HiveRecordInfoProvider
によって返される情報は、ジオメトリを作成するためにHive空間関数によって使用されます(「HiveおよびSparkの空間SQL関数」を参照)。
サンプルHiveRecordInfoProvider実装
SimpleHiveRecordInfoProvider
という名前のこのサンプル実装は、JSON形式のテキスト・レコードを使用します。サンプル入力レコードは、次のとおりです。{"longitude":-71.46, "latitude":42.35}
SimpleHiveRecordInfoProvider
がインスタンス化されると、JSON ObjectMapper
が作成されます。ObjectMapper
は、後でsetCurrentRecord()
が呼び出されるときのレコード値の解析に使用されます。ジオメトリは緯度/経度ペアとして表現され、JsonUtils.readGeometry()
メソッドによる点ジオメトリの作成に使用されます。この場合、返されるGeoJSON形式がGeoJsonGen.asGeometry()
を使用して作成され、SRIDがJsonUtils.addSRIDToGeoJSON()
を使用してGeoJSONに追加されます。
public class SimpleHiveRecordInfoProvider implements HiveRecordInfoProvider{
private static final Log LOG =
LogFactory.getLog(SimpleHiveRecordInfoProvider.class.getName());
private JsonNode recordNode = null;
private ObjectMapper jsonMapper = null;
public SimpleHiveRecordInfoProvider(){
jsonMapper = new ObjectMapper();
}
@Override
public void setCurrentRecord(Object record) throws Exception {
try{
if(record != null){
//parse the current value
recordNode = jsonMapper.readTree(record.toString());
}
}catch(Exception ex){
recordNode = null;
LOG.warn("Problem reading JSON record
value:"+record.toString(), ex);
}
}
@Override
public String getGeometry() {
if(recordNode == null){
return null;
}
JGeometry geom = null;
try{
geom = JsonUtils.readGeometry(recordNode,
2, //dimensions
8307 //SRID
);
}catch(Exception ex){
recordNode = null;
LOG.warn("Problem reading JSON record
geometry:"+recordNode.toString(), ex);
}
if(geom != null){
StringBuilder res = new StringBuilder();
//Get a GeoJSON representation of the JGeometry
GeoJsonGen.asGeometry(geom, res);
String result = res.toString();
//add SRID to GeoJSON and return the result
return JsonUtils.addSRIDToGeoJSON(result, 8307);
}
return null;
}
}
2.11.2 Hive Spatial APIの使用
Hive Spatial APIは、1つ以上のジオメトリを使用してジオメトリを作成したり操作を実行したりするために使用できるOracle提供のHiveユーザー定義関数で構成されています。
これらの関数は、タイプ、単一のジオメトリ、2つのジオメトリという論理カテゴリにグループ化できます。(HiveおよびSparkの空間SQL関数は、各カテゴリ内の関数をリストし、各関数に関する参照情報を提供します。)
例2-5 Hiveスクリプト
次のスクリプトの例は、指定した地勢ポリゴン内におり、50人を超えるフォロワがいるデータ・セット内のTwitterユーザーに関する情報を返します。次の内容を実行します。
-
必要なjarファイルを追加します。
add jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/ojdbc8.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoutl.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoapi.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector-hive.jar;
-
使用対象のHiveユーザー定義機能を作成します。
create temporary function ST_Point as 'oracle.spatial.hadoop.vector.hive.ST_Point'; create temporary function ST_Polygon as 'oracle.spatial.hadoop.vector.hive.ST_Polygon'; create temporary function ST_Contains as 'oracle.spatial.hadoop.vector.hive.function.ST_Contains';
-
HDFSディレクトリ
/user/oracle/twitter
の下にあるファイルに基づいてHive表を作成します。この場合に使用されるInputFormat
はoracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
であり、Hive SerDeはユーザー定義のSerDeoracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe
です。CREATE EXTERNAL TABLE IF NOT EXISTS sample_tweets (id STRING, geometry STRING, followers_count STRING, friends_count STRING, location STRING) ROW FORMAT SERDE 'oracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe' STORED AS INPUTFORMAT 'oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat' OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' LOCATION '/user/oracle/twitter';
-
ST_Polygon問合せ領域およびST_Pointツイート・ジオメトリを受け取り、空間操作の許容差値として0.5を使用する空間問合せを実行します。出力は、50人を超えるフォロワがいる問合せ領域内のTwitterユーザーに関する情報になります。
SELECT id, followers_count, friends_count, location FROM sample_tweets WHERE ST_Contains( ST_Polygon( '{"type": "Polygon", "coordinates": [[[-106, 25],[-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}', 8307 ), ST_Point(geometry, 8307), 0.5 ) and followers_count > 50;
完全なスクリプトは、次のとおりです。
add jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/ojdbc8.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoutl.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoapi.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector-hive.jar;
create temporary function ST_Point as 'oracle.spatial.hadoop.vector.hive.ST_Point';
create temporary function ST_Polygon as 'oracle.spatial.hadoop.vector.hive.ST_Polygon';
create temporary function ST_Contains as 'oracle.spatial.hadoop.vector.hive.function.ST_Contains';
CREATE EXTERNAL TABLE IF NOT EXISTS sample_tweets (id STRING, geometry STRING, followers_count STRING, friends_count STRING, location STRING)
ROW FORMAT SERDE 'oracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe'
STORED AS INPUTFORMAT 'oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION '/user/oracle/twitter';
SELECT id, followers_count, friends_count, location FROM sample_tweets
WHERE
ST_Contains(
ST_Polygon(
'{"type": "Polygon",
"coordinates":
[[[-106, 25],[-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}',
8307
),
ST_Point(geometry, 8307),
0.5
)
and followers_count > 50;
2.11.3 Hive内の空間索引の使用
Hive空間問合せでは、前に作成した空間索引を使用できますが、これは、Java API (「空間の索引付け」を参照)を使用して作成できます。
元のデータにアクセスするAPI関数内の索引を使用する必要がない場合、oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing
を呼び出すときにisMapFileIndex=false
を指定するか、関数setMapFileIndex(false)
を使用できます。これらの場合、索引の構造は次のようになります。
HDFSIndexDirectory/part-xxxxx
これらの場合、Hive表を作成するときに、索引を作成したフォルダを提供してください。
元のデータに関係する必要がある場合に、パラメータisMapFileIndex=false
を設定していない場合、索引構造は次のようになります。
part-xxxxx
data
index
このような場合、Hive表を作成するには、索引のデータ・ファイルが必要です。data
ファイルを新しいHDFSフォルダにコピーしますが、この場合、各データ・ファイルがdata1やdata2などの異なる名前を持つようにします。この新しいフォルダがHive表の作成に使用されます。
索引には、ジオメトリ・レコードおよび追加フィールドが含まれます。このデータは、Hive表の作成時に使用できます。
(「空間の索引付けクラスの構造」では、索引構造が説明されており、「RecordInfoProvider」には、追加フィールドを追加するRecordInfoProvider
の例が用意されています。)
索引の読み取りには、InputFormat oracle.spatial.hadoop.vector.mapred.input.SpatialIndexTextInputFormat
が使用されます。このInputFormat
の出力はGeoJSONです。
任意の問合せを実行する前に、SpatialIndexTextInputFormat
を使用して最初のデータ・フィルタ処理を実行する最小外接矩形(MBR)を指定できます。
例2-6 空間索引を使用したHiveスクリプト
次のスクリプトの例は、指定した地勢ポリゴン内におり、50人を超えるフォロワがいるデータ・セット内のTwitterユーザーに関する情報を返します。次の内容を実行します。
-
必要なjarファイルを追加します。
add jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/ojdbc8.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoutl.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoapi.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector.jar /opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector-hive.jar;
-
使用対象のHiveユーザー定義機能を作成します。
create temporary function ST_Point as 'oracle.spatial.hadoop.vector.hive.ST_Point'; create temporary function ST_Polygon as 'oracle.spatial.hadoop.vector.hive.ST_Polygon'; create temporary function ST_Contains as 'oracle.spatial.hadoop.vector.hive.function.ST_Contains';
-
データの最大および最小の境界(dim1Min,dim2Min,dim1Max,dim2Max)を設定します。
set oracle.spatial.boundaries=-180,-90,180,90;
-
表の作成に含まれる空間索引に含まれる追加フィールドを設定します。
set oracle.spatial.index.includedExtraFields=followers_count,friends_count,location;
-
HDFSディレクトリ/user/oracle/twitterの下にあるファイルに基づいてHive表を作成します。この場合に使用される
InputFormat
はoracle.spatial.hadoop.vector.mapred.input.SpatialIndexTextInputFormat
であり、Hive SerDeはユーザー定義のSerDeoracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe
です。(oracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe
のコードは、Hiveの例に含まれています。)ツイートのジオメトリは、形式{"longitude":n, "latitude":n}のジオメトリ列に保存されます。CREATE EXTERNAL TABLE IF NOT EXISTS sample_tweets_index (id STRING, geometry STRING, followers_count STRING, friends_count STRING, location STRING) ROW FORMAT SERDE 'oracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe' STORED AS INPUTFORMAT 'oracle.spatial.hadoop.vector.mapred.input.SpatialIndexTextInputFormat' OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' LOCATION '/user/oracle/twitter/index';
-
SpatialIndexTextInputFormat
でフィルタ処理する最小外接矩形(MBR)を定義します。すべての空間索引がこのMBR内のデータのみにアクセスできます。MBRが指定されていない場合、データ境界が使用されます。パフォーマンスを向上させるにはこの設定をお薦めします。set oracle.spatial.spatialQueryWindow={"type": "Polygon","coordinates": [[[-107, 24], [-107, 31], [-103, 31], [-103, 24], [-107, 24]]]};
-
ST_Polygon問合せ領域およびST_Pointツイート・ジオメトリを受け取り、空間操作の許容差値として0.5を使用する空間問合せを実行します。ツイート・ジオメトリはGeoJSON形式であり、ST_Point関数はSRIDを8307として指定して使用されます。出力は、50人を超えるフォロワがいる問合せ領域内のTwitterユーザーに関する情報になります。
SELECT id, followers_count, friends_count, location FROM sample_tweets WHERE ST_Contains( ST_Polygon('{"type": "Polygon","coordinates": [[[-106, 25], [-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}', 8307) , ST_Point(geometry, 8307) , 0.5) and followers_count > 50;
完全なスクリプトは、次のとおりです。(このスクリプトと「Hive Spatial APIの使用」内のスクリプトの差異は太字でマークされていますが、すべての手順は前のリストで説明されています。)
add jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/ojdbc8.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoutl.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdoapi.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector.jar
/opt/oracle/oracle-spatial-graph/spatial/vector/jlib/sdohadoop-vector-hive.jar;
create temporary function ST_Polygon as 'oracle.spatial.hadoop.vector.hive.ST_Polygon';
create temporary function ST_Point as 'oracle.spatial.hadoop.vector.hive.ST_Point';
create temporary function ST_Contains as 'oracle.spatial.hadoop.vector.hive.function.ST_Contains';
set oracle.spatial.boundaries=-180,-90,180,90;
set oracle.spatial.index.includedExtraFields=followers_count,friends_count,location;
CREATE EXTERNAL TABLE IF NOT EXISTS sample_tweets_index (id STRING, geometry STRING, followers_count STRING, friends_count STRING, location STRING)
ROW FORMAT SERDE 'oracle.spatial.hadoop.vector.hive.json.GeoJsonSerDe'
STORED AS INPUTFORMAT 'oracle.spatial.hadoop.vector.mapred.input.SpatialIndexTextInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION '/user/oracle/twitter/index';
set oracle.spatial.spatialQueryWindow={"type": "Polygon","coordinates": [[[-107, 24], [-107, 31], [-103, 31], [-103, 24], [-107, 24]]]};
SELECT id, followers_count, friends_count, location FROM sample_tweets
WHERE ST_Contains(
ST_Polygon('{"type": "Polygon","coordinates": [[[-106, 25], [-106, 30], [-104, 30], [-104, 25], [-106, 25]]]}', 8307)
, ST_Point(geometry, 8307)
, 0.5)
and followers_count > 50;
2.12 Oracle Big Data SpatialViewer Webアプリケーションの使用
Oracle Big Data SpatialViewer Webアプリケーション(SpatialViewer)を使用すると、様々なタスクを実行できます。
これらには、空間の索引付け、テーマ・マップの作成と表示、HDFSへのラスターのロード、アップロードしたラスターの地球での視覚化、個別または複数の足跡の選択、ラスター代数演算の実行、ギャップと重複の処理、選択した足跡の結合、選択した足跡からの指定したファイル形式での新しいイメージの生成、およびユーザー固有の処理の適用に関連するタスクが含まれます。
- SpatialViewerを使用したHadoop空間索引の作成
- Hadoop索引付き空間データの検索
- SpatialViewerを使用したHadoop空間索引の作成
- Spark索引付き空間データの検索
- SpatialViewerを使用したカテゴリ化ジョブの実行
- カテゴリ化結果の表示
- ファイルへのカテゴリ化結果の保存
- テンプレートの作成および削除
- テンプレートの構成
- SpatialViewerを使用したクラスタ化ジョブの実行
- クラスタ化結果の表示
- ファイルへのクラスタ化結果の保存
- SpatialViewerを使用したビニング・ジョブの実行
- ビニング結果の表示
- ファイルへのビニング結果の保存
- コマンドラインを使用した索引作成ジョブの実行
- カテゴリ化結果を作成するジョブの実行
- クラスタ化結果を作成するジョブの実行
- ビニング結果を作成するジョブの実行
- 空間をフィルタ処理するジョブの実行
- 場所の提案を取得ジョブの実行
- 空間結合を実行するジョブの実行
- パーティション化を実行するジョブの実行
- 複数の入力の使用
- ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロード
- 地球でのラスターの視覚化
- 単一のラスターまたは同じMBRを持つ複数のラスターの処理
- 地球からのモザイクの直接作成
- ラスター処理に対する演算の追加
- 地球からの傾斜イメージの直接作成
- 地球からのイメージ・ファイル形式の変更
2.12.1 SpatialViewerを使用したHadoop空間索引の作成
SpatialViewerを使用してHadoop空間索引を作成するには、次の手順に従います。
-
コンソール
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます -
「Spatial Index」をクリックします。
-
必要な詳細をすべて指定します。
-
索引名。
-
HDFSの索引へのファイルのパス。例:
/user/oracle/bdsg/tweets.json
。 -
新しい索引パス: これはジョブ出力パスです。例:
/user/oracle/bdsg/index
。 -
索引付けするジオメトリのSRID。例: 8307
-
索引付けするジオメトリの許容差。例: 0.05
-
入力形式クラス: 入力形式のクラス。例:
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
-
レコード情報プロバイダ・クラス: 空間情報を提供するクラス。例:
oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider
。注意:
InputFormat
クラスまたはRecordInfoProvider
クラスがAPI、またはHadoop APIクラスにない場合、ユーザー定義クラスのJARが提供されます。このjarを使用するには、/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/WEB-INF/lib
ディレクトリに追加し、サーバーを再起動する必要があります。 -
エンリッチメント・サービス(
MVSuggest
)を使用する必要があるかどうか。ジオメトリを場所の文字列から検出する場合は、MVSuggest
サービスを使用します。この場合、指定されたRecordInfoProvider
がインタフェースoracle.spatial.hadoop.vector.LocalizableRecordInfoProvider
を実装する必要があります。 -
MVSuggestテンプレート(オプション):
MVSuggest
サービスを使用する場合、索引の作成に使用するテンプレートを定義できます。
-
-
「Create」をクリックします。
ジョブを追跡するためにURLが表示されます。
2.12.2 Hadoop索引付き空間データの検索
Hadoop索引付き空間データを検索するには、次の手順を実行します。
-
コンソール
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます -
「Explore Data」をクリックします。
たとえば、次のことが可能です。
-
目的の索引付きデータを選択し、矩形ツールを使用して目的の領域内のデータを表示します。
-
背景地図のスタイルを変更します。
-
ヒート・マップを使用してデータを表示します。
2.12.3 SpatialViewerを使用したHadoop空間索引の作成
SpatialViewerを使用してSpark空間索引を作成するには、次の手順に従います。
-
コンソール
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vectorspark
を開きます -
「Spatial Index」をクリックします。
-
必要な詳細をすべて指定します。
-
索引名。
-
HDFSの索引へのファイルのパス。例:
/user/oracle/bdsg/tweets.json
。 -
新しい索引パス: これはジョブ出力パスです。例:
/user/oracle/bdsg/index
。 -
索引付けするジオメトリのSRID。例: 8307
-
索引付けするジオメトリの許容差。例: 0.05
-
入力形式クラス(オプション): 入力形式のクラス。例:
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
-
キー・クラス(入力形式クラスが定義されている場合は必須): 入力形式キーのクラス。例:
org.apache.hadoop.io.LongWritable
-
値クラス(入力形式クラスが定義されている場合は必須): 入力形式値のクラス。例:
org.apache.hadoop.io.Text
-
レコード情報プロバイダ・クラス: 空間情報を提供するクラス。例:
oracle.spatial.spark.vector.recordinfoprovider.GeoJsonRecordInfoProvider
注意:
InputFormat
クラスまたはRecordInfoProvider
クラスがAPI、またはHadoop APIクラスにない場合、ユーザー定義クラスのJARが提供されます。このjarを使用するには、/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/WEB-INF/lib directory
に追加し、サーバーを再起動する必要があります。
-
-
「Create」をクリックします。
ジョブを追跡するためにURLが表示されます。
2.12.4 Spark索引付き空間データの検索
Spark索引付き空間データを検索するには、次の手順を実行します。
-
コンソール
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vectorspark
を開きます -
「Explore Data」をクリックします。
たとえば、次のことが可能です。
-
目的の索引付きデータを選択し、矩形ツールを使用して目的の領域内のデータを表示します。
-
背景地図のスタイルを変更します。
2.12.5 SpatialViewerを使用したカテゴリ化ジョブの実行
カテゴリ化ジョブは空間索引の有無に関係なく実行できます。次の手順を実行します。
-
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。 -
「Categorization」、「Categorization Job」の順にクリックします。
-
「With Index」または「Without Index」のいずれかを選択し、必要に応じて次の詳細を入力します。
-
With Index
-
索引名
-
-
Without Index
-
データのパス: HDFSデータ・パスを入力します。例:
/user/oracle/bdsg/tweets.json
。 -
ユーザー・クラスのあるJAR (オプション):
InputFormat
クラスまたはRecordInfoProvider
クラスがAPI、またはHadoop APIクラスにない場合、ユーザー定義クラスのJARが提供されます。このjarを使用するには、/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/WEB-INF/lib
ディレクトリに追加し、サーバーを再起動する必要があります。 -
入力形式クラス: 入力形式のクラス。例:
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
-
レコード情報プロバイダ・クラス: 空間情報を提供するクラス。例:
oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider
。 -
エンリッチメント・サービス
MVSuggest
を使用する必要があるかどうか。ジオメトリを場所の文字列から検出する場合は、MVSuggest
サービスを使用します。この場合、指定されたRecordInfoProvider
がインタフェースoracle.spatial.hadoop.vector.LocalizableRecordInfoProvider
を実装する必要があります。 -
テンプレート: テーマ・マップを作成するテンプレート。
注意:
テンプレートが点ジオメトリ(都市など)を参照する場合、
MVSuggest
が使用されていないと、そのテンプレートに空白の結果が返されます。これは、空間操作がポリゴンの結果のみを返すためです。ヒント:
MVSuggest
サービスを使用したとき、結果と一致するすべてのテンプレートが提供されていれば、結果はさらに正確になります。たとえば、データが世界の都市、州、国、大陸部を参照する場合、結果を得るために最適なテンプレートは、「World Continents」、「World Countries」、「World State Provinces」、および「World Cities」になります。また、データがUSAの州および郡の場合、適切なテンプレートは「USA States」および「USA Counties」になります。MVSuggest
サービスを使用して作成した索引を選択した場合、最適な結果を得るには最上位の階層を選択します。たとえば、「World Countries」、「World State Provinces」、「World Cities」を使用して作成した場合は、「World Countries」をテンプレートとして使用します。 -
出力パス: Hadoopジョブ出力パス。例:
/user/oracle/bdsg/catoutput
-
結果名: 結果の名前。同じ名前の結果がテンプレートにある場合は上書きされます。例:
Tweets test
。
-
-
「Create」をクリックします。ジョブを追跡するためにURLが表示されます。
2.12.7 ファイルへのカテゴリ化結果の保存
カテゴリ化結果は、将来可能性があるアップロードや使用に備えてローカル・システム上のファイル(コマンド・ラインから実行されたジョブを使用して作成された結果ファイルなど)に保存できます。テンプレートは、フォルダ/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/templates
内にあります。テンプレートは各種機能を備えたGeoJSONファイルであり、機能にはすべてIDがあります。たとえば、テンプレート「USA States」の最初の機能は{"type":"Feature","_id":"WYOMING",
...から始まります。
結果は{"id":"JSONFeatureId","result":result}
の形式のJSONファイルになります。
たとえば、テンプレート「USA States」が選択されると、有効な結果は、{"id":"WYOMING","result":3232} {"id":"SOUTH DAKOTA","result":74968}
を含むファイルになります
2.12.8 テンプレートの作成および削除
新しいテンプレートを作成するには、次の手順を実行します。
- テンプレートJSONファイルをフォルダ
/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/templates/
に追加します。 - テンプレート構成ファイルをフォルダ
/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/templates/_config_
に追加します。
テンプレートを削除するには、ステップ1と2で追加したJSONファイルおよび構成ファイルを削除します。
2.12.9 テンプレートの構成
各テンプレートには構成ファイルがあります。テンプレート構成ファイルは、フォルダ/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/templates/_config_
内にあります。構成ファイルの名前は、テンプレート・ファイルと同じ名前に.json
ではなくconfig.json
を付けたものです。たとえば、テンプレート・ファイルusa_states.json
の構成ファイル名は usa_states.config.json
になります。構成パラメータは次のとおりです。
-
name: コンソールに表示されるテンプレートの名前。たとえば、
name: USA States
です。 -
display_attribute: カテゴリ化結果を表示するとき、カーソルがこのプロパティと機能の結果を表示する機能の上に移動します。たとえば、
display_attribute: STATE NAME
です。 -
point_geometry: テンプレートに点ジオメトリがある場合はtrue、ポリゴンの場合はfalseです。たとえば、
point_geometry: false
です。 -
child_templates (オプション): 使用できる複数の子テンプレートをカンマで区切ってリストできるテンプレートです。たとえば、
child_templates: ["world_states_provinces, usa_states(properties.COUNTRY CODE:properties.PARENT_REGION)"]
です。子テンプレートがリンク・フィールドを指定しない場合、親の機能にあるすべての機能は子の機能とみなされます。この場合、
world_states_provinces
はフィールドを指定しません。親と子の間のリンクが指定されている場合、空間関係は適用されず、機能プロパティのリンクがチェックされます。前述の例では、usa_states
との関係が現在のテンプレートのプロパティCOUNTRY CODE
およびテンプレート・ファイルusa_states.json
のプロパティPARENT_REGION
で検出されます。 -
srid: テンプレートのジオメトリのSRIDです。たとえば、
srid: 8307
です。 -
back_polygon_template_file_name (オプション): 定義済テンプレートを表示するときに、背景として設定されるポリゴン・ジオメトリのあるテンプレートです。たとえば、
back_polygon_template_file_name: usa_states
です。 -
vectorLayers:
MVSuggest
サービスに固有の構成です。次に例を示します。{ "vectorLayers": [ { "gnidColumns":["_GNID"], "boostValues":[2.0,1.0,1.0,2.0] } ] }
説明:
-
gnidColumnsはジオメトリ名IDを示すJsonファイル内の列名です。この値は
MVSuggest
で複数の言語をサポートする場合に使用されます。(ファイルtemplates/_geonames_/alternateNames.json
の値の参照を確認してください。)このプロパティのデフォルト値はありません。 -
boostValuesは浮動小数点の数値の配列であり、列が指定の行の「プロパティ」値の中にあることの重要性を示します。数値が大きいほど、そのフィールドの重要性も大きくなります。ゼロの値はフィールドが無視されることを意味します。boostValuesがない場合は、すべてのフィールドがデフォルト値の1.0をとり、重要性が同じプロパティであることを示します。
MVSuggest
サービスは、その値に応じて異なる結果を返します。次のプロパティのあるJsonファイルの場合、boost値は次のようになります。"properties":{"Name":"New York City","State":"NY","Country":"United States","Country Code":"US","Population":8491079,"Time Zone":"UTC-5"} "boostValues":[3.0,2.0,1.0,1.0,0.0,0.0]
-
2.12.10 SpatialViewerを使用したクラスタ化ジョブの実行
SpatialViewerを使用してクラスタ化ジョブを作成するには、次の手順に従います。
-
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます -
「Clustering」、「Clustering Job」の順にクリックします。
-
必要に応じて、次の詳細を指定します。
-
データのパス: HDFSデータ・パスを入力します。例:
/user/oracle/bdsg/tweets.json
。 -
ジオメトリのSRID。例: 8307
-
ジオメトリの許容差。例: 0.05
-
ユーザー・クラスのあるJAR (オプション):
InputFormat
クラスまたはRecordInfoProvider
クラスがAPI、またはHadoop APIクラスにない場合、ユーザー定義クラスのJARが提供されます。このjarを使用するには、/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/WEB-INF/lib
ディレクトリに追加し、サーバーを再起動する必要があります。 -
入力形式クラス: 入力形式のクラス。例:
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
-
レコード情報プロバイダ・クラス: 空間情報を提供するクラス。例:
oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider
。 -
クラスタの数: 検出されるクラスタの数。
-
出力パス: Hadoopジョブ出力パス。例:
/user/oracle/bdsg/catoutput
-
結果名: 結果の名前。同じ名前の結果がテンプレートにある場合は上書きされます。たとえば、「Tweets test」などです。
-
-
「Create」をクリックします。
ジョブを追跡するためにURLが表示されます。
2.12.11 クラスタ化結果の表示
クラスタ化結果を表示するには、次の手順を実行します。
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。- 「Clustering」、「Results」の順にクリックします。
- 表示されている結果のいずれかをクリックします。
2.12.12 ファイルへのクラスタ化結果の保存
クラスタ化結果は、後でアップロードおよび使用するためにローカル・システム上のファイルに保存できます。クラスタ化結果をファイルに保存するには、次の手順を実行します。
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。- 「Clustering」、「Results」の順にクリックします。
- 結果を保存するためのアイコンをクリックします。
- 名前を指定します。
- ジオメトリのSRIDを指定します。例: 8307
- 「Choose File」をクリックし、ファイルの場所を選択します。
- 「Save」をクリックします。
2.12.13 SpatialViewerを使用したビニング・ジョブの実行
ビニング・ジョブは空間索引の有無に関係なく実行できます。次の手順を実行します。
-
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。 -
「Binning」、「Binning Job」の順にクリックします。
-
「With Index」または「Without Index」のいずれかを選択し、必要に応じて次の詳細を入力します。
-
With Index
-
索引名
-
-
Without Index
-
データのパス: HDFSデータ・パスを入力します。例:
/user/oracle/bdsg/tweets.json
-
ジオメトリのSRID。例: 8307
-
ジオメトリの許容差。例: 0.05
-
ユーザー・クラスのあるJAR (オプション):
InputFormat
クラスまたはRecordInfoProvider
クラスがAPI、またはHadoop APIクラスにない場合、ユーザー定義クラスのJARが提供されます。このjarを使用するには、/opt/oracle/oracle-spatial-graph/spatial/web-server/spatialviewer/WEB-INF/lib
ディレクトリに追加し、サーバーを再起動する必要があります。 -
入力形式クラス: 入力形式のクラス。例:
oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat
-
レコード情報プロバイダ・クラス: 空間情報を提供するクラス。例:
oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider
。
-
-
-
ビニングおよび最小外接矩形(MBR)。地図上のMBR表示するためのアイコンをクリックできます。
-
ビニング形状: 六角形(六角形の幅を指定します)または矩形(幅と高さを指定します)。
-
テーマ属性: ジョブに索引が使用される場合、ダブルクリックして使用可能な値を表示します。これらは、索引の作成時に使用された
RecordInfoProvider
の関数getExtraFields
によって返されたものです。ジョブに索引が使用されない場合、フィールドは、指定したRecordInfoProvider
クラスの関数getExtraFields
によって返されるフィールドの1つである場合があります。いずれの場合も、count
属性は常に使用可能であり、この属性により、ビン内のレコードの数を指定します。 -
出力パス: Hadoopジョブ出力パス。例:
/user/oracle/bdsg/binningOutput
-
結果名: 結果の名前。同じ名前の結果がテンプレートにある場合は上書きされます。たとえば、「Tweets test」などです。
「Create」をクリックします。ジョブを追跡するためにURLが表示されます。
2.12.14 ビニング結果の表示
ビニング結果を表示するには、次の手順を実行します。
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。- 「Binning」、「Results」の順にクリックします。
- 表示されている結果のいずれかをクリックします。
2.12.15 ファイルへのビニング結果の保存
ビニング結果は、後でアップロードおよび使用するためにローカル・システム上のファイルに保存できます。ビニング結果をファイルに保存するには、次の手順を実行します。
http://<oracle_big_data_spatial_vector_console>:8045/spatialviewer/?root=vector
を開きます。- 「Binning」、「View Results」の順にクリックします。
- 結果を保存するためのアイコンをクリックします。
- ジオメトリのSRIDを指定します。例: 8307
- テーマ属性を指定しますが、これは、結果内の機能のプロパティである必要があります。たとえば、カウント属性を使用して、ビン当たりの結果の数に応じて結果を作成できます。
- 「Choose File」をクリックし、ファイルの場所を選択します。
- 「Save」をクリックします。
2.12.16 コマンドラインを使用した索引作成ジョブの実行
空間索引を作成するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH>/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing [generic options] input=<path|comma_separated_paths|path_pattern> output=<path> inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<minX,minY,maxX,maxY>] [indexName=<index_name>] [indexMetadataDir=<path>] [overwriteIndexMetadata=<true|false>] [ mvsLocation=<path|URL> [mvsMatchLayers=<comma_separated_layers>][mvsMatchCountry=<country_name>][mvsSpatialResponse=<[NONE, FEATURE_GEOMETRY, FEATURE_CENTROID]>][mvsInterfaceType=<LOCAL, WEB>][mvsIsRepository=<true|false>][rebuildMVSIndex=<true|false>][mvsPersistentLocation=<hdfs_path>][mvsOverwritePersistentLocation=<true|false>] ]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing
をoracle.spatial.hadoop.vector.mapreduce.job.SpatialIndexing
に置き換えます。
入力/出力引数:
-
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。 -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。 -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。 -
output
: 空間索引の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値
空間索引メタデータの引数:
-
indexName
(オプション、デフォルト=出力フォルダ名): 生成対象の索引の名前。 -
indexMetadataDir
(オプション、デフォルト=hdfs://server:port/user/<current_user>/またはoracle_spatial/index_metadata/): 空間索引メタデータの格納先のディレクトリ。 -
overwriteIndexMetadata
(オプション、デフォルト=false)同じ名前の索引がすでに存在する場合に索引メタデータを上書きできるかどうかを示すブール引数。
MVSuggest
引数:
-
mvsLocation
: リモート・インスタンスの操作時のサービスURLまたはMVSuggestのローカル・スタンドアロン・インスタンスのMVSuggestディレクトリまたはリポジトリへのパス。この引数は、MVSuggestを操作するときに必要です。 -
mvsMatchLayers
(オプション、デフォルト=all): カンマ区切りのレイヤーのリスト。指定されている場合、MVSuggestでは、検索の実行時にこれらのレイヤーのみが使用されます。 -
mvsMatchCountry
(オプション、デフォルト=none): MVSuggestでの照合の実行時により高い優先度が与えられる国名。 -
mvsSpatialResponse
(オプション、デフォルト=CENTROID): 返された各照合結果に含まれる空間結果のタイプ。使用可能な値は、NONE、FEATURE_GEOMETRY、FEATURE_CENTROIDです。 -
mvsInterfaceType
(オプション、デフォルト=LOCAL): 使用されるMVSuggestサービスのタイプで、LOCALまたはWEBがあります。 -
mvsIsRepository
(オプション、デフォルト=false) (LOCALのみ): mvsLocationがMVSディレクトリ全体(false)を指し示すかリポジトリのみ(true)を指し示すかを示すブール値。MVSリポジトリにはJSONテンプレートのみを含めることができます。_config_や_geonames_フォルダが含まれる場合や含まれない場合があります。 -
mvsRebuildIndex
(オプション、デフォルト=false) (LOCALのみ): リポジトリ索引を再構築する必要があるかどうかを示すブール値。 -
mvsPersistentLocation
(オプション、デフォルト=none) (LOCALのみ): MVSuggestディレクトリの保存先のHDFSパス。 -
mvsIsOverwritePersistentLocation
(オプション、デフォルト=false): 既存のmvsPersistentLocationが存在する場合に上書きする必要があるかどうかを示すブール引数。
例: indexExample
と呼ばれる空間索引を作成します。索引メタデータは、HDFSディレクトリspatialMetadata
に格納されます。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing input="/user/hdfs/demo_vector/tweets/part*" output=/user/hdfs/demo_vector/tweets/spatial_index inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider srid=8307 geodetic=true tolerance=0.5 indexName=indexExample indexMetadataDir=indexMetadataDir overwriteIndexMetadata=true
例: MVSuggest
を使用して空間索引を作成し、ジオメトリが含まれないレコードに空間の場所を割り当てます。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialIndexing input="/user/hdfs/demo_vector/tweets/part*" output=/user/hdfs/demo_vector/tweets/spatial_index inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=mypackage.Simple LocationRecordInfoProvider srid=8307 geodetic=true tolerance=0.5 indexName=indexExample indexMetadataDir=indexMetadataDir overwriteIndexMetadata=true mvsLocation=file:///local_folder/mvs_dir/oraclemaps_pub/ mvsRepository=true
2.12.17 カテゴリ化結果を作成するジョブの実行
カテゴリ化結果を作成するには、次の形式の1つのコマンドを使用します。
空間索引がある場合
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Categorization [generic options] ( indexName=<indexName> [indexMetadataDir=<path>] ) | ( input=<path|comma_separated_paths|path_pattern> isInputIndex=true [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>] ) output=<path> hierarchyIndex=<hdfs_hierarchy_index_path> hierarchyInfo=<HierarchyInfo_subclass> [hierarchyDataPaths=<level1_path,level2_path,,levelN_path>] spatialOperation=<[None, IsInside, AnyInteract]>
空間索引がない場合
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Categorization [generic options] input=<path|comma_separated_paths|path_pattern> inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>] output=<path> hierarchyIndex=<hdfs_hierarchy_index_path> hierarchyInfo=<HierarchyInfo_subclass> hierarchyDataPaths=<level1_path,level2_path,,levelN_path>] spatialOperation=<[None, IsInside, AnyInteract]>
MVSuggestの使用
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Categorization [generic options] (indexName=<indexName> [indexMetadataDir=<path>]) | ( (input=<path|comma_separated_paths|path_pattern> isInputIndex=true) | (input=<path|comma_separated_paths|path_pattern> inputFormat=<InputFormat_subclass> recordInfoProvider=<LocalizableRecordInfoProvider_subclass>) [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>] ) output=<path> mvsLocation=<path|URL> [mvsMatchLayers=<comma_separated_layers>] [mvsMatchCountry=<country_name>] [mvsSpatialResponse=<[NONE, FEATURE_GEOMETRY, FEATURE_CENTROID]>] [mvsInterfaceType=<[UNDEFINED, LOCAL, WEB]>] [mvsIsRepository=<true|false>] [mvsRebuildIndex=<true|false>] [mvsPersistentLocation=<hdfs_path>] [mvsOverwritePersistentLocation=<true|false>] [mvsMaxRequestRecords=<integer_number>] hierarchyIndex=<hdfs_hierarchy_index_path> hierarchyInfo=<HierarchyInfo_subclass>
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.Categorization
をoracle.spatial.hadoop.vector.mapreduce.job.Categorization
に置き換えます。
入力/出力引数:
-
indexName
: 既存の空間索引の名前。索引情報は、indexMetadataDirによって示されるパスで参照します。使用されている場合、引数input
は無視されます。 -
indexMetadataDir
(オプション、デフォルト=hdfs://server:port/user/<current_user>/oracle_spatial/index_metadata/): 空間索引メタデータの格納先のディレクトリ -
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。(indexName
が指定されている場合は無視されます。) -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。(indexName
が指定されている場合は無視されます。) -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。(indexName
が指定されている場合は無視されます。) -
output
: 空間索引の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値 -
spatialOperation
: 入力データ・セットと階層データ・セットの間で実行する空間操作。使用可能な値は、IsInside
およびAnyInteract
です。
階層データ・セットの引数:
-
hierarchyIndex
: 既存の階層索引のHDFSパス、または階層索引を生成する必要がある場合に階層索引を格納できるHDFSパス。 -
hierarchyInfo
: 階層データを記述するために使用されるHierarchyInfo
サブクラスの完全修飾名。 -
hierarchyDataPaths
(オプション、デフォルト=none): 階層データのパスのカンマ区切りのリスト。これらのパスは、階層レベル別に昇順でソートする必要があります。特定の階層データの階層索引パスが存在しない場合、この引数が必要です。
MVSuggest
引数:
-
mvsLocation
: リモート・インスタンスの操作時のサービスURLまたはMVSuggestのローカル・スタンドアロン・インスタンスのMVSuggestディレクトリまたはリポジトリへのパス。この引数は、MVSuggestを操作するときに必要です。 -
mvsMatchLayers
(オプション、デフォルト=all): カンマ区切りのレイヤーのリスト。指定されている場合、MVSuggestでは、検索の実行時にこれらのレイヤーのみが使用されます。 -
mvsMatchCountry
(オプション、デフォルト=none): MVSuggestでの照合の実行時により高い優先度が与えられる国名。 -
mvsSpatialResponse
(オプション、デフォルト=CENTROID): 返された各照合結果に含まれる空間結果のタイプ。使用可能な値は、NONE、FEATURE_GEOMETRY、FEATURE_CENTROIDです。 -
mvsInterfaceType
(オプション、デフォルト=LOCAL): 使用されるMVSuggestサービスのタイプで、LOCALまたはWEBがあります。 -
mvsIsRepository
(オプション、デフォルト=false) (LOCALのみ):mvsLocation
がMVSディレクトリ全体(false)を指し示すかリポジトリのみ(true)を指し示すかを示すブール値。MVSリポジトリにはJSONテンプレートのみを含めることができます。_config_
や_geonames_
フォルダが含まれる場合や含まれない場合があります。 -
mvsRebuildIndex
(オプション、デフォルト=false) (LOCALのみ): リポジトリ索引を再構築する必要があるかどうかを示すブール値。 -
mvsPersistentLocation
(オプション、デフォルト=none) (LOCALのみ): MVSuggestディレクトリの保存先のHDFSパス。 -
mvsIsOverwritePersistentLocation
(オプション、デフォルト=false): 既存のmvsPersistentLocation
が存在する場合に上書きする必要があるかどうかを示すブール引数。
例: 大陸部、国、および州別にレコード数が含まれるサマリーを作成するためのカテゴリ化ジョブを実行します。この入力は、indexExample
と呼ばれる既存の空間索引です。階層データは、索引が付けられ、パスhierarchyIndex
でHDFSに格納されます。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Categorization indexName= indexExample output=/user/hdfs/demo_vector/tweets/hier_count_spatial hierarchyInfo=vectoranalysis.categorization.WorldAdminHierarchyInfo hierarchyIndex=hierarchyIndex hierarchyDataPaths=file:///templates/world_continents.json,file:///templates/world_countries.json,file:///templates/world_states_provinces.json spatialOperation=IsInside
例: MVSuggest
を使用して大陸部、国、州、および都市当たりのツイート数のサマリーを作成するためのカテゴリ化ジョブを実行します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Categorization input="/user/hdfs/demo_vector/tweets/part*" inputFormat=<InputFormat_subclass> recordInfoProvider=<LocalizableRecordInfoProvider_subclass> output=/user/hdfs/demo_vector/tweets/hier_count_mvs hierarchyInfo=vectoranalysis.categorization.WorldAdminHierarchyInfo hierarchyIndex=hierarchyIndex mvsLocation=file:///mvs_dir mvsMatchLayers=world_continents,world_countries,world_states_provinces spatialOperation=IsInside
2.12.18 クラスタ化結果を作成するジョブの実行
クラスタ化結果を作成するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.KMeansClustering [generic options] input=<path|comma_separated_paths|path_pattern> inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> output=<path> [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>] k=<number_of_clusters> [clustersPoints=<comma_separated_points_ordinates>] [deleteClusterFiles=<true|false>] [maxIterations=<integer_value>] [critFunClass=<CriterionFunction_subclass>] [shapeGenClass=<ClusterShapeGenerator_subclass>] [maxMemberDistance=<double_value>]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.KMeansClustering
をoracle.spatial.hadoop.vector.mapreduce.job.KMeansClustering
に置き換えます。
入力/出力引数:
-
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。 -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。 -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。 -
output
: 空間索引の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値 -
spatialOperation
: 入力データ・セットと階層データ・セットの間で実行する空間操作。使用可能な値は、IsInside
およびAnyInteract
です。
クラスタ化の引数:
-
k
: 検出されるクラスタの数。 -
clusterPoints
(オプション、デフォルト=none): p1_x,p1_y,p2_x,p2_y,…,pk_x,pk_y形式の点座標のカンマ区切りのリストである初期のクラスタの中心 -
deleteClusterFiles
(オプション、デフォルト=true): 各反復の間に生成される中間クラスタ・ファイルを削除する必要があるかどうかを示すブール引数 -
maxIterations
(オプション、デフォルト=数値kに基づいて計算されます): ジョブが完了するまでに許可される反復の最大回数。 -
critFunClass
(オプション、デフォルト=oracle.spatial.hadoop.vector.cluster.kmeans.SquaredErrorCriterionFunction):CriterionFunction
サブクラスの完全修飾名。 -
shapeGenClass
(オプション、デフォルト=oracle.spatial.hadoop.vector.cluster.kmeans.ConvexHullClusterShapeGenerator) クラスタのジオメトリを生成するために使用されるClusterShapeGenerator
サブクラスの完全修飾名。 -
maxMemberDistance
(オプション、デフォルト=undefined): クラスタの中心とクラスタ・メンバーの間の最大距離を示すdouble値。
例: 5つのクラスタを生成するクラスタ化ジョブを実行します。シェルされたクラスタ・ジオメトリはすべての凸包になります。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.KMeansClustering input="/user/hdfs/demo_vector/tweets/part*" output=/user/hdfs/demo_vector/tweets/result inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider srid=8307 geodetic=true tolerance=0.5 k=5 shapeGenClass=oracle.spatial.hadoop.vector.cluster.kmeans.ConvexHullClusterShapeGenerator
2.12.19 ビニング結果を作成するジョブの実行
ビニング結果を作成するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Binning [generic options] (indexName=<INDEX_NAME> [indexMetadataDir=<INDEX_METADATA_DIRECTORY>]) | (input=<DATA_PATH> inputFormat=<INPUT_FORMAT_CLASS> recordInfoProvider=<RECORD_INFO_PROVIDER_CLASS> [srid=<SRID>] [geodetic=<GEODETIC>] [tolerance=<TOLERANCE>]) output=<RESULT_PATH> cellSize=<CELL_SIZE> gridMbr=<GRID_MBR> [cellShape=<CELL_SHAPE>] [aggrFields=<EXTRA_FIELDS>]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.Binning
をoracle.spatial.hadoop.vector.mapreduce.job.Binning
に置き換えます。
入力/出力引数:
-
indexName
: 既存の空間索引の名前。索引情報は、indexMetadataDirによって示されるパスで参照します。使用されている場合、引数input
は無視されます。 -
indexMetadataDir
(オプション、デフォルト=hdfs://server:port/user/<current_user>/oracle_spatial/index_metadata/): 空間索引メタデータの格納先のディレクトリ -
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。 -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。 -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。 -
output
: 空間索引の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。
ビニングの引数:
-
cellSize
: width,heightの形式のセルのサイズ -
gridMbr
: minX,minY,maxX,maxYの形式のグリッドの最小および最大次元値 -
cellShape
(オプション、デフォルト=RECTANGLE): セルの形状。使用可能な値は、RECTANGLEまたはHEXAGONです -
aggrFields
(オプション、デフォルト=none): 集計されるフィールド名のカンマ区切りのリスト。
例: 六角形のセルのグリッドを生成し、フィールドSALESの値を集計する空間ビニング・ジョブを実行します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Binning indexName=indexExample indexMetadataDir=indexMetadataDir output=/user/hdfs/demo_vector/result cellShape=HEXAGON cellSize=5 gridMbr=-175,-85,175,85 aggrFields=SALES
2.12.20 空間をフィルタ処理するジョブの実行
空間フィルタ処理を実行するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialFilter [generic options] ( indexName=<indexName> [indexMetadataDir=<path>] ) | ( (input=<path|comma_separated_paths|path_pattern> isInputIndex=true) | (input=<path|comma_separated_paths|path_pattern> inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass>) [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>] ) output=<path> spatialOperation=<[IsInside, AnyInteract]> queryWindow=<json-geometry>
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.SpatialFilter
をoracle.spatial.hadoop.vector.mapreduce.job.SpatialFilter
に置き換えます。
入力/出力引数:
-
indexName
: 既存の空間索引の名前。索引情報は、indexMetadataDirによって示されるパスで参照します。使用されている場合、引数input
は無視されます。 -
indexMetadataDir
(オプション、デフォルト=hdfs://server:port/user/<current_user>/oracle_spatial/index_metadata/): 空間索引メタデータの格納先のディレクトリ -
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。 -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。 -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。 -
output
: 空間索引の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。
ビニングの引数:
-
cellSize
: width,heightの形式のセルのサイズ -
gridMbr
: minX,minY,maxX,maxYの形式のグリッドの最小および最大次元値 -
cellShape
(オプション、デフォルト=RECTANGLE): セルの形状。使用可能な値は、RECTANGLEまたはHEXAGONです -
aggrFields
(オプション、デフォルト=none): 集計されるフィールド名のカンマ区切りのリスト。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値 -
spatialOperation
: 入力データ・セットからのジオメトリとqueryWindowの間で適用する操作 -
queryWindow
: 入力データ・セットをフィルタ処理するために使用されるジオメトリ。
例: 空間フィルタ処理操作を実行します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialFilter indexName=indexExample indexMetadataDir=indexMetadataDir output=/user/hdfs/demo_vector/result spatialOperation=IsInside queryWindow='{"type":"Polygon", "coordinates":[[-106, 25, -106, 30, -104, 30, -104, 25, -106, 25]]}'
2.12.21 場所の提案を取得するジョブの実行
場所の提案を取得するジョブを作成するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SuggestService [generic options] input=<path|comma_separated_paths|path_pattern> inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> output=<path> mvsLocation=<path|URL> [mvsMatchLayers=<comma_separated_layers>] [mvsMatchCountry=<country_name>] [mvsSpatialResponse=<[NONE, FEATURE_GEOMETRY, FEATURE_CENTROID]>] [mvsInterfaceType=<[UNDEFINED, LOCAL, WEB]>] [mvsIsRepository=<true|false>] [mvsRebuildIndex=<true|false>] [mvsPersistentLocation=<hdfs_path>] [mvsOverwritePersistentLocation=<true|false>] [mvsMaxRequestRecords=<integer_number>]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.SuggestService
をoracle.spatial.hadoop.vector.mapreduce.job.SuggestService
に置き換えます。
入力/出力引数:
-
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。(indexName
が指定されている場合は無視されます。) -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。(indexName
が指定されている場合は無視されます。) -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。(indexName
が指定されている場合は無視されます。) -
output
: 空間索引の格納先のパス
MVSuggest
引数:
-
mvsLocation
: リモート・インスタンスの操作時のサービスURLまたはMVSuggestのローカル・スタンドアロン・インスタンスのMVSuggestディレクトリまたはリポジトリへのパス。この引数は、MVSuggestを操作するときに必要です。 -
mvsMatchLayers
(オプション、デフォルト=all): カンマ区切りのレイヤーのリスト。指定されている場合、MVSuggestでは、検索の実行時にこれらのレイヤーのみが使用されます。 -
mvsMatchCountry
(オプション、デフォルト=none): MVSuggestでの照合の実行時により高い優先度が与えられる国名。 -
mvsSpatialResponse
(オプション、デフォルト=CENTROID): 返された各照合結果に含まれる空間結果のタイプ。使用可能な値は、NONE、FEATURE_GEOMETRY、FEATURE_CENTROIDです。 -
mvsInterfaceType
(オプション、デフォルト=LOCAL): 使用されるMVSuggestサービスのタイプで、LOCALまたはWEBがあります。 -
mvsIsRepository
(オプション、デフォルト=false) (LOCALのみ):mvsLocation
がMVSディレクトリ全体(false)を指し示すかリポジトリのみ(true)を指し示すかを示すブール値。MVSリポジトリにはJSONテンプレートのみを含めることができます。_config_
や_geonames_
フォルダが含まれる場合や含まれない場合があります。 -
mvsRebuildIndex
(オプション、デフォルト=false) (LOCALのみ): リポジトリ索引を再構築する必要があるかどうかを示すブール値。 -
mvsPersistentLocation
(オプション、デフォルト=none) (LOCALのみ): MVSuggestディレクトリの保存先のHDFSパス。 -
mvsIsOverwritePersistentLocation
(オプション、デフォルト=false): 既存のmvsPersistentLocation
が存在する場合に上書きする必要があるかどうかを示すブール引数。
例: 入力データ・セットからの場所テキストに基づいて提案を取得します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SuggestService input="/user/hdfs/demo_vector/tweets/part*" inputFormat=<InputFormat_subclass> recordInfoProvider=<LocalizableRecordInfoProvider_subclass> output=/user/hdfs/demo_vector/tweets/suggest_res mvsLocation=file:///mvs_dir mvsMatchLayers=world_continents,world_countries,world_states_provinces
2.12.22 空間結合を実行するジョブの実行
2つのデータ・セットに対して空間結合ジョブを実行するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job. SpatialJoin [generic options] inputList={ { ( indexName=<dataset1_spatial_index_name> indexMetadataDir=<dataset1_spatial_index_metadata_dir_path> ) | ( input=<dataset1_path|comma_separated_paths|path_pattern> inputFormat=<dataset1_InputFormat_subclass> recordInfoProvider=<dataset1_RecordInfoProvider_subclass> ) [boundaries=<min_x,min_y,max_x,max_y>] } { (indexName=<dataset2_spatial_index_name> indexMetadataDir=<dataset2_spatial_index_metadata_dir_path> ) | ( input=<dataset2_path|comma_separated_paths|path_pattern> inputFormat=<dataset2_InputFormat_subclass> recordInfoProvider=<dataset2_RecordInfoProvider_subclass> ) [boundaries=<min_x,min_y,max_x,max_y>] } } output=<path>[srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] boundaries=<min_x,min_y,max_x,max_y> spatialOperation=<AnyInteract|IsInside|WithinDistance> [distance=<double_value>] [samplingRatio=<decimal_value_between_0_and_1> | partitioningResult=<path>]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.SpatialJoin
をoracle.spatial.hadoop.vector.mapreduce.job.SpatialJoin
に置き換えます。
InputList
: 2つの入力データ・セットのリスト。このリストは、中カッコ({})で囲まれます。各リスト要素は、中カッコで囲まれた入力データ・セットです。入力データ・セットには、データ・セットを空間索引として指定するかどうかに応じて、次の情報が含まれます。
空間索引として指定される場合:
-
indexName
: 既存の空間索引の名前。 -
indexMetadataDir
: 空間索引メタデータが配置されるディレクトリ
空間索引として指定されない場合:
-
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。(indexName
が指定されている場合は無視されます。) -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。(indexName
が指定されている場合は無視されます。) -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。(indexName
が指定されている場合は無視されます。)
output
: 結果の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値 -
spatialOperation
: 入力データ・セットと階層データ・セットの間で実行する空間操作。使用可能な値は、IsInside
およびAnyInteract
です。 -
distance
:WithinDistance
操作に使用される距離。
パーティション化の引数:
-
samplingRatio
(オプション、デフォルト=0.1): パーティション化を実行する必要がある場合にデータ・セットをサンプリングするために使用される比率 -
partitioningResult
(オプション、デフォルト=none): 前に生成されたパーティション化結果ファイルへのパス
例: 2つのデータ・セットに対して空間結合を実行します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.SpatialJoin inputList="{{input=/user/hdfs/demo_vector/world_countries.json inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider} {input=file="/user/hdfs/demo_vector/tweets/part*��� inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider}}" output=/user/hdfs/demo_vector/spatial_join srid=8307 spatialOperation=AnyInteract boundaries=-180,-90,180,90
2.12.23 パーティション化を実行するジョブの実行
空間パーティション化を実行するには、次の形式のコマンドを使用します。
hadoop jar <HADOOP_LIB_PATH >/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job. SpatialJoin [generic options] inputList={ { ( indexName=<dataset1_spatial_index_name> indexMetadataDir=<dataset1_spatial_index_metadata_dir_path> ) | ( input=<dataset1_path|comma_separated_paths|path_pattern> inputFormat=<dataset1_InputFormat_subclass> recordInfoProvider=<dataset1_RecordInfoProvider_subclass> ) [boundaries=<min_x,min_y,max_x,max_y>] } [ { (indexName=<dataset2_spatial_index_name> indexMetadataDir=<dataset2_spatial_index_metadata_dir_path> ) | ( input=<dataset2_path|comma_separated_paths|path_pattern> inputFormat=<dataset2_InputFormat_subclass> recordInfoProvider=<dataset2_RecordInfoProvider_subclass> ) [boundaries=<min_x,min_y,max_x,max_y>] } ������ { (indexName=<datasetN_spatial_index_name> indexMetadataDir=<datasetN_spatial_index_metadata_dir_path> ) | ( input=<datasetN_path|comma_separated_paths|path_pattern> inputFormat=<datasetN_InputFormat_subclass> recordInfoProvider=<datasetN_RecordInfoProvider_subclass> ) [boundaries=<min_x,min_y,max_x,max_y>] } } ] output=<path>[srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] boundaries=<min_x,min_y,max_x,max_y> [samplingRatio=<decimal_value_between_0_and_1>]
新しいHadoop API形式を使用するには、oracle.spatial.hadoop.vector.mapred.job.Partitioning
をoracle.spatial.hadoop.vector.mapreduce.job.Partitioning
に置き換えます。
InputList
: 2つの入力データ・セットのリスト。このリストは、中カッコ({})で囲まれます。各リスト要素は、中カッコで囲まれた入力データ・セットです。入力データ・セットには、データ・セットを空間索引として指定するかどうかに応じて、次の情報が含まれます。
空間索引として指定される場合:
-
indexName
: 既存の空間索引の名前。 -
indexMetadataDir
: 空間索引メタデータが配置されるディレクトリ
空間索引として指定されない場合:
-
input
: 入力データの場所。これは、パス、カンマ区切りのパスのリスト、または正規表現として表すことができます。(indexName
が指定されている場合は無視されます。) -
inputFormat
: 入力データを読み取るために使用されるinputFormat
クラス実装。(indexName
が指定されている場合は無視されます。) -
recordInfoProvider
:InputFormat
クラスによって読み取られたレコードから情報を抽出するために使用されるrecordInfoProvider
実装。(indexName
が指定されている場合は無視されます。)
output
: 結果の格納先のパス
空間引数:
-
srid
(オプション、デフォルト=0): 空間データの空間参照システム(座標系) ID。 -
geodetic
(オプション、デフォルトはSRIDによって異なります): ジオメトリが測地であるかどうかを示すブール値。 -
tolerance
(オプション、デフォルト=0.0): 空間操作の実行時に使用される許容差を表すdouble値。 -
boundaries
(オプション、デフォルト=unbounded): minX,minY,maxX,maxYの形式でカンマ区切りの値として表される各次元の最小値および最大値
パーティション化の引数:
-
samplingRatio
(オプション、デフォルト=0.1): パーティション化を実行する必要がある場合にデータ・セットをサンプリングするために使用される比率
例: 2つのデータ・セットをパーティション化します。
hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop/lib/sdohadoop-vector.jar oracle.spatial.hadoop.vector.mapred.job.Partitioning inputList="{{input=/user/hdfs/demo_vector/world_countries.json inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider} {input=file="/user/hdfs/demo_vector/tweets/part*��� inputFormat=oracle.spatial.hadoop.vector.geojson.mapred.GeoJsonInputFormat recordInfoProvider=oracle.spatial.hadoop.vector.geojson.GeoJsonRecordInfoProvider}}" output=/user/hdfs/demo_vector/partitioning srid=8307 boundaries=-180,-90,180,90
2.12.24 複数の入力の使用
inputList
パラメータを使用してコマンド・ライン・インタフェースを介してVectorジョブに対して複数の入力データ・セットを指定できます。inputList
パラメータ値は、入力データ・セットのグループです。inputList
パラメータの形式は、次のとおりです。
inputList={ {input_data_set_1_params} {input_data_set_2_params} ��� {input_data_set_N_params} }
各入力データ・セットとして使用可能なのは、次の入力データ・セットのいずれかです。
-
非ファイル入力データ・セット:
inputFormat=<InputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>]
-
ファイル入力データ・セット:
input=<path|comma_separated_paths|path_pattern> inputFormat=<FileInputFormat_subclass> recordInfoProvider=<RecordInfoProvider_subclass> [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>]
-
空間索引入力データ・セット:
( ( indexName=<<indexName>> [indexMetadataDir=<<path>>]) | ( isInputIndex=<true> input=<path|comma_separated_paths|path_pattern> ) ) [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>]
-
NoSQL入力データ・セット:
kvStore=<kv store name> kvStoreHosts=<comma separated list of hosts> kvParentKey=<parent key> [kvConsistency=<Absolute|NoneRequired|NoneRequiredNoMaster>] [kvBatchSize=<integer value>] [kvDepth=<CHILDREN_ONLY|DESCENDANTS_ONLY|PARENT_AND_CHILDREN|PARENT_AND_DESCENDANTS>] [kvFormatterClass=<fully qualified class name>] [kvSecurity=<properties file path>] [kvTimeOut=<long value>] [kvDefaultEntryProcessor=<fully qualified class name>] [kvEntryGrouper=<fully qualified class name>] [ kvResultEntries={ { minor key 1: a minor key name relative to the major key [fully qualified class name: a subclass of NoSQLEntryProcessor class used to process the entry with the given key] } * } ] [srid=<integer_value>] [geodetic=<true|false>] [tolerance=<double_value>] [boundaries=<min_x,min_y,max_x,max_y>]
注意:
-
カテゴリ化ジョブは、複数の入力データ・セットをサポートしていません。
-
SpatialJoinジョブは、2つの入力データ・セットのみをサポートしています。
-
SpatialIndexingジョブは、空間索引タイプの入力データ・セットを受け入れません。
-
NoSQL入力データ・セットを使用できるのは、クラスパス内にkvstore.jarが存在する場合のみです。
2.12.25 ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロード
注意:
ラスター・ファイルが見つからない場合は、インストール中に作成される共有ディレクトリ・フォルダにそれらをコピーできます。「Admin」タブでディレクトリの場所を確認し、ラスター・ファイルをその場所にコピーします。
エラーが発生した場合は、ラスター構成の詳細を確認してください。GDALネイティブ・ライブラリの設定が正しくない場合は、Webアプリケーションのラスター機能の大部分が動作しなくなります。
2.12.26 地球でのラスターの視覚化
地球でラスターを視覚化する前に、ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロードで説明されているように、ラスター・ファイルをHDFSにアップロードする必要があります。
2.12.27 単一のラスターまたは同じMBRを持つ複数のラスターの処理
地球でラスターを視覚化する前に、ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロードで説明されているように、ラスター・ファイルをHDFSにアップロードする必要があります。
同じMBR(最小外接矩形)を持つラスターを処理するには、ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロードで説明されているように、ラスター・ファイルをHDFSにアップロードし、地球でのラスターの視覚化で説明されているように、ラスターを視覚化する必要があります。
2.12.28 地球からのモザイクの直接作成
モザイク・イメージを作成する前に、ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロードで説明されているように、ラスター・ファイルをHDFSにアップロードする必要があります。
注意:
現時点でSparkラスター処理は、Hadoopラスター処理に指定されたすべてのオプションをサポートしているわけではありません。Sparkラスター処理の場合は、「Admin」タブの「Spark Configuration」セクションに追加の構成パラメータを指定する必要があります。
-
spark.driver.extraClassPath, spark.executor.extraClassPath
: これらのキーを使用して、Hiveライブラリのインストール環境を指定します。例:/usr/lib/hive/lib/*
-
spark.kryoserializer.buffer.max
: Kryoシリアライズをサポートするための値を入力します。例:160m
2.12.29 ラスター処理に対する演算の追加
ラスター処理またはイメージ・モザイク作成に対して代数演算を追加する前に、単一のラスターまたは同じMBRを持つ複数のラスターの処理の手順に従って、ラスター処理ダイアログが表示されるようにします。「Create Mosaic」をクリックする前に、次の手順を実行します。
注意:
Sparkを使用する一部のラスター処理操作の場合は、Sparkのドライバおよびエグゼキュータに、メモリーの詳細、および処理のラスターのサイズと詳細に応じた詳細を提供する必要があります。Sparkラスター処理の場合は、「Admin」タブの「Spark Configuration」セクションに追加の構成パラメータを指定する必要があります。
-
spark.driver.extraClassPath, spark.executor.extraClassPath
: これらのキーを使用して、Hiveライブラリのインストール環境を指定します。例:/usr/lib/hive/lib/*
-
spark.kryoserializer.buffer.max
: Kryoシリアライズをサポートするための値を入力します。例:160m
2.12.30 地球からの傾斜イメージの直接作成
モザイク・イメージを作成する前に、ローカル・サーバーからHDFS Hadoopクラスタへのイメージのロードで説明されているように、ラスター・ファイルをHDFSにアップロードする必要があります。
注意:
Sparkラスター処理では、カスタム処理クラスはまだサポートされていません。
2.12.31 地球からのイメージ・ファイル形式の変更
イメージ・ファイル形式を変更する前に、単一のラスターまたは同じMBRを持つ複数のラスターの処理の手順に従って、ラスター処理ダイアログが表示されるようにします。「Create Mosaic」をクリックする前に、次の手順を実行します。