19 明示的セマンティック分析

明示的セマンティック分析(ESA)を特徴抽出関数の教師なしアルゴリズムとして使用する方法、および分類の教師ありアルゴリズムとして使用する方法を学習します。

19.1 明示的セマンティック分析とは

明示的セマンティック分析(ESA)が、特徴抽出の教師なしアルゴリズムとして導入され、分類の教師ありアルゴリズムとして拡張されています。

特徴抽出アルゴリズムとしてのESAは、潜在的な特徴を検出するのではなく、既存のナレッジ・ベースに表れている明示的な特徴を使用します。特徴抽出アルゴリズムとしてのESAは、主にテキスト・ドキュメントの意味的類似性の計算と、明示的なトピックのモデル化に使用されます。分類アルゴリズムとしてのESAは、主にテキスト・ドキュメントの分類に使用されます。特徴抽出版および分類版のESAは両方とも、量的入力データおよび質的入力データに適用することもできます。

ESAへの入力は属性ベクターのセットです。すべての属性ベクターは、1つの概念に関連付けられています。概念とは、特徴抽出の場合は特徴、分類の場合はターゲット・クラスです。特徴抽出では、特徴に関連付けることができる属性ベクターは1つのみです。分類では、指定されたターゲット・クラスに関連付けられた複数個の属性ベクターをトレーニング・セットに含めることができます。1つのターゲット・クラスに関連するこれらの行は、ESAアルゴリズムによって1つに集約されます。

ESAの出力は、最も重要な属性と概念の相関が含まれるスパース属性概念マトリックスです。相関の強度は各属性と概念ペアの重みの値によって取得されます。属性と概念のマトリックスは、各属性の最も重要な概念をリストする逆インデックスとして格納されます。

ノート:

特徴抽出の場合、ESAアルゴリズムでは、元の特徴空間は投影されず、そのディメンション性が低下することはありません。ESAアルゴリズムは制限されたまたは有益でない属性セットの機能を除外します。

ESAで処理される分類タスクの範囲は、Naive Bayesやサポート・ベクター・マシンなどの分類アルゴリズムとは異なります。ESAは、個別クラスの数が何十万にもおよぶ大規模な分類を実行できます。大規模な分類では、膨大なトレーニング・データセットが必要となり、このようなデータセットでは、一部のクラスはかなりの数のトレーニング・サンプルを有しているが、他のクラスはトレーニング・データ・セット内にまばらに存在する可能性があります。

ESAトピック空間にドキュメントを投影すると、高次元のスパース・ベクターが作成されますが、他の機械学習アルゴリズムへの入力としては適していません。この問題に対処するために、埋込みが追加されています。自然言語処理では、埋込みとは、語、句またはドキュメントが実数のベクターにマップされる、一連の言語モデリングおよび機能学習手法を指します。これには、多次元空間から、かなり小さい次元の連続ベクター空間への数学的変換が必要になります。埋込みは通常、コンテキスト・データを収集するために既存のナレッジ・ベース上に作成されます。この方法は、ESAコンテキストを他の機械学習アルゴリズムで使用できるように維持しながら、高次元のスパース・ベクターを低次元の高密度ベクターにマップするために使用されます。出力はdoc2vec (ドキュメントのベクター化表現)マッピングで、"bag of words"アプローチのかわりに使用できます。ESA埋込みにより、ESAモデルを利用して、テキストまたはその他のESA入力の埋込みを生成できます。これには、単一の語の埋込みが含まれますが、これに限定されません。

一連の点の次元を下げるために、ランダム投影アルゴリズムのスパース・バージョンが使用されます。ランダム投影では、点の間の距離が大まかに保持されるように、元のデータが適切な低次元空間に投影されます。他のアプローチと比較すると、ランダム投影法は、その能力、容易性および低誤差率に定評があります。多くの自然言語タスクでは、ランダム投影法が適用されます。

次の例では、ESA埋込みを定義するコード・スニペットを示します。この例を使用すれば、ESA埋込みを使用して密な予測を作成できます。mining_build_textビューは、dmsh.sqlスクリプトのmining_dataビューから作成されます。テキスト・ポリシーが作成され、変換が設定されてから、CREATE_MODEL2プロシージャを使用してモデルが作成されます。

BEGIN DBMS_DATA_MINING.DROP_MODEL('ESA_text_sample_dense');
EXCEPTION WHEN OTHERS THEN NULL; END;
/
DECLARE
  xformlist dbms_data_mining_transform.TRANSFORM_LIST;

  v_setlst DBMS_DATA_MINING.SETTING_LIST;

BEGIN
  v_setlst('PREP_AUTO')               := 'ON';
  v_setlst('ALGO_NAME')               := 'ALGO_EXPLICIT_SEMANTIC_ANALYS';
  v_setlst('ODMS_TEXT_POLICY_NAME')   := 'DMDEMO_ESA_POLICY';
  v_setlst('ESAS_MIN_ITEMS')          := '5';
  v_setlst('ODMS_TEXT_MIN_DOCUMENTS') := '2';
  v_setlst('ESAS_EMBEDDINGS')         := 'ESAS_EMBEDDINGS_ENABLE';
  v_setlst('ESAS_EMBEDDING_SIZE')     := '1024';

  dbms_data_mining_transform.SET_TRANSFORM(
    xformlist, 'comments', null, 'comments', 'comments',
      'TEXT(POLICY_NAME:DMDEMO_ESA_POLICY)(TOKEN_TYPE:STEM)');

  DBMS_DATA_MINING.CREATE_MODEL2(
    model_name          => 'ESA_text_sample_dense',
    mining_function     => 'FEATURE_EXTRACTION',
    data_query          => 'SELECT * FROM mining_build_text',
    case_id_column_name => 'cust_id',
    set_list            => v_setlst,
    xform_list          => xformlist);
END;
/

19.1.1 テキスト分析用のESA

明示的セマンティック分析(ESA)をテキストに対する機械学習操作に使用する方法を学習します。

明示的な知識は、通常、テキスト形式で存在します。複数のナレッジ・ベースがテキスト・ドキュメントの集合として使用できます。これらのナレッジ・ベースは、Wikipediaなど一般的なものでもドメイン固有のものでもかまいません。データ準備は、テキストを属性と概念の相関を取得するベクターに変換します。ESAは、共通の用語がない場合でも、ドキュメントの意味的な関連性を定量化できます。意味的な関連性を計算するために、関数FEATURE_COMPAREを使用できます。

19.2 ESA用のデータ準備

自動データ準備では、明示的セマンティック分析(ESA)のために入力ベクターをユニット長に正規化します。

単純な(ネストされていない)データ型の列に欠損値がある場合、ESAによって質的データの欠損値は最頻値に、量的データの欠損値は平均値に自動的に置換されます。ネストした列に欠損値がある場合、ESAではそれらをスパースとして解釈します。スパースな量的データは0(ゼロ)に、スパースな質的データはゼロ・ベクターに置換されます。Oracle Machine Learning for SQLのデータ準備では、入力テキストは実数のベクターに変換されます。これらの数値は、テキスト内の各用語の重要度を表しています。

関連項目:

使用可能なモデル設定のリストおよび説明は、DBMS_DATA_MINING - アルゴリズムの設定: 明示的セマンティック分析を参照してください。

ノート:

モデル設定と同じ意味でハイパーパラメータという用語も使用されます。

19.3 ESAでのスコアリング

明示的セマンティック分析(ESA)の特徴抽出の典型的な用途は、指定された入力に最も関連する特徴の識別と、その関連性のスコアリングです。ESAモデルのスコアリングによって、概念の特徴空間にデータ投影が生成されます。

ESAモデルがドキュメントの任意の集合から作成される場合、それぞれが機能として扱われます。これにより、集合内で最も関連するドキュメントを特定できます。特徴抽出関数は、FEATURE_DETAILSFEATURE_IDFEATURE_SETFEATURE_VALUEおよびFEATURE_COMPAREです。ESA埋込みの実装で同じ関数を利用しますが、機能の空間は異なります。ESA埋込みの機能の名前は、1から始まる連続する整数です。FEATURE_IDの出力は数値です。FEATURE_SETおよびFEATURE_DETAILSの出力の機能IDも数値です。

ESAの分類の典型的な用途は、指定されたドキュメントのクラスの予測と、それらの予測の確率の推定です。分類アルゴリズムとしてのESAは、次のスコアリング関数を実装しています: PREDICTIONPREDICTION_PROBABILITYPREDICTION_SET PREDICTION_DETAILSPREDICTION_COST

19.3.1 大きいESAモデルのスコアリング

大きいESAモデルに対応するようにシステム・グローバル領域(SGA)を調整することでパフォーマンスを最適化して、効率的なモデル・スコアリングを実現します。

テキスト・ドキュメントの大きな集合に明示的セマンティック分析アルゴリズム(ESA)モデルを作成すると、多くの機能またはタイトルを持つモデルになる場合があります。スコアリングのモデル情報は、共有(共有プール・サイズ)ライブラリ・キャッシュ・オブジェクトとして、SGAにロードされます。別のSQL予測問合せがこのオブジェクトを参照できます。モデル・サイズが大きい場合、データベースのSGAパラメータを大きなオブジェクトに対応する十分なサイズに設定する必要があります。SGAが小さすぎると、モデルが参照されるたびに再ロードする必要があり、パフォーマンスが低下する可能性があります。

19.4 明示的セマンティック分析の用語

明示的セマンティック分析(ESA)に関連する用語を説明します。

多ターゲットの分類

大規模な分類では、トレーニング項目が複数のクラスに属しています。このような場合の分類の目的は、1つの項目に対して考えられるターゲット・クラスを複数個検出することです。この種の分類は、多ターゲットの分類と呼ばれます。ESAベースの分類のターゲット列は拡張されています。各集合は、ターゲット列の値として受け入れられます。ESAベースの分類でのターゲットの集合タイプは、ORA_MINING_VARCHAR2_NTです。

大規模な分類

大規模な分類は、通常は何万または何十万にも及ぶ、膨大な数のカテゴリを含むオントロジに適用されます。このような大規模な分類では、膨大なトレーニング・データセットも必要となります。こうしたデータセットは不均一であることが多く、一部のクラスはかなりの数のトレーニング・サンプルを有しているが、他のクラスはトレーニング・データセット内でまばらに存在するという可能性があります。通常、大規模な分類では、指定されたテスト・ケースに対して複数のターゲット・クラスが割り当てられます。

トピックのモデリング

トピックのモデリングとは、ドキュメントの最も重要なトピックを導出することです。トピックのモデリングは、明示的または潜在的に行うことが可能です。明示的なトピックのモデリングを行うと、指定されたドキュメントに対し、事前定義されたセットから最も関連性の高いトピックが選択されます。明示的なトピックには名前があり、言語化できます。潜在的なトピックのモデリングでは、ドキュメントの集合に対し、一連の潜在的トピックの特性が識別されます。これらの潜在的トピックのサブセットは、検討対象のすべてのドキュメントに関連付けられています。潜在的なトピックには、言語による説明や意味のある解釈がありません。