AIプロファイルの作成
Data Studioは、AIプロファイルをガイド付きで簡単に作成できるようにします。「AIプロファイル」設定でモードを選択すると、Data Studioは数回のクリックでAIプロファイルを作成するのに役立ちます。
AIプロファイルを作成する手順
Data Studio設定を開くには、任意のツールに移動し、左側のナビゲーション・ペインで「設定」というラベルの歯車アイコンをクリックします。
-
「Data Studio設定」で、「AIプロファイル」タブに移動します。
-
「検証」をクリックして、生成AIサービスにアクセスでき、AIプロファイルが正しく機能していることを確認します。
-
「AIプロファイル」名の横にあるプラス(+)ボタンをクリックして、モードを選択します。
-
重要なAIプロファイルの作成: 機能が制限された基本的なAIプロファイルを作成します。
-
NL2SQL AIプロファイルの作成: 問合せの生成に表メタデータのオブジェクト・リストを使用します。
-
RAG AIプロファイルの作成: 非構造化データに対するセマンティック検索にベクトル索引を使用します。
「AIプロファイルの作成」ページが開き、特定のモードの設定が表示されます。
-
-
AIプロファイルに必須のサービス設定を指定します。
-
プロファイル名: AIプロファイルの名前を入力します。プロファイルの作成後に名前を変更することはできません。
-
AIプロバイダ: AIサービス・プロバイダを選択します:
- OCI
- AIを開く
- Azure OpenAIサービス
- Cohere
- Anthropic
- Hugging Face
プロファイルの作成後にAIプロバイダを変更することはできません。
-
資格証明: APIサービス・プロバイダAPIにアクセスする資格証明を選択します。これらはデータベースに格納され、外部AIサービス・プロバイダに安全に接続するのに役立ちます。
-
OCIリージョン: 使用する生成AIクラスタの場所。
各OCIリージョンでは異なるLLMがサポートされます。たとえば、
us-chicago-1、uk-london-1およびap-osaka-1では多くのLLMが提供され、それ以外では少ないLLMが提供されます。このページには、選択したリージョンで使用可能なモデルが表示されます。AIモデルが表示されない場合は、リージョンを切り替えてモデル・リストをリフレッシュできます。このフィールドは、「OCI」を「AIプロバイダ」として選択した場合にのみ使用できます。詳細は、生成AIを使用するリージョン、生成AIでの事前トレーニング済基礎モデルの説明を参照してください。
-
AIモデル: レスポンスの生成に使用するAIモデルを選択します。使用できるAIモデルは、選択したAIプロバイダによって異なります。
「コードの表示」トグル・ボタンを使用して、選択した設定に対して自動的に生成されたSQL文を表示できます。
-
-
「詳細設定」で、追加の属性を指定できます。
-
サービスの設定
AIプロファイルが使用できるクラウドサービスの設定を指定します。「サービス設定」は、OCIおよびAzure OpenAIサービスでのみ使用できます。選択したAIプロバイダに応じて、ページには対応するサービス設定が表示されます。
AIプロバイダとしてOCIを選択した場合は、次を構成できます:
-
OCI APIフォーマット: APIがデータの送受信に使用できるフォーマットを選択します。この属性は、OCI生成AIチャット・モデルに適用されます。値は、「なし」、「Cohere」、「汎用」です。
-
OCIコンパートメントID: OCI生成AIサービスを使用するためにアクセスするコンパートメントのOCIDを指定します。デフォルトは、プラガブル・データベース(PDB)のコンパートメントIDです。
-
OCIエンドポイントID: 専用AIクラスタ上のエンドポイントのOCIDを示します。共有インフラストラクチャでオンデマンド・モデルのかわりに専用エンドポイントを使用するには、このフィールドを指定します。
AIプロバイダとして「Azure OpenAI Service」を選択した場合は、次を構成できます:
-
Azureリソース名: Azure OpenAIサービス・リソース・インスタンスの名前を入力します。サービスにアクセスするためのエンドポイントURLの一部を形成します。次に例を示します。
https://[your-resource-name].openai.azure.com/ -
Azureデプロイメント名: Azure OpenAIリソース内にデプロイする言語モデルの名前を入力します。
-
Azure Embeddingデプロイメント名: デプロイされた埋込みモデルの名前(
text-embedding-ada-002、text-embedding-3-largeなど)を指定します。これは主にテキストのベクトル表現を作成するために使用されます。
詳細は、Azure OpenAI Embeddingスキル- Azure AI検索| Microsoft Learnを参照してください。
-
-
生成設定
AIプロファイルが使用できる生成AIサービスの設定を指定します。
AIプロファイルを介してアクセスするAIモデルの動作および制限を構成できます。これにより、Autonomous AI Databaseでの生成AIチャット、SQL生成、自然言語クエリなどのさまざまなシナリオをカスタマイズできます。
-
会話: これは通常、AIプロファイルが会話型コンテキストをサポートしているかどうかを示し、モデルが複数のインタラクションまたは迅速な交換でコンテキストを保持できるようにするかどうかを示します。チャット形式のAIアプリケーションに有効です。
-
大/小文字を区別する値: この設定は、入力値またはパラメータをAI処理で大/小文字を区別するように処理するかどうかを示します。入力およびパラメータ値に大/小文字を正確に強制するには、これを有効にします。
-
温度: これは、AIのレスポンスのランダム性を制御するスライダ・パラメータです。温度(0.2など)が低いほど、出力はより集中し、決定的になりますが、温度(0.8など)が高いほど、より創造的で多様なテキスト生成が可能になります。
-
ストップ・トークン: これらは、追加のテキスト出力の生成を停止する場所をAIモデルに指示するトークン・シーケンスです。モデルがこれらのトークンを生成すると、停止します。これにより、レスポンスの長さを制御し、不要な後続テキストを回避できます。
-
最大トークン: これは、プロンプトに応答してAIモデルが生成できるトークンの最大数を定義します。生成される出力の長さを制限して、過剰なレスポンスや負荷の高いレスポンスを回避します。
-
ターゲット言語: AIプロバイダが応答に使用する言語を選択します。
-
ソース言語: 入力テキストでAIプロバイダが受け入れる言語を選択します。
-
-
「必須AIプロファイル」を選択した場合は、「AIプロファイルの作成」をクリックして基本的なAIプロファイルを作成します。
NL2SQL設定
NL2SQL AIプロファイルを作成するには、次のテーブルメタデータを指定します。
-
オブジェクト・リスト・モード: 次の中から選択します。
-
すべて: このオプションでは、指定したスキーマ内のすべての表のメタデータがLLMに送信されるため、それらのいずれに対してもSQLを生成できます。
-
自動: このオプションを使用すると、Select AIはスキーマ・メタデータに対してベクトル検索を実行して、関連する表のサブセットを自動的に選択できるため、特定のプロンプトに対して最も可能性の高い表のみが使用されます。
-
選択した表: このオプションでは、AIプロファイルにリストした特定の表のみにメタデータが制限されるため、SQL生成はそれらの表に制限されます。
- なし: このオプションでは、オブジェクト・リストから表メタデータは送信されないため、AIは表に対してSQLを生成できないか、明示的なオブジェクト・リストを使用しない他の構成に依存できません。
-
-
オブジェクト・リスト: LLMが使用できるデータベース・オブジェクトを指定します。
これを選択すると、別のオプション「オブジェクト・リストの強制」が表示されます。オブジェクト・リストに示されているオブジェクトのみを使用してSQL問合せを生成するようにLLMを制限するには、これを有効にします。
-
注釈: これを有効にすると、AIは結果の生成時にデータベース・オブジェクトに関する追加メタデータ(列の説明やタグなど)を提供できます。
-
コメント: これを有効にすると、AIはデータ・ディクショナリの表および列のコメントを使用して、データをよりよく理解できます。
-
制約: これを制御して、主キー、外部キーおよびその他の制約に関する情報にAIがアクセスできるようにし、問合せの精度を向上させるために表間の関係を理解できるようにします。
NL2SQLモードを選択した場合は、「AIプロファイルの作成」をクリックしてNL2SQLのAIプロファイルを作成します。
RAG設定
RAG AIプロファイルの場合は、次を指定します。
- ベクトル索引: ドキュメント内の埋込みの格納および検索に使用するベクトル索引を選択します。これにより、AIはデータベース内のベクトルを使用し、クエリーの正確な応答を見つけることができます。詳細は、ベクトル索引の作成を参照してください。
-
埋込みモデル: テキストをその索引に格納されたベクトル表現に変換するために使用する埋込みモデルを指定します。これにより、セマンティク検索の動作がRAG用に構成したモデルと一致することが保証されます。
-
ソースの有効化: RAG結果に寄与したソース・ドキュメント・リンクまたはファイル名を含める場合にこれを有効にします。
-
ソース・オフセットの有効化: RAG結果にドキュメントの変換済テキスト内に開始オフセットと終了オフセットを含める場合に有効にします。
-
カスタム・ソースURIの有効化: オブジェクト・ストレージURLではなくRAG結果に表示するカスタム・ソースURIを指定できるようにします。
「RAG」モードを選択した場合は、「AIプロファイルの作成」をクリックしてRAGのAIプロファイルを作成します。
関連項目:
AIプロファイルの管理親トピック: AIプロファイルについて