OCI Generative AIのエンタープライズAIモデル

OCI生成AIのエンタープライズAIモデルを使用して、事前トレーニング済ホスト・モデルにアクセスし、サポートされているカスタム・モデルをインポートして、エンタープライズ推論ワークロードのモデルをデプロイします。

この項では、OCI生成AIで使用可能なモデルと、それらのモデルをOCIでデプロイ、管理およびスケーリングするために使用されるリソースへのリンクを示します。

エンタープライズAIモデルでできること

次の場合にエンタープライズAIモデルを使用します。

  • 事前トレーニング済ホスト・モデルで推論を実行
  • サポートされているカスタム・モデルのインポートおよびホスト
  • オンデマンドおよび専用デプロイメント・オプションの選択
  • 本番ワークロード用の専用AIクラスタにモデルをデプロイ
  • エンドポイントおよびプライベート・ネットワーク・アクセスの管理
  • モデルとリージョンの可用性の確認
  • 価格とパフォーマンスの考慮事項の理解

OCI Generative AIは、次のようなコア・モデル・タスクをサポートしています。

  • 会話型生成用のチャット
  • セマンティック検索、推奨事項、分類およびクラスタリングのための埋込み
  • 「ランク変更」は、問合せに関連性に基づいてドキュメントを順序付けする場合に使用します。

モデル使用オプション

OCI Generative AIは、モデルを使用する複数の方法をサポートしています。

  • OCIを介したマネージド推論のための事前トレーニング済ホスト・モデル
  • サポートされているカスタム・モデル・デプロイメントのインポートされたモデル
  • オンデマンド・モード: 共有管理アクセス用
  • 専用モード: 専用AIクラスタでサービスを提供する分離モデル

これらのオプションにより、ワークロードに適した制御レベル、パフォーマンス分離レベルおよびインフラストラクチャ管理を選択しながら、実験から本番に移行できます。

モデル・インフラストラクチャと管理

OCI生成AIのエンタープライズAIモデルは、次のようなデプロイメントおよび管理リソースでサポートされています。

  • 分離されたモデル・ホスティングのための専用AIクラスタ
  • モデル・トラフィックに対応するためのエンドポイント
  • セキュアなネットワーク・アクセスのためのプライベート・エンドポイント
  • デプロイメント・プランニングのリージョナル・モデルの可用性
  • 本番ワークロード向けのパフォーマンスおよびコストに関するガイダンス

このセクションのトピック

次のトピックを参照して、OCI生成AIのエンタープライズAIモデルについて学習してください。