OCI Generative AIのエンタープライズAIモデル
OCI生成AIのエンタープライズAIモデルを使用して、事前トレーニング済ホスト・モデルにアクセスし、サポートされているカスタム・モデルをインポートして、エンタープライズ推論ワークロードのモデルをデプロイします。
この項では、OCI生成AIで使用可能なモデルと、それらのモデルをOCIでデプロイ、管理およびスケーリングするために使用されるリソースへのリンクを示します。
エンタープライズAIモデルでできること
次の場合にエンタープライズAIモデルを使用します。
- 事前トレーニング済ホスト・モデルで推論を実行
- サポートされているカスタム・モデルのインポートおよびホスト
- オンデマンドおよび専用デプロイメント・オプションの選択
- 本番ワークロード用の専用AIクラスタにモデルをデプロイ
- エンドポイントおよびプライベート・ネットワーク・アクセスの管理
- モデルとリージョンの可用性の確認
- 価格とパフォーマンスの考慮事項の理解
OCI Generative AIは、次のようなコア・モデル・タスクをサポートしています。
- 会話型生成用のチャット
- セマンティック検索、推奨事項、分類およびクラスタリングのための埋込み
- 「ランク変更」は、問合せに関連性に基づいてドキュメントを順序付けする場合に使用します。
モデル使用オプション
OCI Generative AIは、モデルを使用する複数の方法をサポートしています。
- OCIを介したマネージド推論のための事前トレーニング済ホスト・モデル
- サポートされているカスタム・モデル・デプロイメントのインポートされたモデル
- オンデマンド・モード: 共有管理アクセス用
- 専用モード: 専用AIクラスタでサービスを提供する分離モデル
これらのオプションにより、ワークロードに適した制御レベル、パフォーマンス分離レベルおよびインフラストラクチャ管理を選択しながら、実験から本番に移行できます。
モデル・インフラストラクチャと管理
OCI生成AIのエンタープライズAIモデルは、次のようなデプロイメントおよび管理リソースでサポートされています。
- 分離されたモデル・ホスティングのための専用AIクラスタ
- モデル・トラフィックに対応するためのエンドポイント
- セキュアなネットワーク・アクセスのためのプライベート・エンドポイント
- デプロイメント・プランニングのリージョナル・モデルの可用性
- 本番ワークロード向けのパフォーマンスおよびコストに関するガイダンス
このセクションのトピック
次のトピックを参照して、OCI生成AIのエンタープライズAIモデルについて学習してください。
-
生成AIでの事前トレーニング済の基礎モデル
OCI生成AIで使用可能な事前トレーニング済ホスト・モデルについて学習します。
-
インポート用の検証済モデル
OCI生成AIにインポートできる、サポートされているカスタム・モデルを確認します。
-
OCI生成AIモデルのオンデマンドおよび専用モード
共有環境または専用環境でモデルを実行するためのデプロイメント・オプションを理解します。
-
専用AIクラスタの管理
モデル・ホスティング専用のAIクラスタを作成および管理する方法について学習します。
-
専用AIクラスタ・パフォーマンス・ベンチマーク
専用のAIクラスタ・パフォーマンスに関するベンチマーク・ガイダンスを確認します。
- 生成AIリージョン
OCI Generative AIの利用場所をご覧ください。
- 地域別の生成AIモデル
OCIリージョン別のモデルの可用性を確認します。
-
エンドポイントの管理
モデル・アクセス用のエンドポイントを管理する方法を学習します。
-
プライベート・エンド・ポイントの管理
OCI生成AIのプライベート・ネットワーク・アクセスを構成する方法を学習します。
-
生成AIでのコストの計算
OCI Generative AIの使用に関する価格設定上の考慮事項を確認します。