生成AIのLangChainの設定
OCI Generative AIとの統合用のパッケージを含むLangChainパッケージを設定します。次に、OCI Generative AIでホストされているモデルとチャットして、インストールをテストします。
概要
主なタスク:
- LangChainおよびLangChain OCIパッケージをインストールします。
- Pythonコードを実行して、モデルからレスポンスを受け取ります。
詳細は、次のリソースを参照してください:
開始する前に
このチュートリアルが正常に実行するには、次の構成が必要です。
- MacOS、LinuxまたはWindows環境(Windows Subsystem for Linux (WSL))
- Python 3がインストールされています。サポートされているPythonのバージョンについては、Python SDKのドキュメントを参照してください。
- 次のチュートリアルを実行しました。
1.LangChainをインストールします。
2.LangChain OCIパッケージのインストール
3. 必要な情報の収集
このチュートリアルを完了するために必要なすべての情報を収集してください。必要な情報をセキュア・テキスト・ファイルにコピーします。
チャットするコストの検索(オプション)
このチュートリアルでは、OCI生成AIでホストされているMeta Llama 4 Scoutモデルに1つのチャット・メッセージを送信し、レスポンスを受け取ります。1つのオンデマンド・チャット・メッセージのコストはほぼゼロですが、無料ではありません。この項では、コストを計算する方法を学習し、数千のトランザクションがあるときに使用するモデルを決定する必要があります。
3.1 リージョンおよびモデルIDの取得
「生成AIの事前トレーニング済基本モデル」にナビゲートし、「メタLlama 4スカウト(新規)」を選択します。
- 「これらのリージョンで使用可能」セクションから、リストされていないリージョンをコピーします(専用AIクラスタのみ): 米国中西部(シカゴ)
- 「オンデマンド・モード」セクションで、OCIモデル名を表
meta.llama-4-scout-17b-16e-instructからコピーします
3.2 コンパートメント情報の取得
コンパートメントのコンパートメントOCIDを取得するには:
3.3 構成ファイルへのパスの取得
OCIのAPI認証の設定チュートリアルから、次の情報をコピーします:
<your-home-directory>/.oci/configなどの構成ファイルへのパス- 構成ファイルで使用する認証プロファイル名。たとえば、「デフォルト」です。
3.4 推論APIエンドポイントの取得
3.5 収集された情報
チュートリアル用に次の情報を書き留めていることを確認してください。
-
コンパートメントID:
<sandbox-compartment>例:
ocid1.compartment.oc1.aaaaaaa... -
モデルID:
meta.llama-4-scout-17b-16e-instruct -
APIエンドポイント:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - 構成ファイルのパス:
<path-to-config-file例:
<your-home-directory>/.oci/config - 構成ファイル内の認証プロファイル名:
<auth-profile-name-in-config-file>例:
Default
4. チャット
OCI Generative AIでホストされているモデルを使用してチャットします。langchain-ociパッケージを使用してこのモデルに到達します。
重要
<sandbox-compartment>内のステップを実行してください。テナンシまたは他のコンパートメントのリソースを表示または作成する権限がない場合があります。
<sandbox-compartment>内のステップを実行してください。テナンシまたは他のコンパートメントのリソースを表示または作成する権限がない場合があります。