生成AI用のLangChainの設定
OCI生成AIと統合するためのパッケージを含むLangChainパッケージを設定します。次に、OCI Generative AIでホストされているモデルとチャットして、インストールをテストします。
概要
主なタスク:
- LangChainおよびLangChain OCIパッケージをインストールします。
- Pythonコードを実行し、モデルからレスポンスを受け取ります。
詳細は、次のリソースを参照してください:
始める前に
このチュートリアルを正常に実行するには、次の構成が必要です。
- Windows Subsystem for Linux (WSL)を使用したMacOS、LinuxまたはWindows環境。
- Python 3がインストールされています。サポートされているPythonのバージョンについては、Python SDKのドキュメントを参照してください。
- 次のチュートリアルを実行しました。
1.LangChainをインストールします。
2.LangChain OCIパッケージのインストール
3. 必要な情報の収集
このチュートリアルを完了するために必要なすべての情報を収集してください。必要な情報をセキュアなテキスト・ファイルにコピーします。
チャットするコストの検索(オプション)
このチュートリアルでは、OCI生成AIでホストされているMeta Llama 4 Scoutモデルに1つのチャット・メッセージを送信し、レスポンスを受信します。1つのオンデマンド・チャット・メッセージのコストは0ドル近くですが、無料ではありません。この項では、コストの計算方法を学習し、数千件のトランザクションがある場合にどのモデルを使用するかを決定することをお薦めします。
3.1 リージョンおよびモデルIDの取得
「Offered Pretrained Foundational Models in Generative AI」に移動し、「Meta Llama 4 Scout」を選択します。
- 「次のリージョンで使用可能」セクションで、リストされていないリージョン(専用AIクラスタのみ): 米国中西部(シカゴ)をコピーします
- 「オンデマンド・モード」セクションで、OCIモデル名を表からコピーします:
meta.llama-4-scout-17b-16e-instruct
3.2 コンパートメント情報の取得
コンパートメントのコンパートメントOCIDを取得するには:
3.3 構成ファイルへのパスの取得
OCIのAPI認証の設定チュートリアルから、次の情報をコピーします:
- 構成ファイルへのパス(
<your-home-directory>/.oci/configなど) - 構成ファイルで使用する認証プロファイル名。たとえば、「デフォルト」です。
3.4 推論APIエンドポイントの取得
3.5 収集された情報
チュートリアル用に次の情報を書き留めていることを確認してください。
-
コンパートメントID:
<sandbox-compartment>例:
ocid1.compartment.oc1.aaaaaaa... -
モデルID:
meta.llama-4-scout-17b-16e-instruct -
APIエンドポイント:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - 構成ファイル・パス:
<path-to-config-file例:
<your-home-directory>/.oci/config - 構成ファイル内の認証プロファイル名:
<auth-profile-name-in-config-file>例:
Default
4. チャット
OCI Generative AIでホストされているモデルを使用したチャット。langchain-ociパッケージを使用してこのモデルに到達します。
重要
<sandbox-compartment>内のステップを実行してください。テナンシまたは他のコンパートメントのリソースを表示または作成する権限がない可能性があります。
<sandbox-compartment>内のステップを実行してください。テナンシまたは他のコンパートメントのリソースを表示または作成する権限がない可能性があります。