48 クイック・スタート
Coherence RAGを開始する最も簡単な方法は、[Coherence Operator](https://oracle.github.io/coherence-operator/docs/latest/#/docs/about/01_overview)を使用して、事前作成済の`coherence-rag-server`コンテナ・イメージをKubernetesにデプロイすることです。
たとえば、組込みの`all-MiniLM-L6-v2`埋込みモデル、およびOpen AIの`gpt-4o-2024-08-06`チャット・モデルを使用する3メンバーCoherence RAGクラスタをデプロイするには、次のデプロイメントYAMLを使用できます:
coherence-rag-demo.yaml
yaml
apiVersion: coherence.oracle.com/v1
kind: Coherence
metadata:
name: coherence-rag-demo
spec:
replicas: 3
image: ghcr.io/coherence-community/coherence-rag-server:15.1.1-0-0
cluster: coherence-rag-demo
env:
- name: MODEL_EMBEDDING
value: -/all-MiniLM-L6-v2
- name: MODEL_CHAT
value: OpenAI/gpt-4o-2024-08-06
- name: OPENAI_API_KEY
valueFrom:
secretKeyRef:
name: openai-api-key
key: key
jvm:
memory:
heapSize: 16g
ports:
- name: server
port: 7001
前述の例は、各ポッドのポート7001でCoherence RAG REST APIを公開します。また、すべてのポッド上のそのポートにマップされる`coherence-rag-demo-server` Kubernetesサービスも作成され、イングレスを使用してREST APIを公開、またはテスト用にローカル・ポートを転送できます。
ノート:
セキュリティ上の理由から、Kubernetesシークレットを参照するチャット・モデルを使用できるようにするには、環境変数としてOpenAI APIキーを渡す必要があります。シークレットを作成するには、次のコマンドを実行して、`from-literal`引数内に独自のOpenAI APIキーを指定する必要があります:kubectl create secret generic openai-api-key --from-literal=key=sk-シークレットが構成されたので、デモ用のクラスタをデプロイできます:
kubectl apply -f coherence-rag-demo.yaml
最後に、ローカル・ポート7001を`coherence-rag-demo-server`サービスに転送できます。これにより、次の項で説明するREST APIコールを実行してドキュメントを取り込み、ベクトル検索を実行し、それらの検索結果でチャット会話を拡張できます:
kubectl port-forward service/coherence-rag-demo-server 7001:7001 -n default