Modelle

Erfahren Sie mehr über Model Explorer in AI Quick Actions.

Unter Modelle finden Sie den Modell-Explorer, der alle von AI Quick Actions unterstützten Basismodelle und Ihre optimierten Modelle anzeigt. Die Modellkarten enthalten ein Tag, das die Familie der Formen angibt, die für das Modell unterstützt werden. Geben Sie Text in das Textfeld "Modelle suchen und filtern" ein, um nach einem Modell in der Liste zu suchen. Oder wählen Sie das Textfeld und eine Option zum Filtern der Liste der Modelle. Unter Meine Modelle sind Service-Cached-Fundament-Modelle, einsatzbereite Modelle und Modelle, die Sie registriert haben. Service-Cached-Modelle sind Modelle, deren Konfiguration vom Data Science-Team geprüft wurde und ohne Herunterladen von Modellartefakten verwendet werden können. Registrierfertige Modelle sind Modelle, deren Konfigurationen vom Data Science-Team geprüft wurden und die Sie über den Modellregistrierungsprozess in AI Quick Actions einführen können. Unter Optimierte Modelle befinden sich Modelle, die Sie optimiert haben.

Gecachte Servicemodelle

Von Data Science gecachte Servicemodelle wurden getestet, und die Modellartefakte werden in einen Bucket im Objektspeicher des Service heruntergeladen. Sie sind bereit, benutzt zu werden.

Folgende Service-Cached-Modelle sind verfügbar:
  • Almawave/Velvet-14B
  • codellama-34b-instruct-hf
  • codellama-13b-instruct-hf
  • codellama-7b-instruct-hf
  • mistralai/Mixtral-8x7b-v0.1

  • mistralai/Mistral-7b-Instruct-v0.3

  • mixtral-8x7b-instruct-v0.1
  • mistral-7b-instruct-v0.2
  • mistral-7b-v0.1
  • mistral-7b-instruct-v0.1
  • Falke-7b
  • PHI-2
  • falcon-40b-instruct
  • microsoft/Phi-3-vision-128k-Struktur
  • microsoft/Phi-3-mini-128k-Struktur
  • microsoft/Phi-3-mini-4k-instruct
  • microsoft/Phi-3-mini-4k-instruct-gguf-fp16
  • microsoft/Phi-3-mini-4k-instruct-gguf-q4
  • Microsoft/Phi-4-Multimodal-Einrichtung
  • microsoft/phi-4-gguf
  • microsoft/phi-4
  • microsoft/Phi-3.5-Vision-Struktur
  • microsoft/Phi-3.5-MoE-instruct
  • microsoft/Phi-3.5-mini-instruct
  • meta-llama/Meta-Llama-3.1-8B
  • meta-llama/Meta-Llama-3.1-8B-Struktur
  • meta-llama/Meta-Llama-3.1-70B
  • meta-llama/Meta-Llama-3.1-70B-Struktur
  • meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
  • meta-llama/Meta-Llama-3.1-405B-FP8
  • meta-llama/Llama-3.3-70B-Instrukt
  • ibm-granite/granite-3.3-2b-instruct
  • ibm-granite/granite-3.3-8b-instruct
  • ibm-granite/granite-3.3-8b-instruct-GGUF
  • ibm-granite/granite-vision-3.2-2b
  • ibm-granite/granite-embedding-278m-multilingual

Registrierfertige Modelle

Registrierfertige Modelle wurden von Data Science getestet und können in KI-Schnellaktionen über den Modellregistrierungsprozess verwendet werden.

Die einsatzbereiten Modelle sind:
  • core42/jais-13b-chat
  • core42/jais-13b
  • llama-3-70b-instruct
  • llama-3-8b-instruct
  • meta-llama/Lama-3.2-1B
  • meta-llama/Llama-3.2-1B-Struktur
  • meta-llama/Lama-3.2-3B
  • meta-llama/Llama-3.2-3B-Struktur
  • meta-llama/Llama-3.2-11B-Vision
  • meta-llama/Llama-3.2-90B-Vision
  • meta-llama/Llama-3.2-11B-Vision-Instruct
  • meta-llama/Llama-3.2-90B-Vision-Instruct
  • meta-llama-3-8b
  • meta-llama-3-70b
  • ELYZA/ELYZA-japanese-Llama-2-13b-instruct
  • ELYZA/ELYZA-japanese-Llama-2-7b-instruct
  • ELYZA/ELYZA-japanisch-Llama-2-13b
  • ELYZA/ELYZA-japanisch-Llama-2-7b
  • google/gemma-1.1-7b-it
  • google/gemma-2b-it
  • google/gemma-2b
  • google/gemma-7b
  • google/codegemma-2b
  • google/codegemma-1.1-7b-it
  • google/codegemma-1.1-2b
  • google/codegemma-7b
  • intfloat/e5-mistral-7b-instruct
Hinweis

Die Modelle meta-llama/Meta-Llama-3.1 und meta-llama/Llama-3.2 sind in EU-Regionen nicht verfügbar.

Mit multimodalen Modellen arbeiten

AI Quick Actions unterstützt die Bereitstellung multimodaler Modelle. Ein Beispiel für das Deployment und Testen eines multimodalen Modells finden Sie in den Beispielen für KI-Schnellaktionen im Abschnitt "Data Science" auf GitHub.

Um mit Image-Payload und mehrstufigen Modellen zu arbeiten, wählen Sie beim Erstellen eines Modell-Deployments unter Erweiterte Optionen /v1/chat/completions als Inferenzmodus aus.