AI Blueprints

Mit Oracle Cloud Infrastructure (OCI) AI Blueprints können Sie GenAI-Workloads in wenigen Minuten bereitstellen, skalieren und überwachen. Nutzen Sie vorkonfigurierte, von OCI verifizierte Bereitstellungsvorlagen – inklusive Hardware-Empfehlungen, Softwarekomponenten und einsatzbereitem Monitoring.

Warum OCI AI Blueprints?

  • Sichere Bereitstellung mit von OCI verifizierten Best Practices

    Reduzieren Sie Komplexität und Unsicherheiten bei der Bereitstellung von KI-Workloads – mit Blueprints auf Basis von OCI-verifizierten Best Practices. Skalieren Sie zuverlässig, stellen Sie die Kompatibilität von Treibern und Anwendungen sicher und treffen Sie fundierte Entscheidungen in den Bereichen Observability und Management.

  • Vereinfachen Sie Ihr GenAI-Deployment

    Stellen Sie geschäftskritische GenAI-Workloads in wenigen Minuten bereit und überwachen Sie diese – mit Blueprints, die verifizierte Hardware, Software und einsatzbereites Monitoring enthalten.

  • Einfache KI-Überwachung und -Beobachtbarkeit

    Setzen Sie auf vordefinierte Integrationen mit Drittanbieter-Tools wie Prometheus, Grafana und MLflow, um Ihre KI-Workloads effizient zu überwachen und Transparenz sicherzustellen.

Beliebte Anwendungsfälle für AI Blueprints

  • Blueprints

    Vereinfachen Sie die Bereitstellung großer Sprachmodelle (LLMs) und Vision Language Models (VLMs) mit einer Open-Source-Schnittstellen-Engine namens Virtual Large Language Model (vLLM). Stellen Sie ein benutzerdefiniertes Modell bereit oder wählen Sie aus einer Vielzahl offener Modelle auf Hugging Face.

  • Blueprints

    Optimieren Sie das Infrastruktur-Benchmarking für das Finetuning mithilfe der MLCommons-Methodik. Dabei wird ein quantisiertes Llama-2-70B-Modell mit einem standardisierten Datensatz optimiert.

  • Blueprints

    OCI AI Blueprints ermöglichen ein effizientes Modell-Finetuning mit Low-Rank Adaptation (LoRA) – einer besonders ressourcenschonenden Methode zur Feinabstimmung großer Sprachmodelle (LLMs). Optimieren Sie ein eigenes LLM oder verwenden Sie eines der zahlreichen offenen Modelle von Hugging Face.

  • Blueprints

    Vor der Bereitstellung produktiver oder forschungsbezogener Workloads können Sie einen leistungsstarken Precheck-Blueprint nutzen, um den GPU-Zustand umfassend zu validieren und potenzielle Probleme frühzeitig zu erkennen und zu beheben. So stellen Sie sicher, dass Ihre GPU-Infrastruktur optimal für anspruchsvolle Experimente in Einzel- und Mehrknotenumgebungen vorbereitet ist.

  • Blueprints

    Nutzen Sie ein umfassendes Framework zur Bereitstellung von LLMs auf CPUs – basierend auf der Ollama-Plattform mit Unterstützung für verschiedene Modelle wie Mistral, Gemma usw.

  • Blueprints

    Mit diesem Blueprint können Sie Inference-Serving über mehrere Rechenknoten hinweg verteilen, die jeweils in der Regel mit einer oder mehreren GPUs ausgestattet sind. So lassen sich beispielsweise Llama-Modelle in der Größe von 405B auf mehreren H100-Knoten mit RDMA bereitstellen – unter Einsatz von vLLM und LeaderWorkerSet.

  • Blueprints

    Stellen Sie LLMs mit automatischem Scaling über KEDA bereit – flexibel skalierbar über mehrere GPUs und Knoten hinweg auf Basis von Anwendungsmetriken wie der Inferenzlatenz.

  • Blueprints

    Stellen Sie LLMs auf einem Teil einer GPU mit NVIDIA Multi-Instance GPUs (MIG) bereit und bedienen Sie sie effizient über vLLM.

Nutzen Sie OCI AI Blueprints für Ihre Technologie

Starten Sie Ihre KI-Anwendung schnell und effizient – mit klar empfohlenen Hardware-Konfigurationen, vorinstallierten Software-Stacks und einsatzbereiten Tools für Observability.

  • Validierte Hardwareempfehlungen

    Stellen Sie Ihre GenAI-Workloads mit Vertrauen bereit – mithilfe vorkonfigurierter Blueprints, die auf empfohlenen OCI-GPU-, CPU- und Netzwerkkonfigurationen getestet wurden. So vermeiden Sie zeitaufwendige Performance-Benchmarks und unnötiges Rätselraten.

  • Vorkonfigurierte Software-Stacks mit klarer Ausrichtung

    Profitieren Sie von den passenden Frameworks, Bibliotheken und Modellkonfigurationen für gängige Anwendungsfälle wie RAG, Finetuning und Inferenz – oder passen Sie diese flexibel an Ihre Geschäftsanforderungen an.

  • Integrierte Observability und Autoscaling

    Vereinfachen Sie das Infrastrukturmanagement mit automatisierten MLOps-Aufgaben wie Monitoring, Logging und Skalierung. Starten Sie direkt durch mit vorinstallierten Tools wie Prometheus, Grafana, MLflow und KEDA – für eine produktionsreife Umgebung mit minimalem Aufwand.

18. März 2025

OCI AI Blueprints: Von „Zero to Hero“ bei der Bereitstellung von KI-Workloads auf OCI

Maywun Wong, Director, Product Marketing, Oracle
Amar Gowda, Senior Principal Product Manager, Oracle
Vishnu Kimmari, Principal Product Manager, Oracle

Lernen Sie OCI AI Blueprints kennen – eine Plattform zur Verwaltung von KI-Workloads in Kubernetes. Sie bietet eine Sammlung von Blueprints, mit denen Sie KI-Workloads in wenigen Minuten produktiv bereitstellen, skalieren und überwachen können.

Vollständigen Beitrag lesen

Ausgewählte Entwickler-Blogs

Alle anzeigen

Erste Schritte mit AI Blueprints

Kostenlose Testversion

Mehr als 20 kostenlose Cloud-Services mit einer 30-tägigen Testversion für noch mehr.

OCI AI Blueprints testen

Entdecken Sie OCI AI Blueprints und testen Sie sie – oder setzen Sie sie direkt in Ihrer produktiven Umgebung ein.

Schätzen Sie Ihre Kosten

Erfahren Sie, wie Oracle Kunden dabei unterstützt, bei Rechenleistung, Speicher und Netzwerk dauerhaft Kosten im Vergleich zu anderen Cloud-Hyperscalern zu sparen.

Vertrieb kontaktieren

Möchten Sie mehr über die Oracle Cloud Infrastructure erfahren? Einer unserer Experten wird Ihnen gerne helfen.