LLMOps - Sprachmodelle produktiv einsetzen

  • Dieser Praxiskurs ist für technische Anwender konzipiert, die LLMs sicher und skalierbar im Unternehmen einsetzen möchten. Der Fokus dieser Schulung liegt auf Deployment, Monitoring, Governance und Tooling.

  • LLMs in der Entwicklung zu testen ist einfach – doch der produktive Einsatz stellt Unternehmen vor neue Herausforderungen. In diesem Seminar lernen Sie, wie Sie Sprachmodelle wie GPT, LLaMA oder Claude in skalierbare Systeme integrieren.

    Sie setzen sich mit Infrastrukturfragen auseinander, analysieren Monitoring- und Logging-Konzepte und binden LLMs über APIs, LangChain oder Python-Schnittstellen in bestehende Architekturen ein. Sie bewerten Deployment-Strategien, arbeiten mit Container-Technologien und definieren Richtlinien für Governance, Sicherheit und Prompt-Management.

    Ein besonderer Fokus liegt auf der Alltagstauglichkeit: Welche Tools helfen bei Versionierung? Wie lassen sich Kosten steuern? Und wie überwacht man die Antwortqualität im laufenden Betrieb?

    Angesprochener Teilnehmerkreis:
    Entwickler, ML-Engineers, DevOps-Profis und technische Architekten, die LLMs produktiv betreiben und in Unternehmensprozesse integrieren möchten.

    Kursziel:
    Sie planen, betreiben und überwachen produktionsreife LLM-Systeme. Sie setzen geeignete Tools ein, beachten Governance-Aspekte und kontrollieren Performance, Kosten und Skalierung.

    • Einführung in LLMOps
      • Unterschiede zu MLOps
      • Typische Herausforderungen im produktiven Einsatz
    • LLM-Architekturen und Deployment-Strategien
      • Hosted APIs vs. On-Premise
      • Modellwahl und Infrastruktur
    • Tooling und Frameworks
      • LangChain, BentoML, FastAPI, Docker
      • Model- und Prompt-Management
    • Monitoring und Logging
      • Antwortqualität, Prompt-Auswertung, LLM-Observability
      • Tools: Weights & Biases, LangSmith, OpenTelemetry
    • Sicherheit und Compliance
      • Datenschutz, Auditierbarkeit, Governance-Regeln
    • Kostenkontrolle und Skalierung
      • Token-Tracking, Caching, Request-Management
    • Beispielprojekt
      • Aufbau einer LLM-basierten Anwendung mit Logging, Prompt-Debugging und Monitoring
  • Gute Kenntnisse in Python, API-Nutzung und Container-Technologien. Erfahrungen mit DevOps-Tools, ML-Pipelines oder Cloud-Umgebungen sind hilfreich.

  • Dieses Seminar können Sie als Präsenzseminar oder als Live-Online-Training (virtuelles Präsenzseminar) buchen. Die technischen Voraussetzungen für Live-Online-Schulungen (Virtual Classrooms) finden sie hier. Sie können Ihre Auswahl bei der Anmeldung treffen.
Alle Kursinformationen als PDF

Anmeldung

 
↳ Garantietermin

Zeitrahmen: 3 Tageskurs | 09:00 bis 16:00 Uhr

Preise

Die Teilnahmegebühr beträgt

ab 1.790,00 €
(2.130,10 € inkl. 19% MwSt.)

Durchführung ab 1 Teilnehmenden (mehr lesen ...)

Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.


Verwandte Seminare/Schulungen

Ihre gewünschte Kursart wählen Sie bei der Anmeldung:

  • Präsenzseminar:
    Ein Schulungserlebnis vor Ort
    mit persönlichen Kontakten und Hygieneregeln
  • Online-Seminar:
    Modernes und interaktives
    Live-Online-Training in
    Echtzeit
Erfolgreich
im Job!
Ekomi Gold Status

Exzellent 4,8 / 5

basierend auf 538 Bewertungen (Alle Kurs-Bewertungen der letzten 12 Monate)

Hier individuelles Firmenseminar anfragen

Thema:

LLMOps - Sprachmodelle produktiv einsetzen

Ihr Wunschtermin


PC-COLLEGE ist autorisiertes Training Center

  • Autodesk Schulungs Anbieter
  • Lpi Schulungs Anbieter
  • Cobra Schulungs Anbieter
  • Corel Schulungs Anbieter
  • Pearson Schulungs Anbieter
  • Kryterion Schulungs Anbieter
  • Certiport Schulungs Anbieter
  • Learnquest Schulungs Anbieter
  • Google Schulungs Anbieter