Large Language Models (LLM) - RAG-Tuning und Evaluation

-
Dieser Kurs zeigt, wie Sie Retrieval-basierte LLM-Systeme optimieren und evaluieren. Sie lernen wichtige Metriken, Tuning-Strategien und automatisierte Evaluationsverfahren kennen und entwickeln praxisnah robuste, überprüfbare RAG-Pipelines für produktive Anwendungen.
-
In diesem Kurs lernen Sie, wie Sie die Qualität von LLM-Anwendungen mit Retrieval-Augmented Generation (RAG) gezielt verbessern und bewerten. Sie analysieren Retrieval-Metriken wie Recall, Precision oder nDCG und verstehen, wie Chunking, Embedding-Auswahl und Indexparameter die Systemleistung beeinflussen.
Der Fokus liegt auf praxisnahen Tuning-Strategien für semantische und hybride Suchsysteme, dem Einsatz von Re-Ranking-Modellen sowie der Kombination klassischer IR-Techniken mit modernen LLM-Ansätzen. Sie lernen automatisierte und manuelle Evaluationsmethoden kennen und erstellen aussagekräftige Benchmarks. Abschließend behandeln Sie Monitoring, Drift Detection, KPI-Tracking und Feedback-Loops zur kontinuierlichen Verbesserung von produktiven LLM-Systemen.
Angesprochener Teilnehmerkreis:
Entwickler, Data Scientists, MLOps-Teams, Produktverantwortliche und QA-Fachkräfte, die RAG-Systeme optimieren oder betreiben und deren Leistung zuverlässig bewerten möchten.Kursziel:
Sie kennen Metriken, Methoden und Werkzeuge zur Evaluation von LLM-basierten Systemen und verbessern gezielt die Qualität und Zuverlässigkeit Ihrer RAG-Anwendungen. -
- Grundlagen von Retrieval-Qualität
- Metriken: Recall, Precision, nDCG
- Warum klassisches IR- und LLM-Tuning zusammengehören
- Tuning-Strategien
- Chunking-Varianten (Overlaps, Semantik-basiert)
- Embedding-Modelle vergleichen
- Index-Parameter optimieren (z. B. k, Abstandsmessung)
- Re-Ranking & Hybrid Search
- Lexikalische + semantische Suche kombinieren
- Einsatz von Cross-Encodern
- Trade-offs zwischen Qualität und Kosten
- Evaluationstechniken
- Human-in-the-loop Verfahren
- Automatisierte Evals: BLEU, ROUGE, BERTScore, G-Eval
- Benchmark-Sets aufbauen
- Qualitätssicherung im Betrieb
- Bias-Checks, Halluzinationsanalyse
- Drift Detection bei Embeddings
- Canary-Tests für neue Pipelines
- Monitoring & Reporting
- KPI-Tracking: Retrieval-Präzision, Factuality
- Dashboards für Stakeholder
- Feedback Loops und kontinuierliche Verbesserung
- Grundlagen von Retrieval-Qualität
-
Grundkenntnisse in NLP oder Vektorsuche sowie erste Erfahrungen mit RAG, LangChain oder LLM-Entwicklung sind von Vorteil. Basiswissen in Python wird empfohlen.
- Dieses Seminar können Sie als Präsenzseminar oder als Live-Online-Training (virtuelles Präsenzseminar) buchen. Die technischen Voraussetzungen für Live-Online-Schulungen (Virtual Classrooms) finden sie hier. Sie können Ihre Auswahl bei der Anmeldung treffen.
Anmeldung
Preise
Die Teilnahmegebühr beträgt
ab 1.490,00 €
(1.773,10 € inkl. 19% MwSt.)
Durchführung ab 1 Teilnehmenden (mehr lesen ...)
Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.
-
32 Kunden haben bereits die Schulung:
Large Language Models (LLM) - RAG-Tuning und Evaluation gebucht. (innerhalb der letzten 24 Monate als offenes Seminar, Firmenschulung oder Workshop)
-
-
Kundenauszeichnung
PC-COLLEGE bietet
exzellente Seminare
bestätigen unsere Teilnehmer auf dem unabhängigen Bewertungsportal eKomi. -
Schulungsexperte seit 1985
Wir haben mehr als 30 Jahre Schulungserfahrung. Dabei setzen wir auf Trainerinnen und Trainer mit langjähriger didaktischer und praktischer Erfahrung.
-
Zertifikatsservice
Sollten Sie Ihr PC-COLLEGE-Zertifikat verlegt oder bei einem Arbeitgeber abgegeben haben, senden wir Ihnen auf Wunsch, bis zu sieben Jahre nach Kursende, gerne Ihr Original-Zertifikat per Post oder ein PDF per E-Mail zu.
- ... alle Vorteile auf einen Blick
-
-
Verwandte Seminare/Schulungen
Ihre gewünschte Kursart wählen Sie bei der Anmeldung:
- Präsenzseminar:
Ein Schulungserlebnis vor Ort
mit persönlichen Kontakten und Hygieneregeln - Online-Seminar:
Modernes und interaktives
Live-Online-Training in
Echtzeit
im Job!
Hier individuelles Firmenseminar anfragen
Thema:
Large Language Models (LLM) - RAG-Tuning und Evaluation