Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der Kurs ist praxisnah und durchgängig hands-on.
Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Inhalt:
- Grundlagen & Architektur moderner LLMs
- - Überblick Transformer, Kontext, Tokenisierung
- - Prompt Design (Zero-/Few-Shot, System Prompts)
- - Unterschiede zu klassischen NLP-Verfahren
- - Hands-on: effektive Prompts entwickeln
- Retrieval-Augmented Generation (RAG) Essentials
- - Rolle von Embeddings und Vektorsuche
- - Praktische Arbeit mit FAISS, ChromaDB
- - Integration externer Quellen über LangChain / LlamaIndex
- - Aufbau einer einfachen RAG-Pipeline
- Erweiterte RAG-Pipelines in der Praxis
- - Datenvorbereitung & semantische Abfragen
- - Tool-Ketten in LangChain
- - Query-Antwort-System mit API-Anbindung
- - Best Practices: Trennung von Modell- und Wissenskomponente
- LLMOps – Deployment & Infrastruktur
- - Deployment-Strategien: Hosted vs. On-Premise
- - Containerisierung (Docker), Frameworks (FastAPI, BentoML)
- - Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
- - Prompt- & Model-Management
- LLMOps – Governance, Security & Skalierung
- - Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
- - Kostenkontrolle: Token-Tracking, Caching, Request-Management
- - CI/CD für LLM-Anwendungen
- Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
Direktlink zum Kurs!