Beschreibung
In diesem Seminar erfahren Sie, wie Sie moderne Sprachmodelle produktiv einsetzen. Sie kombinieren LLMs mit externen Datenquellen über RAG-Techniken, nutzen Vektorsuchen und optimieren die Antwortqualität durch gezieltes Prompt Design.
Mit Tools wie LangChain, FAISS und LlamaIndex entwickeln Sie eigene Pipelines, die skalierbar, modular und produktionsnah sind. So machen Sie generative KI anwendungsreif.
Hinweis:
Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Inhalt:
- Architektur und Grundlagen moderner LLMs
- - Überblick über Transformer-Modelle
- - Unterschiede zu klassischen NLP-Verfahren
- - Rolle von Kontext und Tokenisierung
- Prompt Design und Modellsteuerung
- - Struktur effektiver Prompts
- - Few-/Zero-Shot-Techniken
- - System-Prompts für mehr Kontrolle
- Grundlagen von Retrieval-Augmented Generation (RAG)
- - Trennung von Modell- und Wissenskomponente
- - Nutzen für domänenspezifische Anwendungen
- Vektorsuche und Embedding-Verwaltung
- - Embedding-Erstellung mit Hugging Face
- - Ähnlichkeitssuche mit FAISS und ChromaDB
- - semantische Datenabfragen
- LangChain und LlamaIndex im Einsatz
- - Aufbau modularer NLP-Pipelines
- - Integration externer Quellen
- - Dokumentensuche
- - Tool-Ketten
- Eigene RAG-Pipeline entwickeln
- - Datenvorbereitung
- - Query-Antwort-System mit LangChain
- - API-Anbindung für produktionsnahe Lösungen
Direktlink zum Kurs!