Offene Schulungen in Wiesbaden
Termine im Jahr 2026: 22. Mai 2026, 11. Juni 2026 und 12. November 2026

Lernziele und Agenda Strukturiertes Prompt Engineering
-
Vermittlung grundlegender und fortgeschrittener Techniken des Prompt Engineering.
-
Erlernen des effektiven Testens von Prompts mit dem langfuse Backend..
-
Entwicklung und Anwendung von systematischen Testmethoden zur Evaluierung der Prompt-Güte.
-
Praktische Anwendung von Zero-shot, One-shot und Few-shot Techniken.
-
Förderung individueller Fertigkeiten durch praktische Übungen und Gruppenbesprechungen.
INHOUSE-SEMINAR
Seminardurchführung am Standort des Kunden
€1.420,00
pro Tag bis 4 Teilnehmer zzgl. gesetzlicher USt
Alle Inhalte der Inhouse-Seminare werden individuell zugeschnitten und zielgruppenspezifisch vermittelt.
Intensive Nachbetreuung ermöglicht den Teilnehmern ihre Kenntnisse in kürzester Zeit umzusetzen.
Empfohlene Seminardauer: 1 Tag
Leihgebühren Schulungsnotebook (auf Wunsch): 60,- Euro (pro Tag, pro Schulungsrechner)
Inhalte Seminar Strukturiertes Prompt Engineering
Einheit 1: Grundlagen des Prompt Engineering
-
Einführung in die Prinzipien des Prompt Engineering.
-
Hands-on-Session zur Erstellung und Analyse von Prompts.
-
Nutzung von Llama-Index und Langchain für die Entwicklung von Prompts.
-
Besprechung der Bestandteile eines Prompts: Context, System, User, etc.
Einheit 2: Effektives Entwickeln von Prompts mit langfuse/langgraph
-
Grundlagen des langfuse/langgraph Systems.
-
Anlegen von Testdaten und spezifischen Prompts zur Qualitätssicherung.
-
Berechnung und Analyse von Metriken zur Evaluierung der Prompts.
-
Strategien zur effektiven Entwicklung und Versionierung von Prompts.
Eineit 3: Zero-shot, One-shot und Few-shot Techniken
-
Einführung in die Konzepte von Zero-shot, One-shot und Few-shot Techniken.
-
Praktische Anwendung dieser Techniken unter Verwendung des langfuse Backends.
-
Entwicklung von Prompts zur Maximierung der Effizienz dieser Ansätze.
Einheit 4: Fortgeschrittene Techniken des Prompt Engineering
-
Erlernen fortgeschrittener Techniken:
-
ReAct (Reasoning and Action)
-
Chain-of-Thought (CoT) Prompting
-
Self-consistency with CoT
-
Tree-of-Thought (ToT) Prompting
-
Reasoning via Planning (RAP)
-
Self-refine und Reflexion
-
Language Agent Tree Search (LATS)
-
Weitere Techniken
-
-
Praktische Übungen zur Anwendung dieser Techniken in realen Szenarien.
Detaillierte Inhalte des Seminars Grundlagen des Prompt Engineering
Einführung in die Prinzipien des Prompt Engineering
Zu Beginn des Seminars erhalten die Teilnehmer eine Einführung in die grundlegenden Konzepte des Prompt Engineering. Dabei wird erläutert, wie Large Language Models arbeiten und warum die Struktur und Formulierung von Prompts entscheidend für die Qualität der Modellantworten ist.
Die Teilnehmer lernen, welche Rolle Kontextinformationen, Systemanweisungen und Nutzereingaben spielen und wie diese Komponenten miteinander kombiniert werden können. Ein besonderer Fokus liegt darauf, typische Fehler bei der Erstellung von Prompts zu erkennen und zu vermeiden.
Durch erste praktische Beispiele wird gezeigt, wie unterschiedliche Prompt-Formulierungen zu unterschiedlichen Ergebnissen führen können.
Analyse und Entwicklung erster Prompts
Im Anschluss entwickeln die Teilnehmer eigene Prompts und analysieren deren Wirkung auf die Antworten eines Sprachmodells. Dabei wird untersucht, wie sich Struktur, Detailgrad und Kontextinformationen auf die Ergebnisse auswirken.
Die Teilnehmer experimentieren mit verschiedenen Varianten von Prompts und lernen, wie sich diese systematisch verbessern lassen. Ziel dieses Abschnitts ist es, ein praktisches Verständnis dafür zu entwickeln, wie Prompts aufgebaut werden müssen, um reproduzierbare und qualitativ hochwertige Ergebnisse zu erzielen.
Nutzung von LlamaIndex und LangChain für Prompt-Entwicklung
Im Seminar wird außerdem gezeigt, wie Frameworks wie LlamaIndex und LangChain eingesetzt werden können, um strukturierte Prompt-Workflows zu entwickeln.
Die Teilnehmer lernen, wie Prompts in Anwendungen integriert werden können und wie sich Sprachmodelle mit externen Datenquellen verbinden lassen. Dadurch entstehen Anwendungen, die nicht nur generative Antworten liefern, sondern auch auf strukturierte Informationen zugreifen können.
Anhand von Beispielen wird demonstriert, wie sich Prompts systematisch in Anwendungen einbinden lassen.
Effektive Entwicklung und Evaluierung von Prompts
Arbeiten mit langfuse und langgraph
Ein wichtiger Bestandteil moderner KI-Anwendungen ist die systematische Entwicklung und Evaluierung von Prompts. Im Workshop lernen die Teilnehmer daher Werkzeuge wie langfuse und langgraph kennen, die speziell für die Entwicklung und Analyse von Prompt-basierten Anwendungen eingesetzt werden.
Diese Systeme ermöglichen es, Prompts zu versionieren, Testdaten zu verwalten und die Qualität von Modellantworten systematisch zu analysieren.
Testdaten und Qualitätssicherung von Prompts
Die Teilnehmer lernen, wie Testdatensätze erstellt werden können, um Prompts unter realistischen Bedingungen zu evaluieren. Durch strukturierte Tests lassen sich unterschiedliche Prompt-Varianten miteinander vergleichen und deren Qualität objektiv beurteilen.
Dabei wird gezeigt, wie typische Aufgabenstellungen definiert und wie geeignete Evaluationsszenarien aufgebaut werden können.
Metriken zur Bewertung von Prompt-Ergebnissen
Ein weiterer Schwerpunkt liegt auf der messbaren Bewertung von Prompt-Ergebnissen. Die Teilnehmer lernen, wie verschiedene Metriken genutzt werden können, um die Qualität von Modellantworten zu analysieren.
Dazu gehören beispielsweise Kriterien wie:
• Relevanz der Antworten
• Vollständigkeit der Informationen
• Konsistenz der Ergebnisse
• Übereinstimmung mit Referenzantworten
Durch diese systematische Evaluierung können Prompts gezielt verbessert werden.
Versionierung und iterative Verbesserung von Prompts
Prompt Engineering ist ein iterativer Prozess. Deshalb wird im Seminar gezeigt, wie Prompts versioniert und schrittweise verbessert werden können.
Die Teilnehmer lernen Strategien kennen, mit denen Prompt-Varianten systematisch getestet und optimiert werden können. Dadurch entstehen robuste Prompt-Strukturen, die auch bei unterschiedlichen Eingaben konsistente Ergebnisse liefern.
Zero-shot, One-shot und Few-shot Techniken
Grundlagen der Shot-Techniken
Ein zentraler Bestandteil moderner Prompt-Strategien sind sogenannte Shot-Techniken. Dabei wird gesteuert, wie viele Beispiele einem Sprachmodell zur Verfügung gestellt werden, um eine Aufgabe zu lösen.
Im Seminar werden die Konzepte von Zero-shot, One-shot und Few-shot ausführlich erläutert. Die Teilnehmer lernen, wann welche Technik sinnvoll eingesetzt werden kann und wie sich die Qualität der Ergebnisse dadurch beeinflussen lässt.
Praktische Anwendung mit langfuse
Die verschiedenen Shot-Techniken werden anschließend in praktischen Übungen umgesetzt. Dabei nutzen die Teilnehmer das langfuse-Backend, um Prompts zu testen und unterschiedliche Varianten miteinander zu vergleichen.
Durch diese Experimente wird deutlich, wie sich die Struktur eines Prompts auf die Leistungsfähigkeit eines Sprachmodells auswirkt.
Entwicklung effizienter Prompt-Strukturen
Ein weiterer Schwerpunkt liegt auf der Entwicklung effizienter Prompt-Strukturen. Die Teilnehmer lernen, wie Beispiele sinnvoll formuliert und wie Kontextinformationen optimal integriert werden können.
Ziel ist es, Prompts zu entwickeln, die auch bei komplexeren Aufgaben zuverlässige und konsistente Ergebnisse liefern.
Fortgeschrittene Techniken des Prompt Engineering
Reasoning-basierte Prompting-Strategien
Im letzten Teil des Seminars werden fortgeschrittene Techniken des Prompt Engineering vorgestellt. Dabei geht es insbesondere um Methoden, mit denen Sprachmodelle zu strukturiertem Denken und komplexeren Problemlösungen angeregt werden können.
Zu den behandelten Techniken gehören unter anderem:
• ReAct (Reasoning and Action)
• Chain-of-Thought Prompting (CoT)
• Self-consistency mit CoT
• Tree-of-Thought Prompting (ToT)
• Reasoning via Planning (RAP)
Diese Methoden ermöglichen es, komplexe Aufgaben schrittweise zu analysieren und strukturierte Lösungswege zu entwickeln.
Reflexion und iterative Verbesserung von Modellantworten
Ein weiterer Schwerpunkt liegt auf Techniken zur Selbstverbesserung von Modellantworten. Dazu gehören Methoden wie Self-refine oder Reflexionsstrategien, bei denen ein Modell seine eigenen Antworten überprüft und verbessert.
Solche Verfahren sind besonders hilfreich, wenn komplexe Aufgaben oder längere Argumentationsketten verarbeitet werden müssen.
Language Agent Tree Search und agentenbasierte Ansätze
Abschließend wird ein Überblick über agentenbasierte Verfahren gegeben, bei denen Sprachmodelle in komplexe Entscheidungsprozesse eingebunden werden.
Techniken wie Language Agent Tree Search (LATS) zeigen, wie Modelle unterschiedliche Lösungswege analysieren und miteinander vergleichen können. Diese Ansätze spielen eine wichtige Rolle bei der Entwicklung moderner KI-Agenten und komplexer KI-Systeme.
Praktische Übungen zu fortgeschrittenen Prompt-Techniken
Alle fortgeschrittenen Methoden werden anhand praktischer Beispiele und Übungen angewendet. Die Teilnehmer arbeiten mit realistischen Szenarien und testen verschiedene Prompt-Strategien.
Ziel ist es, ein tiefes Verständnis dafür zu entwickeln, wie unterschiedliche Prompt-Techniken eingesetzt werden können, um robuste und leistungsfähige KI-Anwendungen zu entwickeln.
Zielgruppen und Hinweise:
Seminar Strukturiertes Prompt Engineering
Zielgruppe des Seminars
Das Seminar Strukturiertes Prompt Engineering richtet sich an Fachkräfte und Teams, die Large Language Models (LLMs) systematisch und reproduzierbar in Anwendungen oder Arbeitsprozessen einsetzen möchten.
Typische Teilnehmer sind:
• Data Scientists und Data Engineers
• Entwicklerinnen und Entwickler von KI-Anwendungen
• Machine-Learning- und Analytics-Teams
• IT-Abteilungen, die LLM-Systeme evaluieren oder implementieren
• Produkt- und Innovationsteams
• Fachabteilungen, die KI-gestützte Anwendungen nutzen oder entwickeln möchten
Der Workshop ist besonders geeignet für Organisationen, die LLM-basierte Anwendungen entwickeln oder bestehende Systeme um KI-Funktionen erweitern möchten.
Voraussetzungen
Für die Teilnahme sind keine Programmierkenntnisse zwingend erforderlich, grundlegendes technisches Verständnis für KI-Anwendungen ist jedoch hilfreich.
Teilnehmer profitieren besonders, wenn sie bereits erste Erfahrungen mit LLM-Systemen wie ChatGPT oder anderen generativen KI-Systemen gesammelt haben. Im Workshop werden alle wichtigen Konzepte des Prompt Engineering systematisch erklärt und anhand praktischer Beispiele umgesetzt.
Hinweise zur Durchführung
Das Seminar ist stark praxisorientiert aufgebaut. Ein großer Teil der Zeit wird für praktische Übungen und Experimente mit verschiedenen Prompt-Techniken verwendet.
Die Teilnehmer arbeiten mit realistischen Anwendungsfällen und entwickeln eigene Prompts, die anschließend analysiert und optimiert werden. Ziel ist es, ein strukturiertes Vorgehen für die Entwicklung und Evaluierung von Prompts zu vermitteln.
Das Seminar kann als Inhouse-Seminar, Online-Workshop oder Präsenzveranstaltung durchgeführt werden.
Häufige Fragen zum Seminar Strukturiertes Prompt Engineering
Was ist Prompt Engineering?
Prompt Engineering bezeichnet die systematische Entwicklung und Optimierung von Eingaben für Large Language Models. Ziel ist es, Sprachmodelle so zu steuern, dass sie präzise, konsistente und reproduzierbare Ergebnisse liefern.
Dabei spielen Faktoren wie Kontext, Struktur des Prompts und Beispiele eine entscheidende Rolle.
Für wen ist das Seminar geeignet?
Das Seminar richtet sich an Fachkräfte aus IT, Data Science, Analytics oder Innovationsteams, die LLM-Technologien praktisch einsetzen möchten. Auch Unternehmen, die KI-gestützte Anwendungen entwickeln oder evaluieren möchten, profitieren von den vermittelten Methoden.
Benötige ich Programmierkenntnisse für Prompt Engineering?
Nein. Viele Methoden des Prompt Engineering können ohne Programmierung angewendet werden. Technisches Verständnis für KI-Systeme und Datenverarbeitung ist jedoch hilfreich.
Welche Modelle werden im Seminar verwendet?
Im Seminar werden Beispiele mit verschiedenen Large Language Models diskutiert. Dazu gehören sowohl online verfügbare Modelle über APIs als auch Ansätze für lokal betriebene Modelle.
Der Fokus liegt jedoch weniger auf einem bestimmten Modell als auf den Methoden des strukturierten Prompt Engineering.
Welche Tools werden im Workshop eingesetzt?
Im Workshop werden unter anderem Tools und Frameworks wie langfuse, langgraph, LangChain oder ähnliche Werkzeuge vorgestellt, die bei der Entwicklung und Evaluierung von Prompts eingesetzt werden können.
Diese Tools helfen dabei, Prompts zu testen, zu versionieren und systematisch zu verbessern.
Wie viele Teilnehmer sind für das Seminar sinnvoll?
Für praxisorientierte Workshops empfehlen sich Gruppen von 4 bis 12 Teilnehmern. Dadurch bleibt ausreichend Zeit für praktische Übungen, individuelle Fragen und Diskussionen zu konkreten Anwendungsfällen.

