Offene Schulungen in Wiesbaden
Termine im Jahr 2026: 11./12. Juni 2026 und 19./20. November 2026

Lernziele und Agenda Seminar LLM gestützte KI-Anwendungen mit Python entwickeln
-
Verständnis von LLMs: Grundlagen von Large Language Models (LLMs) und deren Funktionsweise verstehen.
-
Praktische Anwendung: Fähigkeit zur effektiven Nutzung von online (z.B. ChatGPT) und offline (z.B. Ollama) LLMs in Python erlernen.
-
Prompt Engineering: Kenntnisse in der Erstellung und Optimierung von Prompts für LLMs erwerben.
-
Integration von Frameworks: Anwendung von Llama-Index und Langchain zur Entwicklung komplexer KI-Anwendungen erlernen.
-
Zero-shot und Few-shot Techniken: Vertrautheit mit Zero-shot und Few-shot Lernmethoden entwickeln.
-
Frontend-Entwicklung: Erstellung interaktiver Benutzeroberflächen für LLM-Anwendungen mit Streamlit erlernen.
-
Praktische Umsetzung: Anwendung des Gelernten in einer realistischen Case-Study, um praktische Erfahrungen zu sammeln.
-
Optimierung von Anwendungen: Strategien zur Optimierung der Performance und Benutzererfahrung von LLM-gestützten Anwendungen verstehen.
INHOUSE-SEMINAR
Seminardurchführung am Standort des Kunden
€1.890,00
pro Tag bis 4 Teilnehmer zzgl. gesetzlicher USt
Alle Inhalte der Inhouse-Seminare werden individuell zugeschnitten und zielgruppenspezifisch vermittelt.
Intensive Nachbetreuung ermöglicht den Teilnehmern ihre Kenntnisse in kürzester Zeit umzusetzen.
Empfohlene Seminardauer: 2 Tage
Leihgebühren Schulungsnotebook (auf Wunsch): 60,- Euro (pro Tag, pro Schulungsrechner)
Inhalte Seminar LLM gestützte KI-Anwendungen mit Python entwickeln
Inhalte Tag 1: Einführung in LLMs und grundlegende Implementierungen
Einheit 1: Einführung in LLMs und Python
-
Überblick über Large Language Models (LLMs) und deren Anwendungsgebiete.
-
Vergleich zwischen online LLMs (z.B. ChatGPT) und offline LLMs (z.B. mit Ollama).
-
Grundlegende Konzepte von Python für KI-Entwicklungen.
-
Installation und Einrichtung der benötigten Tools und Bibliotheken (z.B. transformers, torch).
Einheit 2: Nutzung von LLMs mit Python
-
Anbindung und Nutzung von online LLMs (z.B. ChatGPT API).
-
Einführung in die Offline-Nutzung von LLMs mit Ollama.
-
Hands-on: Erste Interaktionen mit LLMs in Python.
-
Beispielanwendungen: Textgenerierung und einfache Dialogsysteme.
Arbeiten mit Llama-Index und Langchain
-
Einführung in Llama-Index und Langchain als Frameworks für LLM-gestützte Anwendungen.
-
Installation und erste Schritte mit Llama-Index.
-
Entwicklung einfacher Anwendungen zur Datenabfrage und -verarbeitung.
-
Anwendungsbeispiele für Llama-Index und Langchain.
Case Study
-
Anwendung des Gelernten in einer realistischen Case-Study.
-
Die Teilnehmer arbeiten in Gruppen, um eine LLM-gestützte Anwendung zu entwickeln.
-
Präsentation der Ergebnisse und Diskussion.
Inhalte Tag 2: Vertiefung und fortgeschrittene Techniken
Einheit 4: Fortgeschrittene Techniken mit LLMs
-
Einführung in Techniken wie Few-shot und Zero-shot Learning.
-
Verwendung von Langchain für komplexe Workflow-Implementierungen.
-
Integration von LLMs in bestehende Anwendungen (z.B. Chatbots, Textanalysen).
Einheit 5: Optimierung und Performance-Management
-
Strategien zur Optimierung der Performance von LLM-Anwendungen.
-
Diskussion der Herausforderungen bei der Nutzung von LLMs.
-
Hands-on: Implementierung von Best Practices zur Verbesserung der Ergebnisse.
Einheit 6: Frontend-Entwicklung mit Streamlit
-
Einführung in Streamlit für die Entwicklung interaktiver Webanwendungen.
-
Erstellung von Benutzeroberflächen für LLM-gestützte Anwendungen.
-
Hands-on: Integration von LLMs in Streamlit-Anwendungen für eine benutzerfreundliche Präsentation.
Case Study
-
Weiterführung der Case-Study vom ersten Tag mit Fokus auf fortgeschrittene Techniken.
-
Die Teilnehmer implementieren komplexere Funktionen in ihren Anwendungen.
-
Präsentation der finalen Projekte und Feedback-Runde.
Detaillierte Inhalte zum Seminar LLM gestützte
KI-Anwendungen mit Python entwickeln
Zu Beginn des Workshops erhalten die Teilnehmenden eine fundierte Einführung in Large Language Models (LLMs) und deren Einsatzmöglichkeiten in modernen Softwareanwendungen. Dabei wird erläutert, wie LLMs funktionieren, welche Aufgaben sie übernehmen können und in welchen Bereichen sie bereits erfolgreich eingesetzt werden.
Ein wichtiger Bestandteil dieser Einführung ist der Vergleich zwischen online verfügbaren LLMs und lokal betriebenen Modellen. Online-Systeme wie ChatGPT ermöglichen den schnellen Einstieg in die Nutzung von Sprachmodellen über APIs. Gleichzeitig gewinnen jedoch offline betriebene Modelle, beispielsweise über Plattformen wie Ollama, zunehmend an Bedeutung – insbesondere in Szenarien, in denen Datenschutz, Kostenkontrolle oder lokale Verarbeitung eine Rolle spielen.
Parallel dazu werden die grundlegenden Python-Konzepte vermittelt, die für die Entwicklung von KI-Anwendungen relevant sind. Die Teilnehmer lernen, welche Bibliotheken und Frameworks im Umfeld von LLM-Anwendungen eingesetzt werden und wie eine Entwicklungsumgebung eingerichtet wird. Dazu gehört unter anderem die Installation wichtiger Bibliotheken wie transformers, torch und weiterer Komponenten für das Arbeiten mit Sprachmodellen.
Der Einstieg schafft damit eine solide Grundlage für die praktische Arbeit mit LLM-gestützten Anwendungen in Python.
Nutzung von LLMs mit Python
Im nächsten Schritt arbeiten die Teilnehmer direkt mit Sprachmodellen innerhalb von Python-Anwendungen. Dabei wird zunächst gezeigt, wie online verfügbare LLMs über APIs angesprochen werden können. Anhand konkreter Beispiele wird demonstriert, wie Anfragen an ein Modell gesendet und die Antworten anschließend weiterverarbeitet werden können.
Darüber hinaus lernen die Teilnehmer, wie lokal ausgeführte Modelle in Python integriert werden können. Plattformen wie Ollama ermöglichen es, Sprachmodelle direkt auf lokalen Systemen zu betreiben und über standardisierte Schnittstellen in Anwendungen einzubinden. Dies eröffnet neue Möglichkeiten für Anwendungen, bei denen Daten nicht an externe Dienste übertragen werden sollen.
In praktischen Übungen entwickeln die Teilnehmer erste Python-Skripte, die mit LLMs interagieren. Dabei entstehen einfache Anwendungen wie:
• automatische Textgenerierung
• dialogbasierte Systeme
• einfache Analyse- und Auswertungsprozesse
Durch diese ersten praktischen Beispiele entsteht ein grundlegendes Verständnis dafür, wie LLMs in reale Anwendungen integriert werden können.
Arbeiten mit LlamaIndex und LangChain
Ein zentraler Bestandteil moderner LLM-Anwendungen ist die Nutzung spezialisierter Frameworks. Im Workshop werden deshalb LlamaIndex und LangChain als zwei wichtige Werkzeuge für die Entwicklung LLM-gestützter Anwendungen vorgestellt.
Die Teilnehmer lernen, wie diese Frameworks eingesetzt werden können, um Sprachmodelle mit externen Datenquellen zu verbinden. Dadurch lassen sich Anwendungen entwickeln, die nicht nur generative Fähigkeiten besitzen, sondern auch auf strukturierte oder unstrukturierte Daten zugreifen können.
Anhand praktischer Beispiele wird gezeigt, wie:
• Datenquellen eingebunden werden
• Inhalte strukturiert abgefragt werden können
• Sprachmodelle mit zusätzlichen Kontextinformationen arbeiten
Die Teilnehmer entwickeln erste kleine Anwendungen, die Daten analysieren, Informationen extrahieren oder Inhalte automatisch zusammenfassen. Dadurch wird deutlich, wie Frameworks wie LlamaIndex und LangChain die Entwicklung komplexerer KI-Anwendungen deutlich vereinfachen können.
Entwicklung einer LLM-gestützten Anwendung (Case Study)
Am Ende des ersten Workshop-Tages arbeiten die Teilnehmer an einer praxisnahen Fallstudie. Ziel ist es, das bisher Gelernte in einer realistischen Anwendung umzusetzen.
In kleinen Gruppen entwickeln die Teilnehmer eine LLM-gestützte Anwendung, die typische Aufgaben der Textverarbeitung oder Informationsanalyse automatisiert. Dabei können beispielsweise externe Datenquellen eingebunden, Texte analysiert oder automatisierte Auswertungen erstellt werden.
Die Ergebnisse werden anschließend gemeinsam präsentiert und diskutiert. Dadurch entsteht ein Austausch über unterschiedliche Lösungsansätze und mögliche Erweiterungen der entwickelten Anwendungen.
Fortgeschrittene Techniken mit Large Language Models
Der zweite Workshop-Tag vertieft die Arbeit mit Sprachmodellen und führt in fortgeschrittene Techniken ein. Ein wichtiger Schwerpunkt liegt auf Methoden wie Few-shot Learning und Zero-shot Learning, mit denen sich Sprachmodelle gezielt steuern und für spezifische Aufgaben einsetzen lassen.
Die Teilnehmer lernen, wie solche Techniken genutzt werden können, um bessere Ergebnisse aus LLM-Anwendungen zu erhalten. Dabei wird auch gezeigt, wie komplexere Workflows mit Hilfe von Frameworks wie LangChain aufgebaut werden können.
Darüber hinaus wird demonstriert, wie Sprachmodelle in bestehende Anwendungen integriert werden können. Typische Einsatzbereiche sind beispielsweise:
• Chatbots
• Textanalysen
• automatisierte Dokumentverarbeitung
• intelligente Assistenzsysteme
Durch diese Beispiele erhalten die Teilnehmer ein Verständnis dafür, wie LLMs in reale Softwareprojekte integriert werden können.
Optimierung und Performance-Management von LLM-Anwendungen
Ein weiterer wichtiger Aspekt bei der Entwicklung von LLM-Anwendungen ist die Optimierung der Performance. Im Workshop werden deshalb Strategien vorgestellt, mit denen sich Ergebnisse verbessern und Anwendungen effizienter gestalten lassen.
Die Teilnehmer lernen typische Herausforderungen kennen, die bei der Nutzung von Sprachmodellen auftreten können. Dazu gehören beispielsweise:
• Qualität der Modellantworten
• Geschwindigkeit der Verarbeitung
• Kosten bei API-basierten Modellen
• Skalierbarkeit von Anwendungen
In praktischen Übungen werden Best Practices umgesetzt, mit denen sich Ergebnisse verbessern und Anwendungen stabiler betreiben lassen.
Entwicklung interaktiver Anwendungen mit Streamlit
Damit LLM-Anwendungen nicht nur im Hintergrund laufen, sondern auch von Nutzern verwendet werden können, wird im Workshop eine Einführung in Streamlit gegeben. Streamlit ist ein Python-Framework zur Entwicklung einfacher Weboberflächen.
Die Teilnehmer lernen, wie sich mit wenigen Zeilen Python-Code interaktive Benutzeroberflächen erstellen lassen. Dadurch können LLM-Anwendungen beispielsweise über Webformulare, Chat-Interfaces oder interaktive Dashboards bedient werden.
In praktischen Übungen entwickeln die Teilnehmer kleine Webanwendungen, die Sprachmodelle im Hintergrund nutzen. Dadurch entsteht ein vollständiger Prototyp einer Anwendung, die sowohl die KI-Logik als auch eine nutzbare Benutzeroberfläche umfasst.
Erweiterte Case Study und Abschlussprojekt
Zum Abschluss des Workshops wird die Case Study aus dem ersten Tag weitergeführt und erweitert. Die Teilnehmer integrieren zusätzliche Funktionen in ihre Anwendungen und nutzen die im zweiten Tag erlernten Techniken.
Dabei können beispielsweise komplexere Workflows, optimierte Prompts oder interaktive Benutzeroberflächen integriert werden. Ziel ist es, eine vollständige LLM-gestützte Anwendung zu entwickeln, die reale Aufgabenstellungen abbildet.
Die finalen Projekte werden anschließend präsentiert und gemeinsam diskutiert. Diese Abschlussphase ermöglicht es den Teilnehmern, verschiedene Lösungsansätze kennenzulernen und zusätzliche Anregungen für eigene Projekte mitzunehmen.
Zielgruppen des Seminars LLM gestützte KI-Anwendungen
mit Python entwickeln
Der Workshop richtet sich an Fachkräfte und Teams, die LLM-gestützte Anwendungen mit Python entwickeln oder in bestehende Systeme integrieren möchten. Im Mittelpunkt stehen praktische Anwendungen von Large Language Models in realen Softwareprojekten.
Typische Teilnehmer sind:
• Data Scientists und Data Engineers
• Python-Entwicklerinnen und Python-Entwickler
• Softwareentwickler mit Interesse an KI-Anwendungen
• IT-Abteilungen, die LLM-Technologien evaluieren oder implementieren möchten
• Analytics- und Innovationsteams
• Unternehmen, die KI-gestützte Anwendungen prototypisch entwickeln wollen
Der Workshop ist besonders geeignet für Organisationen, die LLM-Technologien in eigene Anwendungen integrieren oder neue KI-basierte Produkte entwickeln möchten.
Häufige Fragen zum Seminar LLM gestützte KI-Anwendungenmit Python entwickeln
Was sind Large Language Models (LLMs)?
Large Language Models sind KI-Modelle, die auf großen Textmengen trainiert wurden und natürliche Sprache verstehen sowie generieren können. Beispiele sind Systeme wie GPT-Modelle oder andere transformerbasierte Sprachmodelle. Sie werden unter anderem für Textanalyse, Chatbots, Dokumentenverarbeitung oder automatisierte Assistenzsysteme eingesetzt.
Benötige ich Programmierkenntnisse für diesen Workshop?
Ja, grundlegende Kenntnisse in Python sind empfehlenswert. Der Workshop richtet sich an Teilnehmer, die bereits erste Erfahrungen mit Python haben und diese für die Entwicklung von KI-Anwendungen nutzen möchten.
Werden im Workshop auch lokale LLMs eingesetzt?
Ja. Neben der Nutzung von online verfügbaren LLM-APIs wird auch gezeigt, wie Sprachmodelle lokal betrieben werden können. Dadurch lernen die Teilnehmer unterschiedliche Einsatzszenarien kennen, beispielsweise für Anwendungen mit besonderen Anforderungen an Datenschutz oder Infrastruktur.
Welche Frameworks werden im Workshop verwendet?
Im Workshop werden verschiedene Werkzeuge aus dem Python-Ökosystem eingesetzt, darunter unter anderem transformers, LangChain, LlamaIndex und Streamlit. Diese Frameworks erleichtern die Entwicklung und Integration von LLM-gestützten Anwendungen.
Kann der Workshop als Inhouse-Seminar durchgeführt werden?
Ja. Der Workshop kann als Inhouse-Seminar beim Kunden, als Online-Workshop oder als Präsenzveranstaltung durchgeführt werden. Inhalte und Beispiele können dabei an die Anforderungen des jeweiligen Unternehmens angepasst werden.
Wie viele Teilnehmer sind für den Workshop sinnvoll?
Für praxisorientierte Workshops empfehlen sich Gruppen von 4 bis 12 Teilnehmern. Dadurch bleibt ausreichend Zeit für praktische Übungen, individuelle Fragen und Diskussionen zu konkreten Anwendungsfällen.

