top of page

n8n Workshop 
Leadgenerierung & Lead-Qualifizierung

Workshop
Offline LLMs

Der Workshop zeigt, wie LLMs lokal eingesetzt werden können - unabhängig von Cloud-Anbietern - und gibt einen praxisorientierten Überblick über die gängigen Modelle und deren Einsatz

Workshop Offline LLMs in der Praxis.png

Lernziele und Agenda Workshop Offline LLMs
 

  • Funktionsweise von Offline LLMs verstehen

  • Unterschiede zu Cloud-basierten LLMs kennenlernen

  • Installation und Einrichtung lokaler LLMs (ollama, bitNet etc.)

  • Nutzung von Python zur Steuerung und Integration von LLMs

  • Verbindung von Offline LLMs mit Tools, z.B. Datenbanken, Suche-APIs, Automatisierungen

  • Chancen & Grenzen für den praktischen Einsatz im Unternehmen erkennen

OFFENE SCHULUNG

Präsenzveranstaltung in Wiesbaden

oder Online-Seminar

   €1.420,00   

pro Person, zzgl. gesetzlicher USt

Präsenzveranstaltungen finden in Wiesbaden statt und werden ab zwei Anmeldung durchgeführt (Angebotsgarantie)

INHOUSE-SEMINAR

Seminardurchführung am Standort des Kunden

   €1.820,00   

pro Tag bis 4 Teilnehmer zzgl. gesetzlicher USt

Alle Inhalte der Inhouse-Seminare werden individuell zugeschnitten und zielgruppenspezifisch vermittelt.


Intensive Nachbetreuung ermöglicht den Teilnehmern ihre Kenntnisse in kürzester Zeit umzusetzen.

Empfohlene Seminardauer: 2 Tage

Leihgebühren Schulungsnotebook (auf Wunsch): 60,- Euro (pro Tag, pro Schulungsrechner)

Inhalte des Workshops Offline LLMs

  • Funktionsweise von Offline LLMs verstehen

  • Unterschiede zu Cloud-basierten LLMs kennenlernen: Quantisierung: 8-bit, 4-bit, Größe der Modelle.

  • Installation und Einrichten lokaler LLMs mit ollama etc., Hardwareanforderungen, Hinweise zur Geschwindigkeit.

  • Nutzung von Python zur Steuerung und Integration von LLMs.

  • Verbinden von Offline LLMs mit Tools, insbesondere Schnittstellen zu Such-APIs und Datenbanken.

  • Bewertung der Ergebnisse mit einem strukturierten Ansatz: Klassische Metriken als KPIs und der G-Eval-Ansatz.

Hinweise zur Umsetzung Workshop Offline LLMs

​Mittlerweile gibt es sehr gut Schnittstellen, die externe Informationen bereitstellen, u.a. Tools wie tavily, die Suchergebnisse von Google bereitstellen. Damit können die Offline-Modelle kleiner werden und auf Consumer-Hardware mit vertretbaren Geschwindigkeiten genutzt werden. Vorteil: Es werden keine sensiblen Informationen mehr nach draußen gegeben.

  • Es handelt sich um einen komplett praktisch ausgerichteten Workshop: Es wird in allen Teilen immer praktisch gearbeitet.

  • Wir nutzen unterschiedliche Hardware und können so zeigen, wie schnell welcher Ansatz funktioniert. 

  • Alles wird in Python umgesetzt.

  • Wir bauen Schnittstellen, insbesondere zu Suchmaschinen. Damit erreichen wir eine ähnliche Performanz wie Cloud-basierte Tools. 

Detaillierte Inhalte des Workshops Offline LLMs

Grundlagen von Large Language Models

 

Zu Beginn des Workshops erhalten die Teilnehmer eine Einführung in die grundlegende Funktionsweise von Large Language Models (LLMs). Dabei wird erläutert, wie transformerbasierte Modelle trainiert werden, welche Daten sie nutzen und wie sie Texte analysieren und generieren können.

 

Die Teilnehmer lernen, welche Komponenten ein Sprachmodell ausmachen und wie Eingaben verarbeitet werden, um daraus Antworten zu erzeugen. Ein besonderer Fokus liegt auf dem Verständnis der technischen Architektur moderner Sprachmodelle und deren praktischer Einsatzmöglichkeiten.

 

Dieses grundlegende Verständnis ist wichtig, um später fundierte Entscheidungen über den Einsatz von LLM-Technologien im Unternehmen treffen zu können.

 

 

 

Unterschiede zwischen Offline- und Cloud-basierten LLMs

 

Architektur und Infrastruktur von LLM-Systemen

 

Ein zentraler Bestandteil des Workshops ist der Vergleich zwischen cloud-basierten Sprachmodellen und lokal betriebenen LLMs. Während viele Anwendungen auf Cloud-Diensten basieren, gewinnen lokal ausgeführte Modelle zunehmend an Bedeutung.

 

Die Teilnehmer lernen, welche Unterschiede es hinsichtlich Architektur, Infrastruktur, Kostenstruktur und Datenschutz gibt. Besonders in Unternehmenskontexten spielt die Frage eine wichtige Rolle, ob Daten an externe Dienste übertragen werden dürfen oder ob eine lokale Verarbeitung erforderlich ist.

 

Anhand konkreter Beispiele wird diskutiert, in welchen Szenarien der Einsatz von Offline-LLMs sinnvoll ist und wann cloudbasierte Modelle Vorteile bieten.

 

 

 

Installation und Einrichtung lokaler LLMs

 

Arbeiten mit Plattformen wie Ollama und BitNet

 

Im Workshop wird gezeigt, wie lokale LLMs installiert und betrieben werden können. Die Teilnehmer lernen verschiedene Plattformen kennen, mit denen Sprachmodelle lokal ausgeführt werden können, darunter beispielsweise Ollama oder Systeme auf Basis quantisierter Modelle wie BitNet.

 

Dabei wird Schritt für Schritt demonstriert, wie Modelle installiert, konfiguriert und gestartet werden können. Außerdem werden unterschiedliche Hardwareanforderungen und typische Setup-Varianten erläutert.

 

Ziel dieses Abschnitts ist es, den Teilnehmern die Fähigkeit zu vermitteln, eigene lokale LLM-Umgebungen aufzubauen und zu betreiben.

 

 

 

Nutzung von Python zur Steuerung von LLMs

 

Integration von Sprachmodellen in Python-Anwendungen

 

Ein wichtiger Bestandteil des Workshops ist die Nutzung von Python zur Steuerung und Integration von LLMs. Python spielt im KI-Ökosystem eine zentrale Rolle und ermöglicht es, Sprachmodelle flexibel in Anwendungen einzubinden.

 

Die Teilnehmer lernen, wie Python-Skripte genutzt werden können, um Anfragen an lokale Modelle zu senden, Antworten zu verarbeiten und automatisierte Workflows zu erstellen. Dabei werden typische Bibliotheken und Schnittstellen vorgestellt, die für die Arbeit mit LLM-Systemen genutzt werden können.

 

Durch praktische Beispiele entsteht ein Verständnis dafür, wie LLM-Funktionen in eigene Anwendungen integriert werden können.

 

 

 

Verbindung von Offline LLMs mit externen Tools

 

Integration mit Datenbanken, APIs und Automatisierungssystemen

 

Ein besonderes Potenzial von lokalen LLMs entsteht, wenn sie mit anderen Systemen kombiniert werden. Im Workshop wird deshalb gezeigt, wie Sprachmodelle mit externen Tools und Datenquellen verbunden werden können.

 

Beispiele hierfür sind:

    •    Datenbanken zur Speicherung und Analyse von Ergebnissen

    •    Such-APIs zur Erweiterung des Wissenskontexts

    •    Automatisierungsplattformen zur Integration in Geschäftsprozesse

 

Die Teilnehmer lernen, wie solche Systeme miteinander verbunden werden können, sodass aus einzelnen Komponenten leistungsfähige KI-gestützte Anwendungen entstehen.

 

 

 

Chancen und Grenzen von Offline LLMs im Unternehmenskontext

 

Bewertung von Einsatzszenarien für Unternehmen

 

Zum Abschluss des Workshops wird diskutiert, welche Chancen und Grenzen der Einsatz von Offline-LLMs im Unternehmensumfeld mit sich bringt. Dabei werden Aspekte wie Datenschutz, Infrastrukturkosten, Modellqualität und Wartungsaufwand betrachtet.

 

Die Teilnehmer lernen, typische Einsatzszenarien zu bewerten und abzuschätzen, wann der Einsatz lokaler Modelle sinnvoll ist und wann cloudbasierte Lösungen Vorteile bieten können.

 

Dieser Abschnitt hilft dabei, das im Workshop erarbeitete Wissen in strategische Entscheidungen für reale Unternehmensprojekte zu übertragen.

HINWEISE ZUR UMSETZUNG

  • Der Workshop ist komplett praktisch ausgerichtet: In allen Teilen wird hands-on gearbeitet.

  • Es kommen verschiedene Hardware-Szenarien zum Einsatz, um Geschwindigkeiten und Grenzen realistisch einschätzen zu können.

  • Alle Übungen werden in Python umgesetzt.

  • Wir bauen Schnittstellen zu Suchmaschinen und zeigen, wie damit ähnliche Performanz wie bei Cloud-basierten Tools erreicht werden kann.

  • Ein klarer Vorteil: Keine sensiblen Daten verlassen das Unternehmen, da ausschließlich lokale Modelle verwendet werden.

Zielgruppen und Hinweise:

Workshop Offline LLMs

​​

Zielgruppe des Seminars

 

Zielgruppe des Workshops

 

Der Workshop „Offline LLMs“ richtet sich an Fachkräfte und Teams, die Large Language Models lokal betreiben und in eigene Anwendungen oder Arbeitsprozesse integrieren möchten. Im Mittelpunkt steht der praktische Einsatz von Sprachmodellen ohne Cloud-Abhängigkeit.

 

Typische Teilnehmer sind:

    •    Data Scientists und Machine-Learning-Teams, die mit lokalen Modellen arbeiten möchten

    •    Python-Entwicklerinnen und Python-Entwickler, die KI-Funktionen in eigene Anwendungen integrieren

    •    IT-Abteilungen, die KI-Infrastruktur im eigenen Unternehmen aufbauen oder evaluieren

    •    Analytics- und Innovationsteams, die neue KI-Technologien testen und prototypisch einsetzen

    •    Unternehmen mit hohen Datenschutzanforderungen, bei denen Cloud-Lösungen nur eingeschränkt nutzbar sind

 

Der Workshop eignet sich besonders für Organisationen, die LLM-Technologien unabhängig von Cloud-Diensten einsetzen oder sensible Daten lokal verarbeiten möchten.

 

 

 

Voraussetzungen

 

Für die Teilnahme sind grundlegende Kenntnisse in Python hilfreich, insbesondere im Umgang mit Skripten, Bibliotheken und einfachen Datenstrukturen.

 

Erfahrungen mit Machine Learning oder Deep Learning sind nicht zwingend erforderlich. Die relevanten Konzepte rund um Large Language Models werden im Workshop schrittweise erklärt und anhand praktischer Beispiele demonstriert.

 

Hinweise zur Durchführung

 

Der Workshop ist praxisorientiert aufgebaut und kombiniert theoretische Grundlagen mit praktischen Übungen. Die Teilnehmer arbeiten mit realistischen Beispielen und lernen Schritt für Schritt, wie lokale LLM-Systeme installiert, konfiguriert und in Anwendungen integriert werden können.

 

Die praktischen Übungen können je nach technischer Umgebung unter Windows, Linux oder macOS durchgeführt werden. Für die Arbeit mit lokalen LLMs wird eine Python-Umgebung benötigt.

Der Workshop kann als Inhouse-Seminar, Online-Workshop oder Präsenzveranstaltung durchgeführt werden.

bottom of page