top of page

MEDIZINISCHE STATISTIK FÜR NICHT STATISTIKER*INNEN

Präsenzveranstaltungen in Wiesbaden oder Online-Seminar an 2 Tagen: 1.090,- € pro Person (netto)

Ein Statistik-Seminar für Fachkräfte aus den Bereichen Medizin und Gesundheitsökonomie.

Termine Offene Schulungen: 18./19.04.2024, 15./16.08.2024, 12./13.12.2024

Medizinische Form mit Stethoskop

LERNZIELE UND AGENDA

Ziele:

  • Verständnis grundlegender statistischer Verfahren und Einordnung: Wann sollte welches Verfahren genutzt werden und welche Limitations bestehen?

  • Kritikfähigkeit zur Unterscheidung geeigneter und ungeeigneter statistischer Methoden bei der Lösung medizinischer Problemstellungen, insbesondere in der Evidenzbasierten Medizin, erwerben 

  • Kenntnisse des Rechengangs häufig genutzter Basismethoden und die Fähigkeit zur Reproduktion methodischer Vorgehensweisen erhalten

  • Hypothesentests am Beispiel der Vierfelder-Tabelle, die auch als Basis für die Berechnung typischer Risikoparameter genutzt werden kann: Risk Ratio und Odds Ratio + Konfidenzintervalle

  • Überblick Systematic Review und Metaanalyse (Beispiele aus den Dossiers)

  • Survival-Analysen: Die heute am häufigsten in medizinischen Publikationen genutzten Verfahren kennenlernen und interpretieren können: Kaplan-Meier-Grafiken und Cox-Regression

OFFENE SCHULUNG

Präsenzveranstaltung in Wiesbaden

oder Online-Seminar

   €1.090,00   

pro Person, zzgl. gesetzlicher USt

Präsenzveranstaltungen finden in Wiesbaden statt und werden ab zwei Anmeldung durchgeführt (Angebotsgarantie)

INHOUSE-SEMINAR

Seminardurchführung am Standort des Kunden

   €1.390,00   

pro Tag bis 4 Teilnehmer zzgl. gesetzlicher USt

Alle Inhalte der Inhouse-Seminare werden individuell zugeschnitten und zielgruppenspezifisch vermittelt.


Intensive Nachbetreuung ermöglicht den Teilnehmern ihre Kenntnisse in kürzester Zeit umzusetzen.

Empfohlene Seminardauer: 2 Tage

Leihgebühren Schulungsnotebook (auf Wunsch): 60,- Euro (pro Tag, pro Schulungsrechner)

WORKSHOP

Sie nennen uns Ihre Themen!

   Preis auf Anfrage   

zzgl. gesetzlicher USt und ggf. Reisekoste

Alle Inhalte des Workshops werden individuell zugeschnitten und zielgruppenspezifisch vermittelt.

Gerne führen wir den Workshop bei Ihnen vor Ort, in Wiesbaden oder online durch.

Leihgebühren Schulungsnotebook (auf Wunsch): 60,- Euro (pro Tag, pro Schulungsrechner)

Tag 1

  • Überblick Medizinische Statistik

  • Grundlagen der Deskriptiven Statistik

  • Hypothesentests am Beispiel der Vierfeldertabelle

  • Berechnung typischer Risikoparameter: RIsk Ratio und Odds Ratio

  • Odds Ratio: Konfidenzintervallberechnung

  • Fallzahlschätzung/Powerberechnung 

  • Systematic Review und Metaanalyse

Tag 2

  • Grundlagen der Diagnostik

  • Überblick Multivariate Verfahren

  • Logistische Regression: Grundlagen und Interpretation

  • Time-to-Event-Analysen / Survival-Analysen:

    • Median Überlebenszeit

    • Sterbetafeln

    • Kaplan-Meier-Schätzer und grafische Darstellungen

    • Hypothesentests zum Vergleich von Survival-Kurven: Mantel-Haenszel-Methode, Logrank-Tests etc.

    • Cox-Regression: Adjustierung Hazard Ratio um Kovariate

INHALT

 

Statistik stellt eine wesentliche Methode in der medizinischen Forschung und der Evidenzbasierten Medizin (EbM) dar. Fundierte Grundkenntnisse der Statistik sind daher Grundvoraussetzung zum Verständnis medizinischer Fachliteratur. Insbesondere zur Einschätzung von Originalarbeiten in Fachzeitschriften über experimentelle, klinische, epidemiologische und gesundheitsökonomische Studien ist ein fundiertes statistisches Wissen unabdingbar. 

In diesem Kurs erhalten Sie an zwei Tagen einen umfassenden Einstieg in die bzw. eine gute Wiederholung der relevanten statistischen Grundlagen. Sie sind dann in der Lage, die Literatur zur evidenzbasierten Medizin und die zugrundeliegenden Studienergebnisse kritisch bewerten und einschätzen zu können. 

Seminaraufbau: Das Seminar beginnt mit einem Überblick und einer Einordnung der in der in der Medizin genutzten Methoden. Hier werden auch die Messniveaus nach Stevens (1946) behandelt, da diese eine robuste Orientierung bei der Wahl geeigneter statistischer Methoden bieten. Am Beispiel des EQ-5D-5L werden Gütekriterien (Objektivität, Reliabilität und Validität) von Messinstrumenten diskutiert.

Zur Deskriptiven Statistik gehören die Lageparameter, Streuungsmaße und Parameter höherer Ordnung (Schiefe und Wölbung). Die jeweils relevanten Parameter werden anhang praktischer Daten (Liegedauer auf Station) besprochen und Ergebnisse verglichen (Unterschiede Mittelwert und Median, Einfluss von Ausreißern, Effizenz der Schätzer etc.). Zu den relevanten Streuungsmaßen gehören die Spannweite, die perzentilsbasierten Methoden (Interquartilsabstand) und die Varianz und Standardabweichung. Auch hier wird jeweils der Einfluss von Ausreißern besprochen. Anhand von Beispielen aus der medizinischen Fachliteratur und Dossiers (Frühe Nutzenbewertung nach § 35a SGB) wird die Interpretation eingeübt.

Hypothesentests werden am Beispiel der Vierfeldertabelle und des Chi²-Unabhängigtests an einem praktischen Beispiel einmal von Anfang bis Ende besprochen. Die Vierfeldertabelle stellt ein häufig genutztes Instrument zur Analyse zweier Medikationen (oder Medikation und Placebo) hinsichtlich eines binären kategorialen Endpunkts (z.B. Überleben ja/nein) dar. Wir diskutieren an einem praktischen Beispiel den kompletten Ablauf gemeinsam, legen die Hypothesen fest, bestimmen das Signifikanzniveau alpha und diskutieren auch den beta-Fehler und die daraus abgeleitete Power. Es wird der kritische Wert berechnet (klassisches Verfahren), aber auch der p-Wert (computergestütztes Verfahren). Das Ergebnis wird hinsichtlich der Null- und Alternativhypothese diskutiert und auch interpretiert. Standardisierte Effekte bzw. Effektstärken werden zur besseren Interpretation berechnet (u.a. Cramer's V und Cohen's w).

Die Vierfeldertabelle dient dann auch zur Berechnung der in der Medizin sehr häufig genutzten Risikoparameter, insbesondere von Risk Ratio und Odds Ratio. Beide Risikoparameter werden anhand eines praktischen Beispiels berechnet, hier besteht dann auch die Möglichkeit durch das Ändern der Werte in der Vierfeldertabelle den Einfluss auf die Parameter zu erfahren. Weiter wird für das Odds Ratio das Konfidenzintervall berechnet. Der Methodenbericht des IQiG dient als Beispiel zur Diskussion von Schwellenwerten (hier Einteilung des Zusatznutzens) auf Basis von Konfidenzintervallen. Danach interpretieren wir Ergebnisse der Frühen Nutzenbewertung (wir ziehen hier die Veröffentlichungen im Bundesanzeiger heran, da diese einen kompakten Überblick bieten). 

Der erste Kurstag wird dann durch einen Überblick über die Systemische Übersichtsarbeit (Systematic Review) und die Metaanalyse (quantitative Befundintegration) abgerundet. Auch hier schauen wir uns praktische Beispiele aus der Forschungsliteratur an und werfen auch einen Blick in die Dossiers.

Der zweite Kurstag beginnt mit einem Überblick über zentrale Konzepte der Diagnostik basierend auf Falsch-Positiv, Falsch-Negativ etc. Raten, insbesondere der Sensitivität und Spezifität. Die ROC-Kurve stellt dabei ein häufig genutztes Instrument dar.

Anschließend gibt es einen Überblick über die Multivariaten Verfahren. Auch hier leisten uns die Messniveaus nach Stevens, 1946, wieder gute Dienste bei der systematischen Einteilung. Auf die Korrelationsanalyse gehen wir noch einmal detaillierter ein, bevor wir uns der Logistischen Regressionsanalyse zuwenden. Die Logistische Regressionsanalyse stellt ein robustes statistisches Verfahren zur Schätzung eines kategorialen Outcomes (z.B. Wirkeintritt ja/nein) dar und erlaubt zudem, den Einfluss verschiedener Kovarianten (z.B. Komorbiditäten der in die Studie eingeschlossenen PatientInnen) zu ermitteln. Hier helfen uns die erlernten Kenntnisse über Odds Ratios weiter, da die Koeffizienten der Logistischen Regression Odds Ratios sind. Die Interpretation sollte somit keine große Herausforderung mehr darstellen, wird aber trotzdem intensiv eingeübt.

Der letzte Block beschäftigt sich intensiv mit einem in der Medizin wichtigen Block an statistischen Verfahren: den Survival-Analysen (auch Time-to-Event-Analysen genannt). Hier stellen die zentralen Zielparameter die Zeit bis zum Wirkeintritt dar. Nun kann es aber auch vorkommen, dass der Wirkeintritt nicht während der Studienlaufzeit passiert, in diesem Fall wird von zensierten Ereignissen gesprochen. Klassisch sind diese Daten mit den Sterbetafeln analysiert worden, hier schauen wir uns exemplarisch die des Statistischen Bundesamts in Wiesbaden an. Da diese Tabellen aber sehr viel Platz in Anspruch nehmen, wird heute auf eine grafische Darstellung in Veröffentlichungen in medizinischen Fachzeitschriften zurückgegriffen: Dazu dient der Kaplan-Meier-Schätzer und die basierend darauf erstellte Grafik. Hier werden die Abgänge nach Eintritt des Ereignisses (z.B. Wirkeintritt) grafisch über die Zeit dargestellt, dabei können auch zensierte Ereignisse dargestellt werden und auch Kurven getrennt nach Kovariaten (z.B. Verlaufskurve Medikation A und Verlauskurve Medikation B). Dies erlaubt einen direkten Vergleich der Kurven. Um den Unterschied auch im Rahmen eines Hypothesentests absichern zu können, steht der Log-Rank-Test zur Verfügung sowie abgeleitete robuste Verfahren. Zum Verständnis des Tests können wir auf die im Abschnitt Hypothesentests im Rahmen der Vierfelderanalyse erworbenen Erkenntnisse zurückgreifen.

Abschließend wird die Cox-Regression dargestellt, die es ermöglicht, den Einfluss von Kovariaten auf die Verlaufskurven zu bestimmen. Dazu werden die Hazard Ratios der verschiedenen Kovariate auf die Zielvariablen ermittelt. Die Cox-Regression kann gut bei Studien eingesetzt werden, bei denen eine Randomisierung der Patient:innen auf die Behandlungsregimes nicht möglich ist, aber zahlreiche Kovariate zur Verfügung stehen.

Elementarer Bestandteil des Kurses ist das intensive Einüben der Prozeduren an praktischen Beispielen, da nur auf diesem Weg ein höchst möglicher Lernerfolg erzielt werden kann.

bottom of page