Grundbegriffe und Konzepte der medizinischen Statistik. Beurteilung der Zuverlässigkeit der Ergebnisse einer statistischen Studie

ZUVERLÄSSIGKEIT STATISTISCH

- Englisch Glaubwürdigkeit/Gültigkeit, statistisch; Deutsch Validität, statistische. Konsistenz, Objektivität und fehlende Zweideutigkeit in einem statistischen Test oder in C.L. Satz von Messungen. D. s. kann getestet werden, indem derselbe Test (oder Fragebogen) zu demselben Thema wiederholt wird, um zu sehen, ob dieselben Ergebnisse erzielt werden; oder durch Vergleich verschiedener Teile des Tests, die dasselbe Objekt messen sollen.

Antinazi. Enzyklopädie der Soziologie, 2009

Sehen Sie, was "STATISTISCHE ZUVERLÄSSIGKEIT" in anderen Wörterbüchern ist:

    ZUVERLÄSSIGKEIT STATISTISCH- Englisch. Glaubwürdigkeit/Gültigkeit, statistisch; Deutsch Validität, statistische. Konsistenz, Objektivität und Unzweideutigkeit in einem statistischen Test oder in einer s. Satz von Messungen. D. s. kann durch Wiederholung desselben Tests verifiziert werden (oder ... ... Wörterbuch in Soziologie

    In der Statistik wird ein Wert als statistisch signifikant bezeichnet, wenn die Wahrscheinlichkeit seines Auftretens durch Zufall oder noch extremere Werte gering ist. Unter dem Extrem wird dabei der Grad der Abweichung der Teststatistik von der Nullhypothese verstanden. Der Unterschied heißt ... ... Wikipedia

    Das physikalische Phänomen der statistischen Stabilität besteht darin, dass mit zunehmender Stichprobengröße die Häufigkeit eines zufälligen Ereignisses oder der Durchschnittswert einer physikalischen Größe zu einer festen Zahl tendiert. Das Phänomen der Statistik ... ... Wikipedia

    ZUVERLÄSSIGKEIT VON UNTERSCHIED (Ähnlichkeit)- analytisches und statistisches Verfahren zur Feststellung des Signifikanzniveaus von Unterschieden oder Ähnlichkeiten zwischen Stichproben gemäß den untersuchten Indikatoren (Variablen) ... Modern Bildungsprozess: grundlegende Konzepte und Begriffe

    BERICHTERSTATTUNG, STATISTISCH Großes Buchhaltungswörterbuch

    BERICHTERSTATTUNG, STATISTISCH- eine Form der staatlichen statistischen Beobachtung, bei der die zuständigen Behörden von Unternehmen (Organisationen und Institutionen) die von ihnen benötigten Informationen in Form von gesetzlich vorgeschriebenen Berichtsunterlagen (Statistikmeldungen) für ... Großes Wirtschaftslexikon

    Die Wissenschaft, die die Methoden der systematischen Beobachtung von untersucht Massenveranstaltungen soziales Leben Menschen, die Erstellung ihrer numerischen Beschreibungen und die wissenschaftliche Verarbeitung dieser Beschreibungen. Theoretische Statistik ist also eine Wissenschaft ... ... Enzyklopädisches Wörterbuch F. Brockhaus und I.A. Efron

    Korrelationskoeffizient- (Korrelationskoeffizient) Der Korrelationskoeffizient ist ein statistischer Indikator für die Abhängigkeit von zwei zufällige Variablen Definition des Korrelationskoeffizienten, Arten von Korrelationskoeffizienten, Eigenschaften des Korrelationskoeffizienten, Berechnung und Anwendung ... ... Enzyklopädie des Investors

    Statistiken- (Statistik) Statistik ist eine allgemeine theoretische Wissenschaft, die quantitative Veränderungen in Phänomenen und Prozessen untersucht. Staatliche Statistiken, Statistikdienste, Rosstat (Goskomstat), statistische Daten, Anfragestatistiken, Verkaufsstatistiken, ... ... Enzyklopädie des Investors

    Korrelation- (Korrelation) Korrelation ist eine statistische Beziehung zwischen zwei oder mehr Zufallsvariablen.Begriff der Korrelation, Arten der Korrelation, Korrelationskoeffizient, Korrelationsanalyse, Preiskorrelation, Korrelation von Währungspaaren in Forex Inhalt ... ... Enzyklopädie des Investors

Bücher

  • Forschung in Mathematik und Mathematik in der Forschung: Methodische Sammlung zu Forschungsaktivitäten von Studenten, Borzenko V.I.. Die Sammlung enthält methodische Entwicklungen in der Organisation anwendbar Forschungstätigkeit Studenten. Der erste Teil der Sammlung widmet sich der Anwendung des Forschungsansatzes in…

Die statistische Signifikanz eines Ergebnisses (p-Wert) ist ein geschätztes Maß für das Vertrauen in seine „Wahrheit“ (im Sinne von „Repräsentativität der Stichprobe“). Technisch gesehen ist der p-Wert ein Maß, das eine abnehmende Beziehung zur Zuverlässigkeit des Ergebnisses hat. Ein höherer p-Wert entspricht einem geringeren Konfidenzniveau in der Beziehung zwischen den in der Stichprobe gefundenen Variablen. Der p-Wert stellt nämlich die Fehlerwahrscheinlichkeit dar, die mit der Verteilung des beobachteten Ergebnisses auf die gesamte Population verbunden ist. Beispielsweise gibt ein p-Wert = 0,05 (d. h. 1/20) an, dass eine Wahrscheinlichkeit von 5 % besteht, dass die Beziehung zwischen den in der Stichprobe gefundenen Variablen nur ein zufälliges Merkmal dieser Stichprobe ist. Mit anderen Worten, wenn diese Beziehung in der Population nicht existiert und Sie ähnliche Experimente viele Male durchführen würden, dann würden Sie bei etwa einer von zwanzig Wiederholungen des Experiments die gleiche oder stärkere Beziehung zwischen den Variablen erwarten.

In vielen Studien wird ein p-Wert von 0,05 als „akzeptable Grenze“ für die Fehlerquote angesehen.

Willkür bei der Entscheidung, welches Signifikanzniveau wirklich als „signifikant“ anzusehen ist, lässt sich nicht vermeiden. Die Wahl eines bestimmten Signifikanzniveaus, oberhalb dessen die Ergebnisse als falsch zurückgewiesen werden, ist eher willkürlich. In der Praxis hängt die endgültige Entscheidung in der Regel davon ab, ob das Ergebnis a priori (dh vor der Durchführung des Experiments) vorhergesagt oder aufgrund vieler Analysen und Vergleiche mit vielen Daten nachträglich entdeckt wurde, sowie davon, ob das Ergebnis a priori vorhergesagt wurde (dh bevor das Experiment durchgeführt wurde) Tradition auf diesem Forschungsgebiet. Typischerweise ist in vielen Bereichen ein Ergebnis von p 0,05 eine akzeptable Spanne von statistischer Signifikanz, es sollte jedoch daran erinnert werden, dass dieses Niveau immer noch eine ziemlich große Fehlerwahrscheinlichkeit (5 %) beinhaltet. Signifikante Ergebnisse bei p 0,01 werden im Allgemeinen als statistisch signifikant und Ergebnisse bei p 0,005 oder p 0,001 als hochsignifikant angesehen. Es sollte jedoch verstanden werden, dass diese Klassifizierung von Signifikanzniveaus eher willkürlich ist und nur eine informelle Vereinbarung darstellt, die auf der Grundlage praktischer Erfahrungen in einem bestimmten Studienbereich getroffen wurde.

Wie bereits erwähnt, sind die Größenordnung von Abhängigkeit und Zuverlässigkeit zwei verschiedene Eigenschaften Abhängigkeiten zwischen Variablen. Es kann jedoch nicht gesagt werden, dass sie völlig unabhängig sind. Allgemein gilt: Je größer die Beziehung (Verbindung) zwischen Variablen in einer Stichprobe normaler Größe ist, desto zuverlässiger ist sie.

Wenn wir davon ausgehen, dass kein Zusammenhang zwischen den entsprechenden Variablen in der Grundgesamtheit besteht, dann ist es sehr wahrscheinlich, dass in der untersuchten Stichprobe auch kein Zusammenhang zwischen diesen Variablen besteht. Je stärker also die Beziehung in der Stichprobe gefunden wird, desto unwahrscheinlicher ist es, dass diese Beziehung nicht in der Grundgesamtheit besteht, aus der sie extrahiert wird.


Die Stichprobengröße wirkt sich auf die Signifikanz der Beziehung aus. Wenn es wenige Beobachtungen gibt, dann gibt es für diese Variablen auch entsprechend wenige mögliche Kombinationen von Werten, und somit ist die Wahrscheinlichkeit, versehentlich eine Kombination von Werten zu finden, die eine starke Abhängigkeit zeigen, relativ hoch.

Wie das statistische Signifikanzniveau berechnet wird. Angenommen, Sie haben bereits ein Maß für die Beziehung zwischen zwei Variablen berechnet (wie oben erläutert). Die nächste Frage vor Ihnen lautet: „Wie bedeutend ist diese Sucht?“ Reichen beispielsweise 40 % der erklärten Varianz zwischen zwei Variablen aus, damit eine Beziehung signifikant ist? Antwort: "abhängig von den Umständen." Die Signifikanz hängt nämlich hauptsächlich von der Stichprobengröße ab. Wie bereits erläutert, sind in sehr großen Stichproben sogar sehr schwache Beziehungen zwischen Variablen signifikant, während in kleinen Stichproben selbst sehr starke Beziehungen nicht zuverlässig sind. Um also das Niveau der statistischen Signifikanz zu bestimmen, benötigen Sie eine Funktion, die die Beziehung zwischen „Größe“ und „Signifikanz“ der Beziehung zwischen Variablen für jede Stichprobengröße darstellt. Diese Funktion würde Ihnen genau sagen, "wie wahrscheinlich es ist, eine Beziehung mit einem bestimmten Wert (oder mehr) in einer Stichprobe einer bestimmten Größe zu erhalten, vorausgesetzt, es gibt keine solche Beziehung in der Grundgesamtheit". Mit anderen Worten, diese Funktion würde ein Signifikanzniveau (p-Wert) liefern und damit die Wahrscheinlichkeit, fälschlicherweise die Annahme zurückzuweisen, dass es keine gegebene Beziehung in der Grundgesamtheit gibt. Diese "alternative" Hypothese (dass es keine Abhängigkeit in der Population gibt) wird gewöhnlich als Nullhypothese bezeichnet. Ideal wäre es, wenn die Funktion, die die Fehlerwahrscheinlichkeit berechnet, linear wäre und nur unterschiedliche Steigungen für unterschiedliche Stichprobenumfänge hätte. Leider ist diese Funktion viel komplexer und nicht immer exakt gleich. In den meisten Fällen ist seine Form jedoch bekannt und kann verwendet werden, um Signifikanzniveaus zu bestimmen, wenn Stichproben einer bestimmten Größe untersucht werden. Die meisten dieser Funktionen sind mit sehr verbunden wichtige Klasse Normalverteilungen genannt.

Die Forschung beginnt normalerweise mit einer Annahme, die eine Überprüfung unter Einbeziehung von Fakten erfordert. Diese Annahme – eine Hypothese – wird in Bezug auf den Zusammenhang von Phänomenen oder Eigenschaften in einer bestimmten Menge von Objekten formuliert.

Um solche Annahmen auf Fakten zu überprüfen, ist es notwendig, die entsprechenden Eigenschaften ihrer Träger zu messen. Aber es ist unmöglich, Angst bei allen Frauen und Männern zu messen, ebenso wie es unmöglich ist, Aggressivität bei allen Jugendlichen zu messen. Daher sind sie bei der Durchführung einer Studie auf einen relativ kleinen Kreis von Vertretern der relevanten Bevölkerungsgruppen beschränkt.

Bevölkerung- dies ist die Gesamtheit der Objekte, in Bezug auf die eine Forschungshypothese formuliert wird.

Zum Beispiel alle Männer; oder alle Frauen; oder alle Einwohner einer Stadt. Die allgemeine Bevölkerungsgruppe, in Bezug auf die der Forscher auf der Grundlage der Ergebnisse der Studie Schlussfolgerungen ziehen wird, kann zahlenmäßig kleiner und bescheidener sein, beispielsweise alle Erstklässler einer bestimmten Schule.

Die Allgemeinbevölkerung ist also zwar nicht unendlich zahlreich, aber in der Regel eine Vielzahl potentieller Themen, die einer kontinuierlichen Forschung nicht zugänglich sind.

Stichprobe oder Stichprobenpopulation- Dies ist eine Gruppe von Objekten mit begrenzter Anzahl (in der Psychologie - Subjekte, Befragte), die speziell aus der allgemeinen Bevölkerung ausgewählt wurden, um ihre Eigenschaften zu untersuchen. Dementsprechend wird die Untersuchung der Eigenschaften der Allgemeinbevölkerung an einer Stichprobe bezeichnet selektive Forschung. Fast alles psychologische Forschung sind selektiv, und ihre Schlussfolgerungen gelten für die allgemeine Bevölkerung.

Nachdem also die Hypothese formuliert und die entsprechenden Grundgesamtheiten ermittelt wurden, steht der Forscher vor dem Problem der Organisation der Stichprobe. Die Stichprobe sollte so sein, dass die Verallgemeinerung der Schlussfolgerungen der Stichprobenstudie gerechtfertigt ist - Verallgemeinerung, ihre Verteilung auf die allgemeine Bevölkerung. Die Hauptkriterien für die Gültigkeit der Schlussfolgerungen der Studiedies sind die Repräsentativität der Stichprobe und die statistische Validität der (empirischen) Ergebnisse.

Stichprobenrepräsentativität- mit anderen Worten, ihre Repräsentativität ist die Fähigkeit der Stichprobe, die untersuchten Phänomene ziemlich vollständig zu repräsentieren - unter dem Gesichtspunkt ihrer Variabilität in der Allgemeinbevölkerung.

Natürlich kann nur die allgemeine Bevölkerung ein vollständiges Bild des untersuchten Phänomens in all seiner Bandbreite und Nuancen der Variabilität vermitteln. Daher ist die Repräsentativität immer in dem Maße eingeschränkt, in dem die Stichprobe begrenzt ist. Und es ist die Repräsentativität der Stichprobe, die das Hauptkriterium bei der Bestimmung der Grenzen der Verallgemeinerung der Ergebnisse der Studie ist. Dennoch gibt es Techniken, die es ermöglichen, eine für den Forscher ausreichende repräsentative Stichprobe zu erhalten (Diese Techniken werden im Kurs "Experimentelle Psychologie" untersucht).


Die erste und wichtigste Technik ist eine einfache zufällige (randomisierte) Auswahl. Es geht darum sicherzustellen, dass jedes Mitglied der Bevölkerung die gleichen Chancen hat, in die Stichprobe aufgenommen zu werden. Die Zufallsauswahl bietet die Möglichkeit, in die Stichprobe unterschiedlichster Vertreter der Allgemeinbevölkerung zu gelangen. Gleichzeitig werden besondere Maßnahmen ergriffen, um den Anschein einer Regelmäßigkeit bei der Auswahl auszuschließen. Und das lässt hoffen, dass am Ende in der Stichprobe das untersuchte Gut, wenn nicht in seiner Gesamtheit, so doch in seiner größtmöglichen Vielfalt vertreten sein wird.

Die zweite Möglichkeit, Repräsentativität zu gewährleisten, ist die geschichtete Zufallsauswahl oder die Auswahl nach den Eigenschaften der Allgemeinbevölkerung. Es beinhaltet eine vorläufige Bestimmung der Eigenschaften, die die Variabilität der untersuchten Eigenschaft beeinflussen können (dies können Geschlecht, Einkommensniveau oder Bildung usw. sein). Anschließend wird das prozentuale Verhältnis der Anzahl der sich in diesen Eigenschaften unterscheidenden Gruppen (Schichten) in der Allgemeinbevölkerung ermittelt und ein identisches prozentuales Verhältnis der entsprechenden Gruppen in der Stichprobe bereitgestellt. Weiterhin werden in jeder Untergruppe der Stichprobe die Probanden nach dem Prinzip der einfachen Zufallsauswahl ausgewählt.

Statistische Gültigkeit, oder statistischer Signifikanz werden die Ergebnisse der Studie mit statistischen Inferenzverfahren ermittelt.

Sind wir mit bestimmten Schlussfolgerungen aus den Ergebnissen der Studie gegen Entscheidungsfehler abgesichert? Natürlich nicht. Schließlich basieren unsere Entscheidungen auf den Ergebnissen einer Untersuchung einer Stichprobenpopulation sowie auf unserem psychologischen Wissensstand. Vor Fehlern sind wir nicht ganz gefeit. In der Statistik gelten solche Fehler als akzeptabel, wenn sie höchstens in einem Fall von 1000 auftreten (Irrtumswahrscheinlichkeit α = 0,001 bzw. zugehöriger Wert der Konfidenzwahrscheinlichkeit des richtigen Schlusses p = 0,999); in einem Fall von 100 (Irrtumswahrscheinlichkeit α = 0,01 oder der zugehörige Wert der Konfidenzwahrscheinlichkeit des richtigen Schlusses p = 0,99) oder in fünf Fällen von 100 (Irrtumswahrscheinlichkeit α = 0,05 oder der zugehörige Wert der Konfidenzwahrscheinlichkeit von). die korrekte Ausgabe p=0,95). Es ist in der Psychologie üblich, Entscheidungen auf den letzten beiden Ebenen zu treffen.

Manchmal, wenn man darüber spricht statistische Gültigkeit, verwenden Sie das Konzept des „Signifikanzniveaus“ (als α bezeichnet). Die Zahlenwerte von p und α ergänzen sich bis 1.000 – ein kompletter Satz von Ereignissen: Entweder wir haben die richtige Schlussfolgerung gezogen, oder wir haben einen Fehler gemacht. Diese Pegel werden nicht berechnet, sie werden festgelegt. Das Signifikanzniveau kann als eine Art "rote" Linie verstanden werden, deren Schnittpunkt es uns erlaubt, von diesem Ereignis als nicht zufällig zu sprechen. In jedem kompetenten wissenschaftlichen Bericht oder jeder Veröffentlichung müssen die gezogenen Schlussfolgerungen von einer Angabe der p- oder α-Werte begleitet werden, bei denen die Schlussfolgerungen gezogen werden.

Statistische Inferenzverfahren werden ausführlich in der Vorlesung " Mathematische Statistik". Im Moment stellen wir nur fest, dass sie bestimmte Anforderungen an die Nummer stellen, oder Stichprobengröße.

Leider gibt es keine strengen Empfehlungen zur vorläufigen Bestimmung der erforderlichen Stichprobengröße. Zudem erhält der Forscher auf die Frage nach der notwendigen und ausreichenden Anzahl davon meist zu spät eine Antwort – erst nach Auswertung der Daten der bereits befragten Stichprobe. Die allgemeinsten Empfehlungen können jedoch formuliert werden:

1. Bei der Entwicklung einer Diagnosetechnik wird die größte Stichprobengröße benötigt - von 200 bis 1000-2500 Personen.

2. Wenn es notwendig ist, 2 Proben zu vergleichen, muss ihre Gesamtzahl mindestens 50 Personen betragen; die Anzahl der verglichenen Proben sollte ungefähr gleich sein.

3. Wenn die Beziehung zwischen Eigenschaften untersucht wird, sollte die Stichprobengröße mindestens 30-35 Personen betragen.

4. Je mehr Variabilität der untersuchten Eigenschaft, desto größer sollte die Stichprobengröße sein. Daher kann die Variabilität verringert werden, indem die Homogenität der Stichprobe beispielsweise nach Geschlecht, Alter usw. erhöht wird. Dies verringert natürlich die Möglichkeit, verallgemeinernde Schlussfolgerungen zu ziehen.

Abhängige und unabhängige Stichproben. Eine typische Forschungssituation liegt vor, wenn eine für den Forscher interessante Eigenschaft an zwei oder mehr Proben zum Zwecke ihres weiteren Vergleichs untersucht wird. Diese Proben können je nach Verfahren für ihre Organisation in unterschiedlichen Anteilen vorliegen. Unabhängige Proben zeichnen sich dadurch aus, dass die Auswahlwahrscheinlichkeit eines Subjekts einer Stichprobe nicht von der Auswahl eines Subjekts einer anderen Stichprobe abhängt. Gegen, abhängige Proben zeichnen sich dadurch aus, dass jeder Proband einer Stichprobe nach einem bestimmten Kriterium mit einem Probanden einer anderen Stichprobe abgeglichen wird.

IN Allgemeiner Fall abhängige Stichproben umfassen die paarweise Auswahl von Probanden in den verglichenen Stichproben, und unabhängige Stichproben - unabhängige Auswahl von Probanden.

Es ist zu beachten, dass die Fälle von „teilweise abhängigen“ (oder „teilweise unabhängigen“) Stichproben nicht zulässig sind: Dies verletzt ihre Repräsentativität auf unvorhersehbare Weise.

Abschließend stellen wir fest, dass zwei Paradigmen der psychologischen Forschung unterschieden werden können.

Sogenannt R-Methodik beinhaltet die Untersuchung der Variabilität einer bestimmten Eigenschaft (psychologisch) unter dem Einfluss eines Einflusses, Faktors oder einer anderen Eigenschaft. Die Stichprobe ist eine Reihe von Subjekten.

Ein anderer Ansatz Q-Methodik, beinhaltet die Untersuchung der Variabilität des Subjekts (einzeln) unter dem Einfluss verschiedener Reize (Bedingungen, Situationen usw.). Es entspricht der Situation, wenn die Probe ist eine Reihe von Stimuli.

Statistik ist seit langem ein fester Bestandteil des Lebens. Die Menschen sind überall damit konfrontiert. Anhand von Statistiken werden Rückschlüsse gezogen, wo und welche Krankheiten verbreitet sind, was in einer bestimmten Region oder bei einer bestimmten Bevölkerungsgruppe stärker nachgefragt wird. Sogar die Konstruktion politischer Programme von Kandidaten für Regierungsgremien basiert darauf. Sie werden auch von Einzelhandelsketten beim Wareneinkauf verwendet, und Hersteller orientieren sich bei ihren Vorschlägen an diesen Daten.

Statistiken spielen wichtige Rolle im Leben der Gesellschaft und betrifft jedes einzelne ihrer Mitglieder, auch im Kleinen. Wenn zum Beispiel die meisten Menschen in einer bestimmten Stadt oder Region dunkle Farben in der Kleidung bevorzugen, dann wird es äußerst schwierig sein, einen leuchtend gelben Regenmantel mit Blumendruck in lokalen Geschäften zu finden. Aber was sind die Mengen, aus denen diese Daten bestehen, die eine solche Wirkung haben? Was ist zum Beispiel „statistisch signifikant“? Was genau ist mit dieser Definition gemeint?

Was ist das?

Die Statistik als Wissenschaft besteht aus einer Kombination verschiedener Größen und Konzepte. Eines davon ist das Konzept der „statistischen Signifikanz“. Dies ist der Name des Wertes von Variablen, bei denen die Wahrscheinlichkeit des Auftretens anderer Indikatoren vernachlässigbar ist.

Zum Beispiel ziehen 9 von 10 Menschen während eines morgendlichen Spaziergangs auf der Suche nach Pilzen Gummischuhe an ihren Füßen an Herbstwald nach einer regnerischen Nacht. Die Wahrscheinlichkeit, dass irgendwann 8 von ihnen Leinwandmokassins anziehen, ist vernachlässigbar. Also in diesem konkretes Beispiel die Zahl 9 ist ein Wert, der als „statistische Signifikanz“ bezeichnet wird.

Dementsprechend, wenn wir das Obige weiterentwickeln praktisches Beispiel, kaufen Schuhgeschäfte Gummistiefel bis zum Ende der Sommersaison in größeren Mengen als zu anderen Jahreszeiten. Die Größe des statistischen Werts hat also Auswirkungen auf das gewöhnliche Leben.

Natürlich werden bei komplexen Berechnungen, etwa bei der Vorhersage der Ausbreitung von Viren, eine Vielzahl von Variablen berücksichtigt. Das Wesen der Bestimmung eines signifikanten Indikators für statistische Daten ist jedoch ähnlich, unabhängig von der Komplexität der Berechnungen und der Anzahl nicht konstanter Werte.

Wie wird es berechnet?

Wird bei der Berechnung des Werts des Indikators "statistische Signifikanz" der Gleichung verwendet. Das heißt, man kann argumentieren, dass in diesem Fall alles von der Mathematik entschieden wird. bei den meisten einfache Variante Berechnung ist eine Kette von mathematischen Operationen, an denen folgende Parameter beteiligt sind:

  • zwei Arten von Ergebnissen, die aus Umfragen oder dem Studium objektiver Daten gewonnen werden, zum Beispiel die Beträge, für die Einkäufe getätigt werden, bezeichnet mit a und b;
  • Indikator für beide Gruppen - n;
  • der Wert des Anteils der kombinierten Stichprobe - p;
  • Konzept " Standart Fehler» - SE.

Der nächste Schritt besteht darin, den Gesamttestindikator zu bestimmen - t, sein Wert wird mit der Zahl 1,96 verglichen. 1,96 ist ein Durchschnittswert, der einen Bereich von 95 % gemäß der Student-t-Verteilung darstellt.

Oft stellt sich die Frage, was der Unterschied zwischen den Werten von n und p ist. Diese Nuance lässt sich leicht an einem Beispiel verdeutlichen. Angenommen, die statistische Signifikanz der Loyalität gegenüber einem Produkt oder einer Marke von Männern und Frauen wird berechnet.

In diesem Fall folgt auf die Buchstaben Folgendes:

  • n ist die Anzahl der Befragten;
  • p - die Anzahl der mit dem Produkt zufriedenen Personen.

Die Anzahl der befragten Frauen wird in diesem Fall mit n1 bezeichnet. Dementsprechend Männer - n2. Derselbe Wert hat die Nummern "1" und "2" beim Symbol p.

Der Vergleich des Testindikators mit den Durchschnittswerten der Berechnungstabellen von Student wird zu einer sogenannten "statistischen Signifikanz".

Was versteht man unter Verifizierung?

Die Ergebnisse jeder mathematischen Berechnung können jederzeit überprüft werden, Kindern wird dies in den Grundschulklassen beigebracht. Es ist logisch anzunehmen, dass, da die statistischen Indikatoren anhand einer Kette von Berechnungen ermittelt werden, diese überprüft werden.

Das Testen auf statistische Signifikanz ist jedoch nicht nur Mathematik. Statistiken behandeln Große anzahl Variablen und verschiedene Wahrscheinlichkeiten, die nicht immer einer Berechnung zugänglich sind. Das heißt, wenn wir zu Beginn des Artikels auf das Beispiel der Gummischuhe zurückkommen, kann die logische Konstruktion statistischer Daten, auf die sich Käufer von Waren für Geschäfte verlassen, durch trockenes und heißes Wetter gestört werden, was für den Herbst nicht typisch ist . Als Ergebnis dieses Phänomens, die Zahl der Erwerbenden Gummistiefel, wird abnehmen, und Verkaufsstellen wird Verluste erleiden. Natürlich ist eine mathematische Formel nicht in der Lage, eine Wetteranomalie vorherzusagen. Dieser Moment heißt - "Fehler".

Gerade die Wahrscheinlichkeit solcher Fehler wird bei der Überprüfung des berechneten Signifikanzniveaus berücksichtigt. Es berücksichtigt sowohl berechnete Indikatoren und akzeptierte Signifikanzniveaus als auch Größen, die herkömmlicherweise als Hypothesen bezeichnet werden.

Was ist ein Signifikanzniveau?

Das Konzept des "Niveaus" ist in den Hauptkriterien für die statistische Signifikanz enthalten. Es wird in der angewandten und praktischen Statistik verwendet. Das ist eine Art Wert, der die Wahrscheinlichkeit möglicher Abweichungen oder Fehler berücksichtigt.

Das Niveau basiert auf der Identifizierung von Unterschieden in vorgefertigten Proben und ermöglicht es Ihnen, deren Signifikanz oder umgekehrt die Zufälligkeit festzustellen. Dieses Konzept hat nicht nur digitale Bedeutungen, sondern auch ihre eigentümlichen Interpretationen. Sie erklären, wie der Wert zu verstehen ist, und das Niveau selbst wird bestimmt, indem das Ergebnis mit dem Durchschnittsindex verglichen wird. Dies zeigt den Grad der Zuverlässigkeit der Unterschiede.

Somit ist es möglich, das Konzept eines Niveaus einfach darzustellen - es ist ein Indikator für einen akzeptablen, wahrscheinlichen Fehler oder Fehler in den Schlussfolgerungen, die aus den erhaltenen statistischen Daten gezogen werden.

Welche Signifikanzniveaus werden verwendet?

Die statistische Signifikanz der Irrtumsin der Praxis basiert auf drei Grundebenen.

Die erste Stufe ist die Schwelle, bei der der Wert 5 % beträgt. Das heißt, die Irrtumswahrscheinlichkeit überschreitet nicht das Signifikanzniveau von 5 %. Das bedeutet, dass das Vertrauen in die Eindeutigkeit und Unfehlbarkeit der auf Basis statistischer Forschungsdaten getroffenen Schlussfolgerungen 95 % beträgt.

Die zweite Stufe ist die 1%-Schwelle. Dementsprechend bedeutet diese Zahl, dass man sich mit 99%iger Sicherheit an den Daten orientieren kann, die bei statistischen Berechnungen gewonnen wurden.

Die dritte Stufe liegt bei 0,1 %. Bei diesem Wert liegt die Fehlerwahrscheinlichkeit bei einem Bruchteil eines Prozents, dh Fehler sind praktisch ausgeschlossen.

Was ist eine Hypothese in der Statistik?

Fehler als Konzept werden in zwei Bereiche bezüglich der Annahme oder Ablehnung der Nullhypothese unterteilt. Eine Hypothese ist ein Konzept, hinter dem sich laut Definition eine Menge anderer Daten oder Aussagen verbirgt. Das heißt, eine Beschreibung der Wahrscheinlichkeitsverteilung von etwas, das mit dem Thema der statistischen Buchführung zusammenhängt.

Bei einfachen Berechnungen gibt es zwei Hypothesen - Null und Alternative. Der Unterschied zwischen ihnen besteht darin, dass die Nullhypothese auf der Idee basiert, dass es keine grundlegenden Unterschiede zwischen den Stichproben gibt, die an der Bestimmung der statistischen Signifikanz beteiligt sind, und die alternative Hypothese dem völlig entgegengesetzt ist. Das heißt, die Alternativhypothese basiert auf dem Vorhandensein eines signifikanten Unterschieds in diesen Stichproben.

Was sind die Fehler?

Fehler als Begriff in der Statistik sind direkt abhängig von der Annahme der einen oder anderen Hypothese als wahr. Sie können in zwei Richtungen oder Typen unterteilt werden:

  • der erste Typ ist auf die Annahme der Nullhypothese zurückzuführen, die sich als falsch herausstellte;
  • der zweite wird durch das Befolgen der Alternative verursacht.

Die erste Art von Fehler wird falsch positiv genannt und ist in allen Bereichen, in denen Statistiken verwendet werden, recht häufig. Dementsprechend wird der Fehler der zweiten Art falsch negativ genannt.

Warum ist Regression in der Statistik wichtig?

Die statistische Signifikanz der Regression liegt darin, dass mit ihr festgestellt werden kann, wie sehr das anhand der Daten berechnete Modell verschiedener Abhängigkeiten der Realität entspricht; ermöglicht es Ihnen, die Angemessenheit oder das Fehlen von Faktoren für die Rechnungslegung und Schlussfolgerungen zu identifizieren.

Der Regressionswert wird bestimmt, indem die Ergebnisse mit den in den Fisher-Tabellen aufgeführten Daten verglichen werden. Oder mit Varianzanalyse. Regressionsindikatoren sind wichtig in komplexen statistischen Studien und Berechnungen, bei denen eine große Anzahl von Variablen, Zufallsdaten und wahrscheinlichen Änderungen involviert sind.

Heutzutage ist es wirklich zu einfach: Sie können zu einem Computer gehen und mit wenig oder gar keinem Wissen über das, was Sie tun, mit wirklich erstaunlicher Geschwindigkeit Vernünftiges und Unsinniges erstellen. (J. Box)

Grundbegriffe und Konzepte der medizinischen Statistik

In diesem Artikel stellen wir einige der Schlüsselkonzepte der Statistik vor, die für die medizinische Forschung relevant sind. Auf die Begriffe wird in den entsprechenden Artikeln näher eingegangen.

Variation

Definition. Der Streuungsgrad der Daten (Vorzeichenwerte) über den Wertebereich

Wahrscheinlichkeit

Definition. Wahrscheinlichkeit ist das Ausmaß, in dem ein bestimmtes Ereignis unter bestimmten Bedingungen eintreten kann.

Beispiel. Lassen Sie uns die Definition des Begriffs im Satz „Die Wahrscheinlichkeit der Wiederherstellung bei der Verwendung“ erläutern medizinisches Produkt Arimidex entspricht 70 %." Das Ereignis ist „die Genesung des Patienten“, die Bedingung „der Patient nimmt Arimidex ein“, der Wahrscheinlichkeitsgrad liegt bei 70 % (grob gesagt erholen sich von 100 Personen, die Arimidex einnehmen, 70).

Kumulative Wahrscheinlichkeit

Definition. Die kumulative Überlebenswahrscheinlichkeit zum Zeitpunkt t ist gleich dem Anteil der Patienten, die zu diesem Zeitpunkt überlebt haben.

Beispiel. Wenn gesagt wird, dass die kumulative Überlebenswahrscheinlichkeit nach einer fünfjährigen Behandlung 0,7 beträgt, dann bedeutet dies, dass von der betrachteten Patientengruppe 70 % der ursprünglichen Anzahl am Leben geblieben sind und 30 % gestorben sind. Mit anderen Worten, von hundert Menschen starben 30 innerhalb der ersten 5 Jahre.

Zeit zum Ereignis

Definition. Zeit bis zum Ereignis – dies ist die Zeit, ausgedrückt in einigen Einheiten, die von einer Anfangszeit bis zum Auftreten eines Ereignisses verstrichen ist.

Erläuterung. als Zeiteinheiten in medizinische Forschung es gibt Tage, Monate und Jahre.

Typische Beispiele für Anfangszeiten:

    Beginn der Patientennachsorge

    chirurgische Behandlung

Typische Beispiele für berücksichtigte Ereignisse:

    Krankheitsprogression

    Wiederauftreten

    Tod des Patienten

Probe

Definition. Durch Selektion erhaltener Teil einer Population.

Anhand der Ergebnisse der Stichprobenanalyse werden Rückschlüsse auf die Gesamtpopulation gezogen, die nur bei zufälliger Auswahl gültig sind. Da eine zufällige Auswahl aus einer Grundgesamtheit praktisch nicht möglich ist, sollte darauf geachtet werden, dass die Stichprobe zumindest repräsentativ für die Grundgesamtheit ist.

Abhängige und unabhängige Stichproben

Definition. Stichproben, in denen die Untersuchungsobjekte unabhängig voneinander rekrutiert wurden. Alternative unabhängige Proben- abhängige (verbundene, gepaarte) Proben.

Hypothese

Bilaterale und einseitige Hypothesen

Lassen Sie uns zunächst die Verwendung des Begriffs Hypothese in der Statistik erläutern.

Das Ziel der meisten Forschungen ist es, die Wahrheit einer Aussage zu überprüfen. Der Zweck von Drogentests besteht meistens darin, die Hypothese zu testen, dass ein Medikament wirksamer als ein anderes ist (z. B. ist Arimidex wirksamer als Tamoxifen).

Um die Strenge der Studie zu vermitteln, wird die zu überprüfende Aussage mathematisch ausgedrückt. Wenn beispielsweise A die Anzahl der Jahre ist, die ein Patient unter Arimidex leben wird, und T die Anzahl der Jahre ist, die ein Patient unter Tamoxifen leben wird, dann kann die zu testende Hypothese als A > T geschrieben werden.

Definition. Eine Hypothese heißt zweiseitig, wenn sie in der Gleichheit zweier Größen besteht.

Ein Beispiel für eine zweiseitige Hypothese: A=T.

Definition. Eine Hypothese heißt einseitig (1-seitig), wenn sie in der Ungleichheit zweier Größen besteht.

Beispiele für einseitige Hypothesen:

Dichotome (binäre) Daten

Definition. Daten, die durch nur zwei gültige Alternativwerte ausgedrückt werden

Beispiel: Der Patient ist „gesund“ – „krank“. Ödem "ist" - "ist nicht vorhanden".

Konfidenzintervall

Definition. Das Konfidenzintervall für eine Größe ist der Bereich um den Wert der Größe, in dem wahrer Wert diesen Wert (mit einem gewissen Maß an Vertrauen).

Beispiel. Die zu untersuchende Menge sei die Zahl der Patienten pro Jahr. Im Durchschnitt beträgt ihre Zahl 500 und 95% - Konfidenzintervall- (350, 900). Das bedeutet, dass mit hoher Wahrscheinlichkeit (mit einer Wahrscheinlichkeit von 95 %) im Laufe des Jahres mindestens 350 und höchstens 900 Personen die Klinik kontaktieren werden.

Bezeichnung. Eine sehr gebräuchliche Abkürzung ist: 95 % CI (95 % CI) ist ein Konfidenzintervall mit einem Konfidenzniveau von 95 %.

Zuverlässigkeit, statistische Signifikanz (P - Niveau)

Definition. Die statistische Signifikanz eines Ergebnisses ist ein Maß für das Vertrauen in seine „Wahrheit“.

Jede Recherche basiert nur auf einem Teil der Objekte. Die Untersuchung der Wirksamkeit eines Medikaments wird nicht auf der Grundlage aller Patienten auf dem Planeten im Allgemeinen durchgeführt, sondern nur auf einer bestimmten Gruppe von Patienten (es ist einfach unmöglich, eine Analyse auf der Grundlage aller Patienten durchzuführen).

Nehmen wir an, dass aufgrund der Analyse einige Schlussfolgerungen gezogen wurden (z. B. ist die Verwendung von Arimidex als adäquate Therapie 2-mal wirksamer als Tamoxifen).

Die Frage, die gestellt werden muss, lautet: „Wie sehr können Sie diesem Ergebnis vertrauen?“.

Stellen Sie sich vor, wir würden eine Studie mit nur zwei Patienten durchführen. In diesem Fall sind die Ergebnisse natürlich mit Bedenken zu betrachten. Wurden viele Patienten untersucht (Zahlenwert " eine große Anzahl“ hängt von der Situation ab), dann kann den gezogenen Schlussfolgerungen bereits vertraut werden.

Der Grad des Vertrauens wird also durch den Wert des p-Levels (p-Wert) bestimmt.

Ein höheres p-Niveau entspricht einem geringeren Vertrauensniveau in die aus der Analyse der Probe erhaltenen Ergebnisse. Beispielsweise zeigt ein p-Level von 0,05 (5 %), dass die bei der Analyse einer bestimmten Gruppe getroffene Schlussfolgerung nur ein zufälliges Merkmal dieser Objekte mit einer Wahrscheinlichkeit von nur 5 % ist.

Mit anderen Worten, mit sehr hoher Wahrscheinlichkeit (95 %) lässt sich die Schlussfolgerung auf alle Objekte ausdehnen.

In vielen Studien gelten 5 % als akzeptabler p-Wert. Das heißt, wenn zum Beispiel p = 0,01, dann kann man den Ergebnissen vertrauen, aber wenn p = 0,06, dann ist es unmöglich.

Lernen

prospektives Studium ist eine Studie, bei der Stichproben basierend auf einem Eingabefaktor ausgewählt werden und einige resultierende Faktoren in den Stichproben analysiert werden.

Retrospektive Studie ist eine Studie, bei der Stichproben basierend auf dem resultierenden Faktor ausgewählt werden und einige Eingabefaktoren in den Stichproben analysiert werden.

Beispiel. Ausgangspunkt ist eine schwangere Frau jünger/älter als 20 Jahre. Daraus ergibt sich, dass das Kind leichter/schwerer als 2,5 kg ist. Wir analysieren, ob das Gewicht des Kindes vom Alter der Mutter abhängt.

Wenn wir 2 Stichproben nehmen, eine mit Müttern unter 20 Jahren, die andere mit älteren, und dann die Masse der Kinder in jeder Gruppe analysieren, dann handelt es sich um eine prospektive Studie.

Wenn wir 2 Proben sammeln, in einer - Mütter, die Kinder geboren haben, die leichter als 2,5 kg sind, in der anderen - schwerer, und dann das Alter der Mütter in jeder Gruppe analysieren, dann dies retrospektive Studie(Natürlich kann eine solche Studie erst durchgeführt werden, wenn das Experiment beendet ist, d. h. alle Kinder geboren sind).

Exodus

Definition. Ein klinisch bedeutsames Ereignis, ein Laborwert oder ein Zeichen, das für den Forscher von Interesse ist. In klinischen Studien dienen Ergebnisse als Kriterien zur Bewertung der Wirksamkeit einer therapeutischen oder prophylaktischen Intervention.

Klinische Epidemiologie

Definition. Die Wissenschaft, die es ermöglicht, ein bestimmtes Ergebnis für jeden spezifischen Patienten vorherzusagen, basierend auf der Untersuchung des klinischen Verlaufs der Krankheit in ähnlichen Fällen unter Verwendung strenger wissenschaftliche Methoden Untersuchung von Patienten, um die Genauigkeit von Prognosen sicherzustellen.

Kohorte

Definition. Eine Gruppe von Teilnehmern an einer Studie, die zum Zeitpunkt ihrer Entstehung durch ein gemeinsames Merkmal vereint und über einen langen Zeitraum hinweg untersucht wurde.

Kontrolle

Historische Kontrolle

Definition. Die Kontrollgruppe wurde im Zeitraum vor der Studie gebildet und untersucht.

Parallelsteuerung

Definition. Die Kontrollgruppe, gebildet gleichzeitig mit der Bildung der Hauptgruppe.

Korrelation

Definition. Statistisches Verhältnis zweier Zeichen (quantitativ oder ordinal), das zeigt, dass ein größerer Wert eines Zeichens in einem bestimmten Teil der Fälle einem größeren – bei positiver (direkter) Korrelation – dem Wert eines anderen Zeichens oder einem kleineren Wert entspricht - bei negativer (inverser) Korrelation.

Beispiel. Es wurde eine signifikante Korrelation zwischen dem Gehalt an Blutplättchen und Leukozyten im Blut des Patienten gefunden. Der Korrelationskoeffizient beträgt 0,76.

Risikoverhältnis (CR)

Definition. Das Risikoverhältnis (Hazard Ratio) ist das Verhältnis der Wahrscheinlichkeit eines bestimmten ("schlechten") Ereignisses für die erste Gruppe von Objekten zu der Wahrscheinlichkeit, dass dasselbe Ereignis für die zweite Gruppe von Objekten eintritt.

Beispiel. Wenn Nichtraucher eine 20-prozentige Chance haben, an Lungenkrebs zu erkranken, und eine 100-prozentige Chance, bei Rauchern an Lungenkrebs zu erkranken, dann beträgt die CR ein Fünftel. In diesem Beispiel sind die erste Gruppe von Objekten Nichtraucher, die zweite Gruppe Raucher und das Auftreten von Lungenkrebs wird als "schlechtes" Ereignis angesehen.

Es ist klar, dass:

1) wenn КР=1, dann ist die Wahrscheinlichkeit, dass das Ereignis in den Gruppen eintritt, gleich

2) wenn КР>1, dann tritt das Ereignis häufiger bei Objekten aus der ersten Gruppe auf als aus der zweiten

3) wenn CR<1, то событие чаще происходит с объектами из второй группы, чем из первой

Meta-Analyse

Definition. VON statistische Analyse, die die Ergebnisse mehrerer Studien zusammenfasst, die dasselbe Problem untersuchen (normalerweise die Wirksamkeit von Behandlungsmethoden, Prävention, Diagnose). Das Poolen von Studien bietet eine größere Stichprobe für die Analyse und eine größere statistische Aussagekraft von gepoolten Studien. Wird verwendet, um die Evidenz oder das Vertrauen in die Schlussfolgerung über die Wirksamkeit der Studienmethode zu erhöhen.

Kaplan-Meier-Methode (Mehrere Kaplan-Meier-Schätzungen)

Diese Methode wurde von den Statistikern E. L. Kaplan und Paul Meyer erfunden.

Das Verfahren wird verwendet, um verschiedene Größen zu berechnen, die sich auf die Zeit der Beobachtung des Patienten beziehen. Beispiele für solche Werte:

    Chance auf Genesung innerhalb eines Jahres bei Anwendung des Medikaments

    Wahrscheinlichkeit eines erneuten Auftretens nach der Operation innerhalb von drei Jahren nach der Operation

    kumulative Überlebenswahrscheinlichkeit nach fünf Jahren bei Patienten mit Prostatakrebs nach Organamputation

Lassen Sie sich die Vorteile der Kaplan-Meier-Methode erläutern.

Der Wert der Werte in der "normalen" Analyse (nicht nach der Kaplan-Meier-Methode) wird auf der Grundlage der Unterteilung des betrachteten Zeitintervalls in Intervalle berechnet.

Wenn wir beispielsweise die Todeswahrscheinlichkeit eines Patienten innerhalb von 5 Jahren untersuchen, dann kann das Zeitintervall in 5 Teile unterteilt werden (weniger als 1 Jahr, 1-2 Jahre, 2-3 Jahre, 3-4 Jahre, 4- 5 Jahre), so und 10 (jeweils ein halbes Jahr) oder eine andere Anzahl von Intervallen. Die Ergebnisse werden für verschiedene Partitionen unterschiedlich sein.

Die Auswahl der am besten geeigneten Partition ist keine leichte Aufgabe.

Schätzungen der nach der Kaplan-Meier-Methode erhaltenen Größenwerte hängen nicht von der Einteilung der Beobachtungszeit in Intervalle ab, sondern hängen nur von der Lebenszeit jedes einzelnen Patienten ab.

Daher ist es für den Forscher einfacher, die Analyse durchzuführen, und die Ergebnisse fallen oft qualitativ hochwertiger aus als die Ergebnisse der „normalen“ Analyse.

Die Kaplan-Meier-Kurve ist ein Diagramm der Überlebenskurve, die unter Verwendung der Kaplan-Meier-Methode erhalten wurde.

Cox-Modell

Dieses Modell wurde von Sir David Roxby Cox (geb. 1924) erfunden, einem berühmten englischen Statistiker, Autor von über 300 Artikeln und Büchern.

Das Cox-Modell wird in Situationen verwendet, in denen die in der Überlebensanalyse untersuchten Größen von Zeitfunktionen abhängen. Beispielsweise kann die Wiederholungswahrscheinlichkeit nach t Jahren (t=1,2,…) vom Logarithmus der Zeit log(t) abhängen.

Ein wichtiger Vorteil des von Cox vorgeschlagenen Verfahrens ist die Anwendbarkeit dieses Verfahrens in einer großen Anzahl von Situationen (das Modell erlegt der Art oder Form der Wahrscheinlichkeitsverteilung keine strengen Beschränkungen auf).

Basierend auf dem Cox-Modell kann eine Analyse (genannt Cox-Analyse) durchgeführt werden, die zu einem Risikoverhältniswert und einem Konfidenzintervall für das Risikoverhältnis führt.

Nichtparametrische Methoden der Statistik

Definition. Eine Klasse statistischer Methoden, die hauptsächlich für die Analyse nicht normalverteilter quantitativer Daten sowie für die Analyse qualitativer Daten verwendet werden.

Beispiel. Um die Signifikanz von Unterschieden im systolischen Blutdruck von Patienten in Abhängigkeit von der Art der Behandlung zu identifizieren, verwenden wir den nichtparametrischen Mann-Whitney-Test.

Merkmal (variabel)

Definition. x Merkmale des Untersuchungsgegenstandes (Beobachtung). Es gibt qualitative und quantitative Merkmale.

Randomisierung

Definition. Eine Methode der zufälligen Verteilung von Forschungsobjekten in die Haupt- und Kontrollgruppe unter Verwendung spezieller Mittel (Tabellen oder Zufallszahlenzähler, Münzwurf und andere Methoden der zufälligen Zuordnung einer Gruppennummer zu einer eingeschlossenen Beobachtung). Die Randomisierung minimiert Unterschiede zwischen den Gruppen in Bezug auf bekannte und unbekannte Merkmale, die möglicherweise das untersuchte Ergebnis beeinflussen.

Risiko

Attributiv- zusätzliches Risiko eines ungünstigen Ergebnisses (z. B. einer Erkrankung) aufgrund des Vorliegens einer bestimmten Eigenschaft (Risikofaktor) im Untersuchungsobjekt. Dies ist der Teil des Erkrankungsrisikos, der mit diesem Risikofaktor assoziiert ist, durch ihn erklärt wird und bei Wegfall dieses Risikofaktors eliminiert werden kann.

Relatives Risiko- das Verhältnis des Risikos eines ungünstigen Zustands in einer Gruppe zum Risiko dieses Zustands in einer anderen Gruppe. Es wird in prospektiven und Beobachtungsstudien verwendet, wenn Gruppen im Voraus gebildet werden und das Auftreten der untersuchten Erkrankung noch nicht eingetreten ist.

rollende Prüfung

Definition. Eine Methode zur Überprüfung der Stabilität, Zuverlässigkeit, Leistungsfähigkeit (Validität) eines statistischen Modells durch sukzessives Löschen von Beobachtungen und Neuberechnung des Modells. Je ähnlicher die resultierenden Modelle sind, desto stabiler und zuverlässiger ist das Modell.

Fall

Definition. Das in der Studie beobachtete klinische Ergebnis, wie das Auftreten von Komplikationen, Rückfall, Genesung, Tod.

Schichtung

Definition. m eine Stichprobenmethode, bei der eine Population aller Teilnehmer, die die Einschlusskriterien für eine Studie erfüllen, zuerst in Gruppen (Schichten) eingeteilt wird, basierend auf einem oder mehreren Merkmalen (normalerweise Geschlecht, Alter), die das Ergebnis der Studie potenziell beeinflussen, und dann von jedem von ihnen In diesen Gruppen ( Stratum) werden die Teilnehmer unabhängig voneinander in die Versuchs- und Kontrollgruppen rekrutiert. Dies ermöglicht dem Forscher, wichtige Merkmale zwischen den Versuchs- und Kontrollgruppen auszugleichen.

Kontingenztabelle

Definition. Eine Tabelle mit absoluten Häufigkeiten (Zahlen) von Beobachtungen, deren Spalten den Werten eines Merkmals und die Zeilen den Werten eines anderen Merkmals entsprechen (im Falle einer zweidimensionalen Kontingenztabelle). Die Werte der absoluten Häufigkeiten befinden sich in Zellen am Schnittpunkt von Zeilen und Spalten.

Lassen Sie uns ein Beispiel für eine Kontingenztabelle geben. Bei 194 Patienten wurde ein Aneurysma operiert. Ein bekannter Indikator für die Schwere des Ödems bei Patienten vor der Operation.

Ödem \ Ergebnis

kein Ödem 20 6 26
mäßige Schwellung 27 15 42
ausgeprägtes Ödem 8 21 29
mj 55 42 194

So überlebten von 26 Patienten ohne Ödeme 20 Patienten nach der Operation, 6 Patienten starben. Von 42 Patienten mit mäßigem Ödem überlebten 27 Patienten, 15 starben usw.

Chi-Quadrat-Test für Kontingenztafeln

Um die Signifikanz (Zuverlässigkeit) von Unterschieden in einem Zeichen in Abhängigkeit von einem anderen zu bestimmen (z. B. das Ergebnis einer Operation in Abhängigkeit von der Schwere des Ödems), wird ein Chi-Quadrat-Test für Kontingenztabellen verwendet:


Chance

Die Wahrscheinlichkeit eines Ereignisses sei gleich p. Dann ist die Wahrscheinlichkeit, dass das Ereignis nicht eintritt, 1-p.

Wenn beispielsweise die Wahrscheinlichkeit, dass der Patient nach fünf Jahren noch lebt, 0,8 (80 %) beträgt, dann beträgt die Wahrscheinlichkeit, dass er in diesem Zeitraum stirbt, 0,2 (20 %).

Definition. Zufall ist das Verhältnis der Wahrscheinlichkeit, dass ein Ereignis eintritt, zu der Wahrscheinlichkeit, dass das Ereignis nicht eintritt.

Beispiel. In unserem Beispiel (über den Patienten) beträgt die Chance 4, da 0,8/0,2=4

Somit ist die Heilungswahrscheinlichkeit 4-mal so hoch wie die Todeswahrscheinlichkeit.

Interpretation des Wertes einer Größe.

1) Wenn Chance=1, dann ist die Wahrscheinlichkeit, dass das Ereignis eintritt, gleich der Wahrscheinlichkeit, dass das Ereignis nicht eintritt;

2) wenn Chance > 1, dann ist die Wahrscheinlichkeit, dass das Ereignis eintritt, größer als die Wahrscheinlichkeit, dass das Ereignis nicht eintritt;

3) wenn Chance<1, то вероятность наступления события меньше вероятности того, что событие не произойдёт.

Wahrscheinlichkeit

Definition. Das Chancenverhältnis ist das Verhältnis der Chancen für die erste Gruppe von Objekten zu dem Chancenverhältnis für die zweite Gruppe von Objekten.

Beispiel. Nehmen wir an, dass sich sowohl Männer als auch Frauen einer Behandlung unterziehen.

Die Wahrscheinlichkeit, dass ein männlicher Patient nach fünf Jahren noch lebt, beträgt 0,6 (60 %); die Wahrscheinlichkeit, dass er in diesem Zeitraum stirbt, beträgt 0,4 (40 %).

Ähnliche Wahrscheinlichkeiten für Frauen sind 0,8 und 0,2.

Das Odds Ratio in diesem Beispiel ist

Interpretation des Wertes einer Größe.

1) Wenn das Quotenverhältnis = 1 ist, dann ist die Chance für die erste Gruppe gleich der Chance für die zweite Gruppe

2) Wenn das Quotenverhältnis > 1 ist, dann ist die Chance für die erste Gruppe größer als die Chance für die zweite Gruppe

3) Wenn das Quotenverhältnis<1, то шанс для первой группы меньше шанса для второй группы