Inferenzstatistik
| Back to OverviewWasdas
Nehme an wir hätten eine Umfrage gemacht: 50 Leute wurden gefragt, ob sie AFI mögen. 45 davon sagen ja sehr. 5 sagen nein. Jetzt müssen wir diese Umfrage bewerten. Wie gut ist die Stichprobe, wie kann ich nachweisen, dass der Anteil der Leute, die AFI mögen, wirklich so hoch ist?
Die Vorlesung gibt 3 gute Schritte:
- Finde ein geeignetes Verteilungsmodell:
- Finde die optimalen Parameter: .
- Wie kann ich die Hypothese testen, und ist nachweisbar?
Grundbegriffe
ist der Stichprobenraum ist eine Stichprobe
ist eine Zufallsvariable, ist eine Realisierung der Zufallsvariable . heißt Verteilungsmodell auf , genauer heißt es parametrisches Verteilungsmodell, falls wobei eine Menge von Parametervektoren für die Verteilungen sind.
Falls es nicht endlichdimensional parametrisiert werden kann, heißt es nichtparametrisches Verteilungsmodell.
Statistik
Dummer Name
Eine Statistik ist eine messbare Abbildung , wobei oft
Wenn in den Parameterraum abbildet, heißt sie Schätzer.
Die empirische Verteilungsfunktion ist wie bereits gesagt: . Das ist einfach eine tolle Schreibweise um zu sagen: Gegeben ein Wert , wie viele Datewerte sind kleiner oder gleich . Es ist einfach zählen, die Anzahl dann noch relativ zu Gesamtdatenmenge und fertig.
Es gilt: . Zudem konvergiert immer gegen .
Likelihood-Prinzip und Funktionen
Ist ein Schätzprinzip und sagt, dass die beste Schätzung diejenige ist, die die beobachteten Daten am wahrscheinlichsten macht. Hierfür gibt es mehrere Funktionen und vorallem ein Schema:
Likelihood-Fkt: bzw. Log-Likelihood-Fkt: Max-Likelihood-Fkt:
Bei Stichproben gilt:
Maximum Likelihood Schätzer Schema
- Likelihood-Funktion aufstellen bei gegebenen Daten (genannt Realisationen)
- Log-Likelihood-Fkt aufstellen
- Kritische Punkte berechnen: , also Kandidaten für Extrema
- Zeigen, dass eins lokales Maximum ist, also .
- Zeigen das es ein globales Maximum ist.
Detaillierter:
-
Wie immer beschreibt die Parameter einer Verteilung in A37 der glob zum Beispiel das der Pareto Verteilung. Bei einer diskreten Stichprobe ist der natürlich die Zähldichte von (wie man bestimmt schon immer erkannt hat. Gibt ja so wenige ). Analog ist bei stetigen Stichproben die Dichtefunktion von .
Der Unterschied zwischen Likelihood und Dichtefunktion ist nur der Parameter. Bei der Dichtefunktion ist er als Parameter gegeben, bei der Likelihood-Fkt ist er die Variable, die wir verändern/optimieren wollen. Bei Max-Likelihood suchen wir also bei einer gegeben Verteilung die Parameter der Verteilung, die die Daten die wir gesehen haben am wahrscheinlichsten machen.
-
Log-Likelihood-Fkt einfach nur anwenden und vereinfachen.
-
Alles andere Kurvendiskussion. Hier ist wichtig: Ihr leitet nach ab!