Shrinkage estimation in parametric families of distributions based on divergence measures

Dick, Artur; Kamps, Udo (Thesis advisor); Kateri, Maria (Thesis advisor)

Aachen (2018)
Doktorarbeit

Kurzfassung

In dieser Dissertation wird eine Methode entwickelt, die auf die Verbesserung des Maximum Likelihood Estimators (MLE) in Situationen abzielt, in denen eine Vorschätzung des zugrundeliegenden Parameters einer Wahrscheinlichkeitsverteilung vorliegt. Insbesondere wenn die Stichprobengröße gering ist, kann der MLE eine hohe Varianz aufweisen und zu schlechten Schätzungen führen. Um diesem Nachteil entgegenzuwirken wird die Vorschätzung zusätzlich herangezogen. Die Konstruktion des neuen Schätzers basiert auf einem Minimum-Divergenz-Ansatz. In Anbetracht der Menge aller Schätzungen, die den gleichen Abstand zu der ML-Schätzung und der Vorschätzung haben, ist der Parameter von Interesse, der diese beiden Schätzungen bestmöglich approximiert. Der resultierende Schätzer wird Equal DistanceEstimator (EDE) genannt. Dieses Verfahren bildet einen alternativen Ansatz zum klassischen Bayes’schen Paradigma, um einen Schätzer zu konstruieren, der Vorwissen enthält. Grundsätzlich definiert der EDE einen Shrinkage-Schätzer, da geometrisch gesehen jede ML-Schätzung näher zur Vorschätzung gezogen wird. Explizite Formen des EDE’s werden für verschiedene Divergenzen und eine breite Klasse von Wahrscheinlichkeitsverteilungen hergeleitet. Bedingungen für Existenz und Eindeutigkeit des EDE’s werden ebenfalls festgelegt. Viele Eigenschaften des MLE’s werden an den EDE vererbt. Die wichtigste davon ist Invarianz bzgl. Parametrisierungen. Bei multinomial verteilten Daten führt eine leichte Erweiterung des EDE’s zu einem neuen Ansatz zur Bewältigung von Sparsity. Schließlich wird die Leistung des MLE mit der Leistung des EDE bzgl. Pitman’s measure of closeness vergleichen. Am Ende stellen wir ein Update-Verfahren des EDE’s vor, falls neue Stichproben aus einer multivariaten Normalverteilung vorliegen.

Identifikationsnummern