Inspirować Innowacje międzynarodowego społeczeństwa.
Wpisz numer części lub słowo kluczowe w polu wyszukiwania. Jeśli nie znasz numeru katalogowego, możesz znaleźć produkt według kategorii lub producenta. Aby znaleźć produkt według modelu urządzenia, najpierw wybierz producenta.
Fisher&Paykel Healthcare HWA-850F01
$189/szt.
Na co dzień?
-
+
Kup jednym kliknięciem
Skonsultuj się w WhatsApp
Cena obowiązuje wyłącznie dla sklepu internetowego i może różnić się od cen w sklepach stacjonarnych.
Opis
Z pewnością! Twoja prośba o szczegółowe informacje techniczne na temat „Fisher” może odnosić się do kilku różnych kontekstów, w tym informacji Fishera w statystykach, dokładnego testu Fishera, równania Fishera w finansach, a nawet Fishera w kategoriach biologicznych, takich jak gatunki zwierząt. Poniżej szczegółowo opiszę informację Fishera w kontekście statystyki, która jest centralną koncepcją w dziedzinie wnioskowania statystycznego. --- ## Informacje Fishera: szczegółowy przegląd techniczny W dziedzinie statystyki informacja Fishera (nazwana na cześć wybitnego statystyka Ronalda A. Fishera) określa ilościowo ilość informacji, jaką niesie obserwowalna zmienna losowa na temat nieznanego parametru, na podstawie której prawdopodobieństwo zmiennej zależy. Stanowi kamień węgielny w teorii estymacji statystycznej i ma kluczowe znaczenie w ocenie efektywności estymatorów. ### Definicja i sformułowanie matematyczne Informacje Fishera powiązane z parametrem \(\theta\) w parametrycznej rodzinie rozkładów prawdopodobieństwa można sformalizować na kilka sposobów, zwykle poprzez funkcję punktacji lub drugą pochodną funkcji logarytmicznej wiarygodności . #### Definicja oparta na funkcji wyniku Niech \(X\) będzie zmienną losową z funkcją gęstości prawdopodobieństwa \(f(x; \theta)\), gdzie \(\theta\) jest parametrem. Funkcję wyniku \(U(\theta)\) definiuje się jako gradient (lub pochodną w przypadkach jednowymiarowych) funkcji logarytmicznej wiarygodności: \[ U(\theta) = \frac{\partial}{\partial \theta} \log f(X; \theta) \] Informacja Fishera \(I(\theta)\) jest wówczas wariancją funkcji wyniku: \[ I(\theta) = \mathbb{E} \left [ \left( \frac{\partial}{\partial \theta} \log f(X; \theta) \right)^2 \right] \] #### Definicja drugiej pochodnej logarytmicznej wiarygodności Alternatywnie, informacja Fishera może być zdefiniowana poprzez wartość oczekiwaną ujemnej drugiej pochodnej funkcji logarytmicznej wiarygodności względem parametru: \[ I(\theta) = -\mathbb{E} \left[ \frac{\partial^2}{\ częściowe \theta^2} \log f(X; \theta) \right] \] Obie definicje są równoważne w warunkach regularności, które pozwalają na zamianę operacji różniczkowania i oczekiwań. ### Właściwości informacji Fishera 1. **Addytywność**: Dla niezależnych i jednakowo rozłożonych (iid) zmiennych losowych \(X_1, X_2, \ldots, X_n\) ze wspólnym parametrem \(\theta\), informacja Fishera dla próbki \(I_n(\theta)\) jest sumą poszczególnych wartości informacji Fishera: \[ I_n(\theta) = nI(\theta) \] 2. **Cramer-Rao Bound**: The Fisher informacja wyznacza dolną granicę wariancji nieobciążonych estymatorów. Dla nieobciążonego estymatora \(\hat{\theta}\) \(\theta\): \[ \text{Var}(\hat{\theta}) \geq \frac{1}{I(\theta) } \] Ta nierówność stanowi punkt odniesienia dla wydajności estymatora, wskazując, że żaden nieobciążony estymator nie może mieć wariancji mniejszej niż odwrotność informacji Fishera. 3. **Niezmiennik przy reparametryzacji**: Jeśli parametr \(\theta\) zostanie ponownie sparametryzowany za pomocą funkcji gładkiej \(\phi = g(\theta)\), informacja Fishera przekształca się jako: \[ I_\phi( \phi) = I_\theta(\theta) \left( \frac{d\theta}{d\phi} \right)^2 \] ### Zastosowania we wnioskowaniu statystycznym 1. **Oszacowanie maksymalnej wiarygodności (MLE) **: Informacja Fishera odgrywa kluczową rolę w asymptotycznych właściwościach MLE. W pewnych warunkach regularności MLE \(\hat{\theta}\) dla dużych próbek ma w przybliżeniu rozkład normalny ze średnią \(\theta\) i wariancją \(\frac{1}{I(\theta)}\) : \[ \hat{\theta} \około \mathcal{N} \left( \theta, \frac{1}{I(\theta)} \right) \] 2. **Testowanie hipotez**: W W kontekście testowania hipotez informacje Fishera wykorzystywane są do wyprowadzania macierzy informacyjnej, która jest niezbędna do konstruowania statystyk testowych, takich jak test współczynnika wiarygodności. 3. **Przedziały ufności**: Dokładność przedziałów ufności wokół estymatorów parametrów można zmierzyć za pomocą informacji Fishera, szczególnie w ustawieniach asymptotycznych. ### Przykład praktyczny Rozważmy prosty przypadek obliczenia informacji Fishera dla parametru \(\theta\) rozkładu normalnego ze znaną wariancją \(\sigma^2\) i średnią \(\theta\). Funkcja gęstości prawdopodobieństwa to: \[ f(x; \theta) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left( -\frac{(x - \theta)^ 2} ^2) - \frac{(x - \theta)^2}{2\sigma^2} \] Biorąc pierwszą pochodną względem \(\theta\): \[ \frac{\partial}{\partial \theta} \log f(x; \theta) = \frac{x - \theta}{\sigma^2} \] Podnosząc to do kwadratu i przyjmując oczekiwanie, otrzymujemy: \[ \mathbb{E} \left[ \ left( \frac{x - \theta}{\sigma^2} \right)^2 \right] = \frac{1}{\sigma^2} \] Stąd informacja Fishera \(I(\theta) \) dla tego rozkładu normalnego wynosi: \[ I(\theta) = \frac{1}{\sigma^2} \] ### Wniosek Informacja Fishera jest integralną koncepcją statystyki, zapewniającą krytyczny wgląd w precyzję i wydajność szacunków parametrów. Jego zastosowanie przenika różne dziedziny, w tym estymację parametrów, testowanie hipotez i wyznaczanie przedziałów ufności, podkreślając jego fundamentalną rolę w teorii i zastosowaniu statystyki. --- Mam nadzieję, że ten szczegółowy przegląd techniczny rozwieje Twoje zainteresowanie informacjami Fishera w statystykach. Jeśli masz na myśli inny kontekst, daj mi znać!
Zadać pytanie
