Fråga:
Var (X) är känd, hur man beräknar Var (1 / X)?
ARAT
2012-11-05 15:15:36 UTC
view on stackexchange narkive permalink

Om jag bara har $ \ mathrm {Var} (X) $, hur kan jag beräkna $ \ mathrm {Var} (\ frac {1} {X}) $?

Det gör jag inte har någon information om fördelningen av $ X $, så jag kan inte använda transformation eller andra metoder som använder sannolikhetsfördelningen på $ X $.

Jag tror att [detta] (http://stats.stackexchange.com/questions/5782/variance-of-a-function-of-one-random-variable) kan hjälpa dig.
Två svar:
Glen_b
2012-11-05 16:47:02 UTC
view on stackexchange narkive permalink

Du kan använda Taylor-serien för att få en approximation av lågordensmomenten för en transformerad slumpmässig variabel. Om fördelningen är ganska "snäv" runt medelvärdet (i en viss mening) kan approximationen vara ganska bra.

Så till exempel

$$ g (X) = g (\ mu) + (X- \ mu) g '(\ mu) + \ frac {(X- \ mu) ^ 2} {2} g' '(\ mu) + \ ldots $$

\ börjar {eqnarray} \ text {Var} [g (X)] & = & \ text {Var} [g (\ mu) + (X- \ mu) g '( \ mu) + \ frac {(X- \ mu) ^ 2} {2} g '' (\ mu) + \ ldots] \\ & = & \ text {Var} [(X- \ mu) g '( \ mu) + \ frac {(X- \ mu) ^ 2} {2} g '' (\ mu) + \ ldots] \\ & = & g '(\ mu) ^ 2 \ text {Var} [( X- \ mu)] + 2g '(\ mu) \ text {Cov} [(X- \ mu), \ frac {(X- \ mu) ^ 2} {2} g' '(\ mu) + \ ldots] \\ & & \ quad + \ text {Var} [\ frac {(X- \ mu) ^ 2} {2} g '' (\ mu) + \ ldots] \\\ end {eqnarray}

ofta tas bara den första termen

$$ \ text {Var} [g (X)] \ approx g '(\ mu) ^ 2 \ text {Var} (X) $ $

I det här fallet (förutsatt att jag inte gjorde ett misstag), med $ g (X) = \ frac {1} {X} $, $ \ text {Var} [\ frac {1 } {X}] \ approx \ frac {1} {\ mu ^ 4} \ text {Var} (X) $.

Wikipedia: Taylor utvidgar för ögonblicken funktioner av slumpmässiga variabler

---

Några exempel för att illustrera detta. Jag genererar två (gammadistribuerade) prover i R, en med en 'inte så tät' fördelning om medelvärdet och en lite snävare.

  a <- rgamma (1000 , 10,1) # medelvärde och varians 10; medelvärdet är inte många sds från 0 var (a) [1] 10.20819 # rimligt nära befolkningsvariansen  

Ungefärlig föreslår att variansen $ 1 / a $ ska vara nära $ ( 1/10) ^ 4 \ gånger 10 = 0,001 $

  var (1 / a) [1] 0.00147171  

Algebraisk beräkning har den faktiska befolkningen varians är $ 1/648 \ ca 0,00154 $

Nu för den strammare:

  en <- rgamma (1000,100,10) # ska ha medelvärde 10 och varians 1 var (a) [1] 1.069147  

Uppskattningen antyder att variansen $ 1 / a $ ska vara nära $ (1/10) ^ 4 \ gånger 1 = 0,0001 $

  var (1 / a) [1] 0,0001122586  

Algebraisk beräkning visar att populationsvariansen för det ömsesidiga är $ \ frac {10 ^ 2} {99 ^ 2 \ gånger 98} \ ca 0,000104 $.

Observera att i detta fall leder en ganska svag hypotes till slutsatsen att inget medelvärde (varifrån varians) för $ 1 / X $ kommer att existera, dvs. att approximationen i svaret kommer att vara ganska missvisande. :-) Ett exempel på en hypotes är att $ X $ har en densitet $ f $ som är kontinuerlig i ett intervall runt noll och så att $ f (0) \ neq 0 $. Resultatet följer sedan eftersom densiteten kommer att begränsas från noll i ett intervall $ [- \ epsilon, \ epsilon] $. Den hypotes som just ges är naturligtvis inte den svagaste möjliga.
Anledningen till att Taylor-seriens argument sedan misslyckas är att $ \ approx $ döljer återstående (fel) term, som i detta fall är $$ R (x, \ mu) = \ frac {(x + \ mu) (x- \ mu ) ^ 2} {x \ mu} \>, $$ och detta beter sig dåligt runt $ x = 0 $.
Man måste verkligen vara försiktig med beteendet hos densiteten nära 0. Observera att i ovannämnda gammaexempel är fördelningen av det inversa inverterat gamma, för vilket ett ändligt medelvärde kräver $ \ alpha> 1 $ ($ \ alpha $ ärformparametern för det gamma som vi inverterar).De två exemplen hade $ \ alpha = 10 $ och $ \ alpha = 100 $.Ändå (med "fina" distributioner för invertering) kan försummelse av högre termer införa en märkbar bias.
detta verkar i rätt riktning, av en ömsesidig förskjuten normalfördelning istället för en ömsesidig normalfördelning: https://en.wikipedia.org/wiki/Inverse_distribution#Reciprocal_normal_distribution
mogron
2012-11-05 15:57:38 UTC
view on stackexchange narkive permalink

Det är omöjligt.

Tänk på en sekvens $ X_n $ av slumpmässiga variabler, där

$$ P (X_n = n-1) = P (X_n = n + 1 ) = 0,5 $$

Sedan:

$$ \ newcommand {\ Var} {\ mathrm {Var}} \ Var (X_n) = 1 \ quad \ text {för alla $ n $} $$

Men $ \ Var \ left (\ frac {1} {X_n} \ right) $ närmar sig noll när $ n $ går till oändlighet:

$ $ \ Var \ left (\ frac {1} {X_n} \ right) = \ left (0.5 \ left (\ frac {1} {n + 1} - \ frac {1} {n-1} \ right) \ höger) ^ 2 $$

Detta exempel använder det faktum att $ \ Var (X) $ är oförändrad under översättningar av $ X $, men $ \ Var \ left (\ frac {1} {X} \ höger) $ är inte.

Men även om vi antar $ \ mathrm {E} (X) = 0 $ kan vi inte beräkna $ \ Var \ left (\ frac {1} {X } \ höger) $: Låt

$$ P (X_n = -1) = P (X_n = 1) = 0,5 \ vänster (1- \ frac {1} {n} \ höger) $$

och

$$ P (X_n = 0) = \ frac {1} {n} \ quad \ text {för $ n>0 $} $$

Sedan närmar sig $ \ Var (X_n) $ 1 när $ n $ går till oändlighet, men $ \ Var \ left (\ frac {1} {X_n} \ höger) = \ infty $ för alla $ n $.



Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...