Fråga:
Varför är det nödvändigt att prova från den bakre fördelningen om vi redan känner till den bakre fördelningen?
Dave
2017-10-14 06:40:32 UTC
view on stackexchange narkive permalink

Min förståelse är att när man använder en Bayesisk metod för att uppskatta parametervärden:

  • Den bakre fördelningen är kombinationen av den tidigare fördelningen och sannolikhetsfördelningen.
  • Vi simulerar detta genom att generera ett urval från den bakre fördelningen (t.ex. genom att använda en Metropolis-Hasting-algoritm för att generera värden och acceptera dem om de överstiger en viss sannolikhetsgräns för att tillhöra den bakre fördelningen).
  • När vi har genererat detta exempel använder vi det för att approximera den bakre fördelningen och saker som dess medelvärde.

Men jag känner att jag måste missförstå något.Det låter som om vi har en posterior fördelning och sedan samplar från den, och använder sedan provet som en approximation av den bakre fördelningen.Men om vi har den bakre fördelningen till att börja med varför behöver vi prova från den för att approximera den?

Två svar:
Xi'an
2017-10-14 19:26:39 UTC
view on stackexchange narkive permalink

Den här frågan har troligen redan beaktats i detta forum.

När du säger att du "har den bakre fördelningen", vad menar du exakt? "Att ha" en funktion av $ \ theta $ som jag vet är proportionell mot den bakre, nämligen $$ \ pi (\ theta | x) \ propto \ pi (\ theta) \ gånger f (x | \ theta) $$ för exempelvis det helt konstgjorda målet $$ \ pi (\ theta | x) \ propto \ exp \ {- || \ theta-x || ^ 2- || \ theta + x || ^ 4- || \ theta-2x || ^ 6 \}, \ \ x, \ theta \ i \ mathbb {R} ^ {18}, $$ berättar inte för mig vad som är

  1. den bakre förväntan på en funktion av $ \ theta $, t.ex. $ \ mathbb {E} [\ mathfrak {h} (\ theta) | x] $, posterior medelvärde som fungerar som en Bayesisk uppskattare under standardförluster;
  2. det optimala beslutet under en godtycklig verktygsfunktion, ett beslut som minimerar den förväntade bakre förlusten,
  3. ett osäkerhetsområde på 90% eller 95% på parametern (erna), en undervektor till parametern (erna) eller en funktion av parametern (erna), aka HPD-regionen $$ \ {h = \ mathfrak {h} (\ theta); \ \ pi ^ \ mathfrak {h} (h) \ ge \ understrykning {h} \} $$
  4. den mest troliga modellen att välja mellan att ställa in vissa komponenter i parametrarna till specifika värden kontra att hålla dem okända (och slumpmässiga).

Dessa är bara exempel på många användningar av den bakre fördelningen. I alla fall utom de enklaste kan jag inte ge svaren genom att stirra på den bakre fördelningstätheten och behöver fortsätta genom numeriska upplösningar som Monte Carlo och Markov-kedjan Monte Carlo-metoder.

Tack så mycket för svaret Xi'an.Jag är säker på att detta svarar på min fråga, men jag har fortfarande lite svårt att förstå den.Har jag rätt i att vi har en sannolikhetsdensitetsfunktion som motsvarar den bakre (dvs genom att kombinera det tidigare och sannolikheten)?Varför kunde vi inte hitta 95% KI direkt från detta snarare än från den samplade bakre fördelningen?
@Dave Jag tror att nyckeln här är vad du menar med "har".I allmänhet har du ingen sluten formlösning, så du kommer inte att "ha" funktionen i en användbar mening.
@monk tack för svaret!Har du något emot att utarbeta vad som gör en icke-stängd formlösning?
Antag att din tidigare är Beta (a, b) och din sannolikhet är Binomial (n, p).Hur beräknar du det förväntade värdet på din bakre del?Försök att räkna ut produktens integral med penna och papper.I allmänhet kommer en sådan integral att vara något som kräver att en dator får ett exakt värde för. Alternativt kan du upptäcka att Beta är konjugerat före Binomial, och därför kommer den bakre delen att vara Beta (med lätt beräknbara parametrar).Men ofta kommer du inte att vara så lycklig. Att fästa en definition av "stängd form" är svårt och det är värt att läsa om det på egen hand.
Karlsson Yu
2017-11-07 07:03:10 UTC
view on stackexchange narkive permalink

Ja, du kan ha en analytisk posterior fördelning.Men kärnan i Bayesian-analysen är att marginalisera över den bakre fördelningen av parametrar så att du får ett bättre förutsägelseresultat både när det gäller noggrannhet och generaliseringsförmåga.I grund och botten vill du få en prediktiv fördelning som har följande form.

$ p (x | D) = \ int p (x | w) p (w | D) dw $

där $ p (w | D) $ är den bakre fördelningen som du kan ha en analytisk form för.Men i många fall har $ p (w | D) $ en komplex form som inte tillhör någon känd distributionsfamilj eller i förening med $ p (x | w) $.Detta gör ovanstående integrand omöjligt att beräkna analytiskt.Då måste du tillgripa samplings approximation av integranden som är hela syftet med den avancerade samplingstekniken, såsom markov chain monte carlo

Ditt svar är intuitivt.Får jag ställa dig en fråga om vad som är "analytisk" betyder?
@GoingMyWay https: // sv.wikipedia.org / wiki / Closed-form_expression.Varsågod


Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...