Jag försöker lära mig hur man använder Neural Networks. Jag läste den här självstudien.
Efter att ha monterat ett neuralt nätverk på en tidsserie med värdet $ t $ för att förutsäga värdet vid $ t + 1 $ får författaren följande plot, där den blå linjen är tidsserien, den gröna är förutsägelsen på tågdata, rött är förutsägelsen på testdata (han använde en testtågsuppdelning)
och kallar det "Vi kan se att modellen gjorde ett ganska dåligt jobb med att passa både träningen och testdatauppsättningarna. Den förutsade i princip samma ingångsvärde som utdata."
Sedan bestämmer författaren att använda $ t $, $ t-1 $ och $ t-2 $ för att förutsäga värdet till $ t + 1 $. Genom att göra detta uppnår
och säger "Tittar vi på diagrammet kan vi se mer struktur i förutsägelserna."
M min fråga
Varför är den första "fattiga"? det ser nästan perfekt ut för mig, det förutspår varje enskild förändring perfekt!
Och på samma sätt, varför är den andra bättre? Var är "strukturen"? För mig verkar det mycket fattigare än den första.
I allmänhet, när är en förutsägelse om tidsserier bra och när är den dålig?