Free Statistics

of Irreproducible Research!

Author's title

Author*Unverified author*
R Software Modulerwasp_rwalk.wasp
Title produced by softwareLaw of Averages
Date of computationTue, 02 Dec 2008 09:39:04 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/02/t1228236016l6nfs8coto4t6h9.htm/, Retrieved Thu, 23 May 2024 06:42:28 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=28057, Retrieved Thu, 23 May 2024 06:42:28 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact205
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F     [Law of Averages] [Random Walk Simul...] [2008-11-25 18:31:28] [b98453cac15ba1066b407e146608df68]
F         [Law of Averages] [sdq] [2008-12-02 16:39:04] [d41d8cd98f00b204e9800998ecf8427e] [Current]
Feedback Forum
2008-12-04 11:50:25 [Glenn Maras] [reply
De student heeft de juiste berekening uitgevoerd maar geen uitleg gegeven.
Hij heeft d=1 en D=1 in het vet aangeduidt dus hij zegt dat het daarom gaat.
Ik ben niet akkoord omdat bij d=1 en D=0 de waarde gelijk is aan 1 en dat is ook het kleinste in de tabel. De variantie in de tabel toont de volatiliteit/ het risico weer dat er in zit. Het is logisch dat die zo laag mogelijk moet zijn. Besluit: We moeten dus gewoon 1 keer differentieren(d=1).
2008-12-04 13:47:40 [Philip Van Herck] [reply
Wanneer we de Autocorrelatiefunctie van de Random-Walk simulatie bekijken kunnen we vaststellen dat alle autocorrelaties significant verschillend zijn van 0 (liggen allemaal buiten 95% betrouwbaarheidsinterval), dat het allemaal positieve getallen zijn (positieve autocorrelatie dus) en dat er zich een dalende trend voordoet. De positieve autocorrelatie vertelt ons dat als, toegepast op vb. beurskoersen, de vorige beurskoers hoog was, de kans groot is dat de volgende ook groot gaat zijn. Ook als de vorige beurskoers laag was, is de kans bijgevolg groot dat de volgende ook laag gaat zijn. De ATF van de Random-Walk simulatie is altijd positief en wel omdat we te maken hebben met geleidelijke veranderingen. Wanneer we bijvoorbeeld een wispelturige grafiek hebben, is er meer kans dat er negatieve autocorrelatie gaat optreden. Deze ACF daarentegen is zeer typisch voor een stochastische trend op lange termijn.
  2008-12-04 13:49:54 [Philip Van Herck] [reply
Excuseer, dit was de uitleg van Q2, de uitleg bij Q3 is deze:
In de gereproduceerde “Variance Reduction Matrix” kunnen we aflezen welke differentiatie nodig is om reeds zo veel mogelijk waarnemingen te kunnen verklaren. De differentiatie met de kleine “d” is een niet-seizoenale differentiatie en dient dus om de lange termijntrend weg te werken uit het model. De grote “D” is een seizoenale differentiatie, die dient om de seizoenaliteit uit het model te halen. Wanneer we naar de Variance Reduction Matrix kijken kunnen we vaststellen dat bij d=1, D=1 de kleinste Range en de kleinste Trim Variance hebben wat ervoor zorgt dat we reeds zoveel mogelijk waarnemingen kunnen verklaren en zo een stationair model te creëren.
2008-12-09 21:37:43 [Anna Hayan] [reply
De student gaf de juiste berekingen maar de nodige uitleg ontbreekt.
Uit bovenstaande tabel moet je de kleinste variantie kiezen. In dit geval wordt die bereikt
door eenmaal trendmatig te differentiëren (d=1, D=0). Hoe kleiner de variantie, hoe
kleiner het risico en hoe beter het model.
In bovenstaande tabel worden ook de getrimde varianties weergegeven. Deze zijn nodig
omdat de variantie sterk gevoelig is voor outliers. Bij de getrimde variantie worden deze
gedeeltelijk verwijderd. Als er dan geen uitsluiting is qua beste methode bij de variantie,
kan men nog naar de getrimde variantie kijken.
2008-12-09 21:58:56 [Anna Hayan] [reply
De volgende aanvullingen zijn nodig:
Uit bovenstaande tabel moet je de kleinste variantie kiezen. In dit geval wordt die bereikt
door eenmaal trendmatig te differentiëren (d=1, D=0). Hoe kleiner de variantie, hoe
kleiner het risico en hoe beter het model.
In bovenstaande tabel worden ook de getrimde varianties weergegeven. Deze zijn nodig
omdat de variantie sterk gevoelig is voor outliers. Bij de getrimde variantie worden deze
gedeeltelijk verwijderd. Als er dan geen uitsluiting is qua beste methode bij de variantie,
kan men nog naar de getrimde variantie kijken.

Post a new message




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'George Udny Yule' @ 72.249.76.132

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 2 seconds \tabularnewline
R Server & 'George Udny Yule' @ 72.249.76.132 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=28057&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]2 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'George Udny Yule' @ 72.249.76.132[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=28057&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=28057&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'George Udny Yule' @ 72.249.76.132







Variance Reduction Matrix
V(Y[t],d=0,D=0)107.286076152305Range38Trim Var.83.4629635434626
V(Y[t],d=1,D=0)1.00023339852396Range2Trim Var.NA
V(Y[t],d=2,D=0)1.97987927565392Range4Trim Var.0
V(Y[t],d=3,D=0)6.04030635425456Range8Trim Var.2.53805828693283
V(Y[t],d=0,D=1)15.8710068334063Range18Trim Var.7.89764898588428
V(Y[t],d=1,D=1)2.00816285142089Range4Trim Var.0
V(Y[t],d=2,D=1)4.04116923338Range8Trim Var.2.28404478344262
V(Y[t],d=3,D=1)12.396626054358Range16Trim Var.6.40970213384006
V(Y[t],d=0,D=2)26.5606191950464Range24Trim Var.13.9290882220652
V(Y[t],d=1,D=2)5.88183877415057Range8Trim Var.2.76895831441286
V(Y[t],d=2,D=2)11.6363636363636Range16Trim Var.6.4116572839133
V(Y[t],d=3,D=2)35.6437811301824Range32Trim Var.20.8144255914371

\begin{tabular}{lllllllll}
\hline
Variance Reduction Matrix \tabularnewline
V(Y[t],d=0,D=0) & 107.286076152305 & Range & 38 & Trim Var. & 83.4629635434626 \tabularnewline
V(Y[t],d=1,D=0) & 1.00023339852396 & Range & 2 & Trim Var. & NA \tabularnewline
V(Y[t],d=2,D=0) & 1.97987927565392 & Range & 4 & Trim Var. & 0 \tabularnewline
V(Y[t],d=3,D=0) & 6.04030635425456 & Range & 8 & Trim Var. & 2.53805828693283 \tabularnewline
V(Y[t],d=0,D=1) & 15.8710068334063 & Range & 18 & Trim Var. & 7.89764898588428 \tabularnewline
V(Y[t],d=1,D=1) & 2.00816285142089 & Range & 4 & Trim Var. & 0 \tabularnewline
V(Y[t],d=2,D=1) & 4.04116923338 & Range & 8 & Trim Var. & 2.28404478344262 \tabularnewline
V(Y[t],d=3,D=1) & 12.396626054358 & Range & 16 & Trim Var. & 6.40970213384006 \tabularnewline
V(Y[t],d=0,D=2) & 26.5606191950464 & Range & 24 & Trim Var. & 13.9290882220652 \tabularnewline
V(Y[t],d=1,D=2) & 5.88183877415057 & Range & 8 & Trim Var. & 2.76895831441286 \tabularnewline
V(Y[t],d=2,D=2) & 11.6363636363636 & Range & 16 & Trim Var. & 6.4116572839133 \tabularnewline
V(Y[t],d=3,D=2) & 35.6437811301824 & Range & 32 & Trim Var. & 20.8144255914371 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=28057&T=1

[TABLE]
[ROW][C]Variance Reduction Matrix[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=0)[/C][C]107.286076152305[/C][C]Range[/C][C]38[/C][C]Trim Var.[/C][C]83.4629635434626[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=0)[/C][C]1.00023339852396[/C][C]Range[/C][C]2[/C][C]Trim Var.[/C][C]NA[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=0)[/C][C]1.97987927565392[/C][C]Range[/C][C]4[/C][C]Trim Var.[/C][C]0[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=0)[/C][C]6.04030635425456[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.53805828693283[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=1)[/C][C]15.8710068334063[/C][C]Range[/C][C]18[/C][C]Trim Var.[/C][C]7.89764898588428[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=1)[/C][C]2.00816285142089[/C][C]Range[/C][C]4[/C][C]Trim Var.[/C][C]0[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=1)[/C][C]4.04116923338[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.28404478344262[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=1)[/C][C]12.396626054358[/C][C]Range[/C][C]16[/C][C]Trim Var.[/C][C]6.40970213384006[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=2)[/C][C]26.5606191950464[/C][C]Range[/C][C]24[/C][C]Trim Var.[/C][C]13.9290882220652[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=2)[/C][C]5.88183877415057[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.76895831441286[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=2)[/C][C]11.6363636363636[/C][C]Range[/C][C]16[/C][C]Trim Var.[/C][C]6.4116572839133[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=2)[/C][C]35.6437811301824[/C][C]Range[/C][C]32[/C][C]Trim Var.[/C][C]20.8144255914371[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=28057&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=28057&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Variance Reduction Matrix
V(Y[t],d=0,D=0)107.286076152305Range38Trim Var.83.4629635434626
V(Y[t],d=1,D=0)1.00023339852396Range2Trim Var.NA
V(Y[t],d=2,D=0)1.97987927565392Range4Trim Var.0
V(Y[t],d=3,D=0)6.04030635425456Range8Trim Var.2.53805828693283
V(Y[t],d=0,D=1)15.8710068334063Range18Trim Var.7.89764898588428
V(Y[t],d=1,D=1)2.00816285142089Range4Trim Var.0
V(Y[t],d=2,D=1)4.04116923338Range8Trim Var.2.28404478344262
V(Y[t],d=3,D=1)12.396626054358Range16Trim Var.6.40970213384006
V(Y[t],d=0,D=2)26.5606191950464Range24Trim Var.13.9290882220652
V(Y[t],d=1,D=2)5.88183877415057Range8Trim Var.2.76895831441286
V(Y[t],d=2,D=2)11.6363636363636Range16Trim Var.6.4116572839133
V(Y[t],d=3,D=2)35.6437811301824Range32Trim Var.20.8144255914371



Parameters (Session):
par1 = 500 ; par2 = 0.5 ;
Parameters (R input):
par1 = 500 ; par2 = 0.5 ; par3 = ; par4 = ; par5 = ; par6 = ; par7 = ; par8 = ; par9 = ; par10 = ; par11 = ; par12 = ; par13 = ; par14 = ; par15 = ; par16 = ; par17 = ; par18 = ; par19 = ; par20 = ;
R code (references can be found in the software module):
n <- as.numeric(par1)
p <- as.numeric(par2)
heads=rbinom(n-1,1,p)
a=2*(heads)-1
b=diffinv(a,xi=0)
c=1:n
pheads=(diffinv(heads,xi=.5))/c
bitmap(file='test1.png')
op=par(mfrow=c(2,1))
plot(c,b,type='n',main='Law of Averages',xlab='Toss Number',ylab='Excess of Heads',lwd=2,cex.lab=1.5,cex.main=2)
lines(c,b,col='red')
lines(c,rep(0,n),col='black')
plot(c,pheads,type='n',xlab='Toss Number',ylab='Proportion of Heads',lwd=2,cex.lab=1.5)
lines(c,pheads,col='blue')
lines(c,rep(.5,n),col='black')
par(op)
dev.off()
b
par1 <- as.numeric(12)
x <- as.array(b)
n <- length(x)
sx <- sort(x)
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Variance Reduction Matrix',6,TRUE)
a<-table.row.end(a)
for (bigd in 0:2) {
for (smalld in 0:3) {
mylabel <- 'V(Y[t],d='
mylabel <- paste(mylabel,as.character(smalld),sep='')
mylabel <- paste(mylabel,',D=',sep='')
mylabel <- paste(mylabel,as.character(bigd),sep='')
mylabel <- paste(mylabel,')',sep='')
a<-table.row.start(a)
a<-table.element(a,mylabel,header=TRUE)
myx <- x
if (smalld > 0) myx <- diff(x,lag=1,differences=smalld)
if (bigd > 0) myx <- diff(myx,lag=par1,differences=bigd)
a<-table.element(a,var(myx))
a<-table.element(a,'Range',header=TRUE)
a<-table.element(a,max(myx)-min(myx))
a<-table.element(a,'Trim Var.',header=TRUE)
smyx <- sort(myx)
sn <- length(smyx)
a<-table.element(a,var(smyx[smyx>quantile(smyx,0.05) & smyxa<-table.row.end(a)
}
}
a<-table.end(a)
table.save(a,file='mytable.tab')