Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_edauni.wasp
Title produced by softwareUnivariate Explorative Data Analysis
Date of computationWed, 22 Oct 2008 06:54:15 -0600
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Oct/22/t1224681806g7gg99neypwlq0k.htm/, Retrieved Wed, 15 May 2024 19:27:37 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=18408, Retrieved Wed, 15 May 2024 19:27:37 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact235
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F     [Univariate Explorative Data Analysis] [Investigation Dis...] [2007-10-21 17:06:37] [b9964c45117f7aac638ab9056d451faa]
F R  D    [Univariate Explorative Data Analysis] [q2 univariate exp...] [2008-10-22 12:54:15] [95d95b0e883740fcbc85e18ec42dcafb] [Current]
F           [Univariate Explorative Data Analysis] [q2 ] [2008-10-27 10:26:46] [e43247bc0ab243a5af99ac7f55ba0b41]
-   P         [Univariate Explorative Data Analysis] [Feedback lag plot...] [2008-11-03 20:35:53] [b82ef11dce0545f3fd4676ec3ebed828]
-   P           [Univariate Explorative Data Analysis] [Feedback lag plot...] [2008-11-03 20:57:50] [b82ef11dce0545f3fd4676ec3ebed828]
- RMP             [Central Tendency] [Feedback Task 1 - Q3] [2008-11-03 21:18:02] [b82ef11dce0545f3fd4676ec3ebed828]
F           [Univariate Explorative Data Analysis] [Q2 Univariate exp...] [2008-10-27 19:40:37] [c993f605b206b366f754f7f8c1fcc291]
-   P       [Univariate Explorative Data Analysis] [verbetering] [2008-11-02 16:58:55] [c45c87b96bbf32ffc2144fc37d767b2e]
Feedback Forum
2008-10-30 22:10:00 [Kim De Vos] [reply
Assumption 1: je concludeert correct dat je gebruik dient te maken van de autocorrelatie van de lag-plot. Het gaat hier dus om een positieve seizoenale autocorrelatie.
Assumption 2: Om te bepalen of je data normaal verdeeld is, kan je gebruik maken van de density plot en het histogram maar ook via de normal Q-Q plot. Op het histogram en de density plot kan je niet duidelijk waarnemen of het hier gaat om een normale verdeling. De Q-Q plot geeft duidelijke informatie. Hier merk je op dat de waarnemeingen vrij dicht op de rechte liggen. Toch merk je een oneffenheid op maar hier moet je niet wakker van liggen want deze ligt vrij dicht tegen de rechte.
Assumption 3:Je kan hiervoor kijken naar de run sequence plot ipv normal qq-plot, je merkt een dalende trend op.
Je kan dit ook op een andere manier berekenen, namelijk door de central tendency uit te voeren.
http://www.freestatistics.org/blog/date/2008/Oct/30/t1225396256z7cpi8rqy2wptn0.htm
Je ziet in de tabel dat de gemiddelden rond 87 schommelen, de outliers hebben dus niet echt effect op het gemiddelde. Toch blijft dit echter moeilijk te zien, we vermoeden dat er een dalende trend is.
Assumption 4: Gebruikte techniek = Sequence plot. Hier moet je kijken naar de spreiding van de reeks over de tijd heen. Je verdeelt de grafiek in 2 gelijke delen. In het 1e deel schommelt de grafiek meer dan in het 2e deel, ze hebben dus niet dezelfde spreiding.
2008-11-02 17:07:48 [Michaël De Kuyer] [reply
Randomness: Voor deze analyse moet men zich niet baseren op de run sequense plot, maar op de lag plot en de autocorrelation function. Het is dus wel zinvol om het aantal lags in te vullen: http://www.freestatistics.org/blog/date/2008/Nov/02/t1225645171a203r0dh8cvy1vg.htm. Nu kunnen we zien bij de lag plot dat de puntenwolk zeer verpsreid is. Dit wijst erop dat men geen uitspraak kan doen over het heden op basis van gegevens van een maand terug. Aan de hand van de autocorrelation function kunnen we zien dat elke 12de lag een uitschieter is wat er op wijst dat er geen randomness is, maar wel een positieve seizonale autocorrelatie.

Vaste distributie: voor deze analyse kan men zich enkel baseren op het histogram, density plot en de QQ-plot. Het histogram en density plot zijn juist geïnterpreteerd. Aan de hand van de QQ-plot kun je vaststellen dat de punten de rechte sterk benaderen, wat dus wijst op een benadering van de normaalverdeling.

Vaste component: Hier baseert de student zich op de verkeerde grafiek. Men moet zich baseren op de run sequense plot en niet op de QQ-plot. Aan de hand van de run sequense plot kun je vermoeden dat er een dalend verloop van het gemiddelde is, maar zoals Kim heeft gedaan, is een analyse via central tendency aangewezen. Als er daadwerkelijk een dalend verloop is, is deze voorwaarde dus niet voldaan.

Vaste variatie: Voor deze analyse moet je je ook baseren op de run sequense plot. Je moet de mate van schommelingen bekijken. Als we de grafiek in twee delen, stellen we vast dat in het eerste deel de waarden sterker schommelen dan in het tweede deel. Deze voorwaarde is dus niet voldaan.

Post a new message
Dataseries X:
109.20
88.60
94.30
98.30
86.40
80.60
104.10
108.20
93.40
71.90
94.10
94.90
96.40
91.10
84.40
86.40
88.00
75.10
109.70
103.00
82.10
68.00
96.40
94.30
90.00
88.00
76.10
82.50
81.40
66.50
97.20
94.10
80.70
70.50
87.80
89.50
99.60
84.20
75.10
92.00
80.80
73.10
99.80
90.00
83.10
72.40
78.80
87.30
91.00
80.10
73.60
86.40
74.50
71.20
92.40
81.50
85.30
69.90
84.20
90.70
100.30




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time5 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 5 seconds \tabularnewline
R Server & 'Gwilym Jenkins' @ 72.249.127.135 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=18408&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]5 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Gwilym Jenkins' @ 72.249.127.135[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=18408&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=18408&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time5 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135







Descriptive Statistics
# observations61
minimum66.5
Q180.6
median87.3
mean86.8934426229508
Q394.1
maximum109.7

\begin{tabular}{lllllllll}
\hline
Descriptive Statistics \tabularnewline
# observations & 61 \tabularnewline
minimum & 66.5 \tabularnewline
Q1 & 80.6 \tabularnewline
median & 87.3 \tabularnewline
mean & 86.8934426229508 \tabularnewline
Q3 & 94.1 \tabularnewline
maximum & 109.7 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=18408&T=1

[TABLE]
[ROW][C]Descriptive Statistics[/C][/ROW]
[ROW][C]# observations[/C][C]61[/C][/ROW]
[ROW][C]minimum[/C][C]66.5[/C][/ROW]
[ROW][C]Q1[/C][C]80.6[/C][/ROW]
[ROW][C]median[/C][C]87.3[/C][/ROW]
[ROW][C]mean[/C][C]86.8934426229508[/C][/ROW]
[ROW][C]Q3[/C][C]94.1[/C][/ROW]
[ROW][C]maximum[/C][C]109.7[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=18408&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=18408&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Descriptive Statistics
# observations61
minimum66.5
Q180.6
median87.3
mean86.8934426229508
Q394.1
maximum109.7



Parameters (Session):
par1 = 0 ; par2 = 0 ;
Parameters (R input):
par1 = 0 ; par2 = 0 ;
R code (references can be found in the software module):
par1 <- as.numeric(par1)
par2 <- as.numeric(par2)
x <- as.ts(x)
library(lattice)
bitmap(file='pic1.png')
plot(x,type='l',main='Run Sequence Plot',xlab='time or index',ylab='value')
grid()
dev.off()
bitmap(file='pic2.png')
hist(x)
grid()
dev.off()
bitmap(file='pic3.png')
if (par1 > 0)
{
densityplot(~x,col='black',main=paste('Density Plot bw = ',par1),bw=par1)
} else {
densityplot(~x,col='black',main='Density Plot')
}
dev.off()
bitmap(file='pic4.png')
qqnorm(x)
qqline(x)
grid()
dev.off()
if (par2 > 0)
{
bitmap(file='lagplot1.png')
dum <- cbind(lag(x,k=1),x)
dum
dum1 <- dum[2:length(x),]
dum1
z <- as.data.frame(dum1)
z
plot(z,main='Lag plot (k=1), lowess, and regression line')
lines(lowess(z))
abline(lm(z))
dev.off()
if (par2 > 1) {
bitmap(file='lagplotpar2.png')
dum <- cbind(lag(x,k=par2),x)
dum
dum1 <- dum[(par2+1):length(x),]
dum1
z <- as.data.frame(dum1)
z
mylagtitle <- 'Lag plot (k='
mylagtitle <- paste(mylagtitle,par2,sep='')
mylagtitle <- paste(mylagtitle,'), and lowess',sep='')
plot(z,main=mylagtitle)
lines(lowess(z))
dev.off()
}
bitmap(file='pic5.png')
acf(x,lag.max=par2,main='Autocorrelation Function')
grid()
dev.off()
}
summary(x)
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Descriptive Statistics',2,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'# observations',header=TRUE)
a<-table.element(a,length(x))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'minimum',header=TRUE)
a<-table.element(a,min(x))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Q1',header=TRUE)
a<-table.element(a,quantile(x,0.25))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'median',header=TRUE)
a<-table.element(a,median(x))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'mean',header=TRUE)
a<-table.element(a,mean(x))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Q3',header=TRUE)
a<-table.element(a,quantile(x,0.75))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'maximum',header=TRUE)
a<-table.element(a,max(x))
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable.tab')