mean | se | t | |
gamma0 | 0.007 | 0.007 | 0.990 |
gamma1 | -0.006 | 0.003 | -1.800 |
gamma2 | 0.000 | 0.000 | 0.762 |
Как видим, гипотеза о том, что gamma0=gamma2=0 не отвергается с достаточно большим p–значением. gamma1, что интересно, оказалась меньше нуля, на грани значимости.
Поскольку нас просят показать, что бывает в подвыборках, сделаем это, но не для всего rolling–sample и не для всех компаний, а для полугодичных интервалов и меньшего числа компаний. Разделим все наблюдения на 14 периодов по полгода. Для каждого из них для каждой из 8 компаний (две компании были исключены, потому что для них наблюдения не за весь период), прогоним линейную регрессию в каждом из периодов (в первой строчке оценка, а во второй — стандартная ошибка).
полугодие | LKOH | SNGS | RTKM | AVAZ | AGAZPU | EESR | MSNG | VIP |
1 | 1.31 | 1.05 | 1.12 | 0.56 | 0.81 | 1.13 | 0.98 | 1.00 |
0.66 | 0.04 | 0.08 | 0.12 | 0.06 | 0.05 | 0.05 | 0.12 | |
2 | 1.01 | 1.08 | 1.05 | 1.17 | 0.96 | 1.12 | 1.09 | 0.94 |
0.03 | 0.04 | 0.07 | 0.21 | 0.05 | 0.05 | 0.05 | 0.07 | |
3 | 1.06 | 1.11 | 0.92 | 0.55 | 0.71 | 1.13 | 0.92 | 1.13 |
0.06 | 0.05 | 0.08 | 0.16 | 0.14 | 0.05 | 0.08 | 0.11 | |
4 | 1.57 | 0.80 | 1.14 | 0.73 | 0.77 | 1.26 | 1.25 | 0.94 |
0.75 | 0.08 | 0.13 | 0.17 | 0.13 | 0.06 | 0.07 | 0.13 | |
5 | 1.07 | 1.17 | 1.21 | 0.35 | 0.72 | 1.18 | 1.11 | 1.40 |
0.12 | 0.10 | 0.24 | 0.34 | 0.26 | 0.19 | 0.23 | 0.33 | |
6 | 1.10 | 1.20 | 1.16 | 0.65 | 0.92 | 1.12 | 0.91 | 1.11 |
0.08 | 0.08 | 0.16 | 0.40 | 0.26 | 0.11 | 0.16 | 0.18 | |
7 | 0.91 | 1.22 | 0.97 | 0.90 | 1.50 | 0.86 | 0.53 | 1.03 |
0.11 | 0.12 | 0.16 | 0.30 | 0.20 | 0.23 | 0.16 | 0.17 | |
8 | 0.81 | 1.12 | 1.01 | 0.76 | 0.93 | 1.23 | 0.88 | 0.73 |
0.14 | 0.16 | 0.20 | 0.27 | 0.22 | 0.13 | 0.16 | 0.25 | |
9 | 1.03 | 1.00 | 0.98 | 0.89 | 1.00 | 0.95 | 1.09 | 0.92 |
0.05 | 0.05 | 0.05 | 0.05 | 0.08 | 0.08 | 0.05 | 0.06 | |
10 | 0.97 | 1.17 | 1.16 | 0.99 | 0.91 | 1.45 | 1.08 | 0.96 |
0.05 | 0.13 | 0.10 | 0.11 | 0.14 | 0.20 | 0.17 | 0.11 | |
11 | 1.03 | 0.99 | 1.03 | 0.88 | 0.91 | 0.99 | 0.76 | 1.08 |
0.03 | 0.04 | 0.04 | 0.06 | 0.06 | 0.05 | 0.20 | 0.09 | |
12 | 0.98 | 0.97 | 1.01 | 0.92 | 0.94 | 0.99 | 0.98 | 0.95 |
0.02 | 0.02 | 0.02 | 0.03 | 0.04 | 0.03 | 0.04 | 0.04 | |
13 | 0.97 | 1.06 | 0.96 | 0.92 | 1.09 | 0.93 | 0.78 | 1.03 |
0.07 | 0.07 | 0.10 | 0.11 | 0.10 | 0.11 | 0.22 | 0.08 | |
14 | 0.99 | 0.97 | 1.08 | 1.01 | 0.96 | 0.99 | 0.97 | 1.04 |
0.02 | 0.03 | 0.03 | 0.05 | 0.04 | 0.04 | 0.10 | 0.04 | |
Видим, что почти во всех случаях оценки статистически значимы на 5% уровне (кроме «Автоваза» в некоторых периодах).
Если что, то t–статистика считается очень просто: надо оценку коэффициента разделить на стандартную ошибку. Если предполагать нормальность ошибок, то нужно использовать распределение стъюдента, если этого не делать, то лучше пользоваться асимптотическим распределением статистики и пользоваться стандартным нормальным распределением. Хотя идеально, конечно, бутстрап, но это уже слишком сложно, чтобы реализовывать тут.
Приложение.
№ 1
series y=d(log(tatn))
series rm=d(log(rtsi))
series rf=d(log(gko))
series y99=(@year=1999)
series y00=(@year=2000)
series y01=(@year=2001)
series y02=(@year=2002)
series y03=(@year=2003)
series y04=(@year=2004)
series y05=(@year=2005)
series bull=(rm>rf)
series bear=1-bull
equation i. ls(n) y-rf c rm-rf
equation ii. ls(n) y-rf y99 y00 y01 y02 y03 y04 y05 y99*(rm-rf) y00*(rm-rf) y01*(rm-rf) y02*(rm-rf) y03*(rm-rf) y04*(rm-rf) y05*(rm-rf)
equation iii. ls(n) y-rf bull bear bull*(rm-rf) bear*(rm-rf)
№ 2
matrix(28,8) betas
group g LKOH SNGS RTKM AVAZ AGAZPU EESR MSNG VIP
for! i=1 to 8
for! j=1 to 14
scalar year=1999+@floor((!j-1)/2)
if @mod(!j,2) = 0 then
smpl @all if @year=year and @month<=6
else
smpl @all if @year=year and @month>6
endif
equation e. ls d(log(g(!i)))-rf c rm-rf
betas(2*!j-1,!i)=e.@coefs(2)
betas(2*!j,!i)=e.@stderrs(2)
b(!i)=e.@coefs(2)
next
next
new;
cls;
gausset;
Ntot=191;
n=17;
Ns=12;
len=45;
T0=1;
load AAA[Ntot,96]=data. txt;
R=AAA[.,20:20+Ns-2]~AAA[.,20+Ns:37];
E=AAA[.,38:38+Ns-2]~AAA[.,38+Ns:55];
C=ln(AAA[.,79:79+Ns-2]~AAA[.,79+Ns:96]);
Rm=AAA[.,57];
Em=AAA[.,58];
gam=zeros(1,3);
for t(T0,Ntot-len,1);
Y=E[t:t+len-1,.];
X=ones(len,1)~Em[t:t+len-1];
beta=Y/X;
beta=beta[2,.]’;
Y1=R[t+len,.]';
X1=ones(n,1)~beta~(C[t,.]');
gam1=Y1/X1;
gam=gam|(gam1');
endfor;
gam=gam[2:Ntot-len+1,.];
mean_gam=meanc(gam);
s_gam=zeros(3,1);
s_gam1=(1/(Ntot*(Ntot-1)))*(diag(gam.'gam)-mean_gam.^2);
for i(1,3,1);
s_gam[i]=(1/(Ntot*(Ntot-1)))*((gam[.,i]-mean_gam[i])'*(gam[.,i]-mean_gam[i]));
endfor;
t_stat=mean_gam./sqrt(s_gam);
mean_gam~s_gam~t_stat;
|
Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4 |


