Delta metodu istatistikte , bir asimtotik normal istatistiki tahmin edicinin fonksiyonu için bu tahmin edicinin sınırlayıcı varyans bilgisi kullanılarak yaklaşık bir olasılık dağılımı türetme metodudur. Delta metodu merkezi limit teoreminin genelleştirilmiş hali olarak ele alınabilir.
X n dağılımda
n
[
X
n
−
θ
]
→
D
N
(
0
,
σ
2
)
,
{\displaystyle {{\sqrt {n}}[X_{n}-\theta ]\,{\xrightarrow {D}}\,N(0,\sigma ^{2})},}
koşulunu sağlayan rassal değişkenler dizisi olsun. (Burada
θ
{\displaystyle \theta }
ve
σ
2
{\displaystyle \sigma ^{2}}
sonlu değere sahip sabitleri ve
→
D
{\displaystyle {\xrightarrow {D}}}
dağılımda yakınsamayı temsil etmektedir.)
Veri bir g fonksiyonu ve belli bir
θ
{\displaystyle \theta }
değeri için
g
′
(
θ
)
{\displaystyle g'(\theta )}
'nın var olduğunu ve sıfıra eşit olmadığını varsayalım. O halde dağılımda,
n
[
g
(
X
n
)
−
g
(
θ
)
]
→
D
N
(
0
,
σ
2
[
g
′
(
θ
)
]
2
)
{\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]\,{\xrightarrow {D}}\,N(0,\sigma ^{2}[g'(\theta )]^{2})}}
olur.
g
′
(
θ
)
{\displaystyle g'(\theta )}
süreklidir varsayımı altında kanıtı gerçekleştirmek oldukça kolaydır. Öncelikle ortalama değer kuramı kullanılarak başlanır;
g
(
X
n
)
=
g
(
θ
)
+
g
′
(
θ
~
)
(
X
n
−
θ
)
,
{\displaystyle g(X_{n})=g(\theta )+g'({\tilde {\theta }})(X_{n}-\theta ),}
Burada
θ
~
{\displaystyle {\tilde {\theta }}}
,
X
n
{\displaystyle X_{n}}
ve
θ
{\displaystyle \theta }
arasında bir değer almaktadır.
X
n
→
P
θ
{\displaystyle X_{n}\,{\xrightarrow {P}}\,\theta }
,
θ
~
→
P
θ
{\displaystyle {\tilde {\theta }}\,{\xrightarrow {P}}\,\theta }
'yı ima ettiğinden ve
g
′
(
θ
)
{\displaystyle g'(\theta )}
sürekli olduğundan Slutsky Teoremi 'nin uygulanması sonucunda
g
′
(
θ
~
)
→
P
g
′
(
θ
)
,
{\displaystyle g'({\tilde {\theta }})\,{\xrightarrow {P}}\,g'(\theta ),}
elde edilir ki burada
→
P
{\displaystyle {\xrightarrow {P}}}
olasılıkta yakınsamayı ifade etmektedir.
İfadeleri düzenler ve
n
{\displaystyle {\sqrt {n}}}
ile çarparsak
n
[
g
(
X
n
)
−
g
(
θ
)
]
=
g
′
(
θ
~
)
n
[
X
n
−
θ
]
.
{\displaystyle {\sqrt {n}}[g(X_{n})-g(\theta )]=g'({\tilde {\theta }}){\sqrt {n}}[X_{n}-\theta ].}
ifadesini elde ederiz.
Varsayım gereği,
n
[
X
n
−
θ
]
→
D
N
(
0
,
σ
2
)
{\displaystyle {{\sqrt {n}}[X_{n}-\theta ]{\xrightarrow {D}}N(0,\sigma ^{2})}}
olduğundan Slutsky Teoreminden
n
[
g
(
X
n
)
−
g
(
θ
)
]
→
D
N
(
0
,
σ
2
[
g
′
(
θ
)
]
2
)
.
{\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]{\xrightarrow {D}}N(0,\sigma ^{2}[g'(\theta )]^{2})}.}
elde edilir ve kanıt tamamlanır.
Tanım gereği, istatistikte tutarlı tahmin edici
B
{\displaystyle B}
gerçek değeri olan
β
{\displaystyle \beta }
'ya yakınsar ve genelde asimtotik normalite elde etmek için merkezi limit teoremi uygulanabilir.
n
(
B
−
β
)
→
D
N
(
0
,
Σ
)
,
{\displaystyle {\sqrt {n}}\left(B-\beta \right)\,{\xrightarrow {D}}\,N\left(0,\Sigma \right),}
burada n gözlem sayısını ve
Σ
{\displaystyle \Sigma }
(simetrik pozitif yarı belirli) kovaryans matrisini ifade etmektedir. B tahmin edicisinin h fonksiyonuna ait varyansını tahmin etmek istediğimizi varsayalım. Taylor serisinin ilk iki terimini ele alır ve gradyan için vektör notasyonu kullanırsak, h(B)' yi
h
(
B
)
≈
h
(
β
)
+
∇
h
(
β
)
T
⋅
(
B
−
β
)
{\displaystyle h(B)\approx h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )}
olarak tahmin edebiliriz ki bu h(B)' nin varyansının yaklaşık olarak,
Var
(
h
(
B
)
)
≈
Var
(
h
(
β
)
+
∇
h
(
β
)
T
⋅
(
B
−
β
)
)
=
Var
(
h
(
β
)
+
∇
h
(
β
)
T
⋅
B
−
∇
h
(
β
)
T
⋅
β
)
=
Var
(
∇
h
(
β
)
T
⋅
B
)
=
∇
h
(
β
)
T
⋅
V
a
r
(
B
)
⋅
∇
h
(
β
)
=
∇
h
(
β
)
T
⋅
(
Σ
/
n
)
⋅
∇
h
(
β
)
{\displaystyle {\begin{aligned}\operatorname {Var} \left(h(B)\right)&\approx \operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )\right)\\&=\operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot B-\nabla h(\beta )^{T}\cdot \beta \right)\\&=\operatorname {Var} \left(\nabla h(\beta )^{T}\cdot B\right)\\&=\nabla h(\beta )^{T}\cdot Var(B)\cdot \nabla h(\beta )\\&=\nabla h(\beta )^{T}\cdot (\Sigma /n)\cdot \nabla h(\beta )\end{aligned}}}
olduğunu ima eder.
(Çok değişkenli reel değerli fonksiyonlar için) Ortalama limit teoremi kullanılarak bunun birinci derece yakınlaştırmaya dayanmadığı görülebilir.
Dolayısıyla Delta metodu,
n
(
h
(
B
)
−
h
(
β
)
)
→
D
N
(
0
,
∇
h
(
β
)
T
⋅
Σ
⋅
∇
h
(
β
)
)
{\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\nabla h(\beta )^{T}\cdot \Sigma \cdot \nabla h(\beta )\right)}
veya tek değişken ifadesiyle,
n
(
h
(
B
)
−
h
(
β
)
)
→
D
N
(
0
,
σ
2
⋅
(
h
′
(
β
)
)
2
)
.
{\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\sigma ^{2}\cdot \left(h^{\prime }(\beta )\right)^{2}\right).}
olduğunu ima eder.
X
n
{\displaystyle X_{n}}
'in
p
{\displaystyle p}
ve
n
{\displaystyle n}
parametreleri ile binom dağılıma sahip olduğunu varsayalım.
n
[
X
n
n
−
p
]
→
D
N
(
0
,
p
(
1
−
p
)
)
,
{\displaystyle {{\sqrt {n}}\left[{\frac {X_{n}}{n}}-p\right]\,{\xrightarrow {D}}\,N(0,p(1-p))},}
olduğundan,
g
(
θ
)
=
log
(
θ
)
{\displaystyle g(\theta )=\log(\theta )}
ile delta metodunu uygulayabilir ve
n
[
log
(
X
n
n
)
−
log
(
p
)
]
→
D
N
(
0
,
p
(
1
−
p
)
[
1
/
p
]
2
)
{\displaystyle {{\sqrt {n}}\left[\log \left({\frac {X_{n}}{n}}\right)-\log(p)\right]\,{\xrightarrow {D}}\,N(0,p(1-p)[1/p]^{2})}}
olduğunu görebiliriz.
Dolayısıyla,
log
(
X
n
n
)
{\displaystyle \log \left({\frac {X_{n}}{n}}\right)}
'in varyansı yaklaşık olarak
1
−
p
p
n
.
{\displaystyle {\frac {1-p}{p\,n}}.\,\!}
şeklindedir. Dahası, eğer
p
^
{\displaystyle {\hat {p}}}
ve
q
^
{\displaystyle {\hat {q}}}
sırasıyla
n
{\displaystyle n}
ve
m
{\displaystyle m}
büyüklüklerinde bağımsız örneklemlerden elde edilen farklı grup oranı tahminleriyse, tahmini göreli risk
p
^
q
^
{\displaystyle {\frac {\hat {p}}{\hat {q}}}}
'nın logaritması yaklaşık olarak
1
−
p
^
p
^
n
+
1
−
q
^
q
^
m
{\displaystyle {\frac {1-{\hat {p}}}{{\hat {p}}\,n}}+{\frac {1-{\hat {q}}}{{\hat {q}}\,m}}}
ile tahmin edilebilecek varyansa sahip normal dağılıma sahiptir. Bu göreli risk için hipotez testi kurmak veya güven aralığı oluşturmak için faydalıdır.
Delta metodu genellikle X n veya B' nin asimtotik olarak normal olarak dağıldığı varsayımı hariç yukarıdaki ile benzer biçimde kullanılmaktadır. Genelde tek şart varyansın küçük olduğudur. Bu durumda sonuçlar sadece dönüştürülmüş büyüklükler için ortalama ve kovaryanslar için yaklaştırımlar verir. Örneğin, Klein (1953, p. 258)'da sunulan formüller şu şekildedir;
Var
(
h
r
)
=
∑
i
(
∂
h
r
∂
B
i
)
2
Var
(
B
i
)
+
∑
i
∑
j
≠
i
(
∂
h
r
∂
B
i
)
(
∂
h
r
∂
B
j
)
Cov
(
B
i
,
B
j
)
Cov
(
h
r
,
h
s
)
=
∑
i
(
∂
h
r
∂
B
i
)
(
∂
h
s
∂
B
i
)
Var
(
B
i
)
+
∑
i
∑
j
≠
i
(
∂
h
r
∂
B
i
)
(
∂
h
s
∂
B
j
)
Cov
(
B
i
,
B
j
)
{\displaystyle {\begin{aligned}\operatorname {Var} \left(h_{r}\right)=&\sum _{i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)^{2}\operatorname {Var} \left(B_{i}\right)+\\&\sum _{i}\sum _{j\neq i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{r}}{\partial B_{j}}}\right)\operatorname {Cov} \left(B_{i},B_{j}\right)\\\operatorname {Cov} \left(h_{r},h_{s}\right)=&\sum _{i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{s}}{\partial B_{i}}}\right)\operatorname {Var} \left(B_{i}\right)+\\&\sum _{i}\sum _{j\neq i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{s}}{\partial B_{j}}}\right)\operatorname {Cov} \left(B_{i},B_{j}\right)\end{aligned}}}
burada hr , h (B )'nin rinci elemanı ve Bi , 'nin i inci elemanıdır. Tek fark Klein'ın bunları aslında yaklaştırımlar olmasına rağmen özdeşlikler olarak ifade etmesidir.
Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
Davison, A. C. (2003), Statistical Models, pp. 33–35.
Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
Klein, L. R. (1953), A Textbook of Econometrics, p. 258.
Oehlert, G. W. (1992), A Note on the Delta Metot, The American Statistician , Vol. 46, No. 1, p. 27-29.
Ders Notları (İngilizce) 13 Haziran 2009 tarihinde Wayback Machine sitesinde arşivlendi .
Ders Notları (İngilizce) 10 Haziran 2007 tarihinde Wayback Machine sitesinde arşivlendi .
Stata Programı Websitesinden Tanım (İngilizce) 2 Ocak 2010 tarihinde Wayback Machine sitesinde arşivlendi .