Olasılık kuramı ve istatistik bilim dallarında varyans bir rassal değişken, bir olasılık dağılımı veya örneklem için istatistiksel yayılımın, mümkün bütün değerlerin beklenen değer veya ortalamadan uzaklıklarının karelerinin ortalaması şeklinde bulunan bir ölçüdür. Ortalama bir dağılımın merkezsel konum noktasını bulmaya çalışırken, varyans değerlerin ne ölçekte veya ne derecede yaygın olduklarını tanımlamayı hedef alır. Varyans için ölçülme birimi orijinal değişkenin biriminin karesidir. Varyansın kare kökü standart sapma olarak adlandırılır; bunun ölçme birimi orijinal değişkenle aynı birimde olur ve bu nedenle daha kolayca yorumlanabilir.
Bir reel sayı halinde olan rassal değişkenin varyansı o rassal değişkenin ikinci merkezsel momenti ve aynı zamanda ikinci kümülantı olur. Eğer varyans değeri var ise, ortalama değeri de vardır. Ama bunun aksi doğru değildir.
Eğer beklenen değer varsa, bir olasılık dağılımı için varyans dağılımın kendi ortalamasından sapmasının karesinin beklenen değeridir. Varyans kavramı dağılıma ait her bir değerin dağılımın ortalamasından ne kadar uzak olduğuyla ilgilidir. Varyans söz konusu sapmaların ortalama değerini ölçmektedir.
X değişkeninin beklenen değeri μ = E(X) olmak üzere, varyans şöyle tanımlanır:
$$\operatorname{var}(X)=\operatorname{E}((X-\mu)^2).$$ Matematik notasyon kullanılarak bir rassal değişken X için varyans ya Var(X) ya $\scriptstyle\sigma_X^2$ ya da daha basitçe σ<sup>2</sup> olarak gösterilir..
Bu tanımlama, eğer beklenen değer varsa, hem ayrık rassal değişkenler hem sürekli rassal değişkenler hem de karışık değişkenler için genel olarak doğrudur. Bu tanımdan ve beklenen değerlerin doğrusal olma niteliğinden varyans için şu formül çıkartılabilir:
$${}\operatorname{Var}(X)= \operatorname{E}(X^2 - 2,X,\operatorname{E}(X) + (\operatorname{E}(X))^2),$$
$${}=\operatorname{E}(X^2) - 2(\operatorname{E}(X))^2 + (\operatorname{E}(X))^2,$$
$${}=\operatorname{E}(X^2) - (\operatorname{E}(X))^2.$$
Buna hesaplama formülü adı da verilir. Bu formüle göre
Varyans, karelerin ortalaması eksi ortalamanın karesine eşittir.
Bir X ayrık rassal değişkeni için, x değerleri olasılığa eşit olan olasılık kütle fonksiyonu bulunur; yani x<sub>1</sub>↦p<sub>1</sub>, ..., x<sub>n</sub>↦p<sub>n</sub>, olur. Bu halde aralıklı olasılık dağılımları için varyans şöyle de ifade edilebilir:
$$\operatorname{Var}(X)=\sigma^2 = \sum_{i=1}^n p_i {\left[x_i - \operatorname{E}(X)\right]}^2 = \sum_{i=1}^n p_i (x_i - \mu)^2 = \sum_{i=1}^n x_i^2 p_i - {[\operatorname{E}(X)]}^2$$
Buna göre varyans Xin kendi ortalamasından sapma karesinin beklenen değeri olur. Daha basit bir ifade ile
Aralıklı rassal değişken için, varyans her bir veri noktasının veri ortalamasından uzaklıklarının karelerinin ortalamasıdır; yani ortalama sapma kareleridir.
Bir X sürekli rassal değişkeni için beklenen değer E(X) operatörü yerine olasılık yoğunluk fonksiyonu yani $f(x)$i kapsayan ve entegrasyon gereken formül konulursa, varyans şu şekilde ifade edilebilir:
$$\operatorname{Var}(X) = \sigma^2 = \int_{-\infty}^\infty {\left[x-\operatorname{E}(X)\right]}^2 f(x)\mathrm{d}x = \int_{-\infty}^\infty x^2 f(x)\mathrm{d}x - {[\operatorname{E}(X)]}^2$$,
Ancak bazı olasılık dağılımları (örnegin Cauchy dağılımı) için beklenen değer anlamsızdır ve bu halde varyans da anlamlı değildir. Diğer bazı olasılık dağılımlarında ise beklenen değer bulunmakla beraber sonlu sayılı bir varyans bulunamaz, çünkü sürekli değişkenler için varyans değeri bulmak için gereken entegral yakınsama göstermez (örneğin Pareto dağılımı).
Varyans; verilerin aritmetik ortalamadan sapmalarının karelerinin aritmetik ortalaması olduğuna göre,
2,2,3,5,3 serisinin varyansı şu şekilde bulunur;
1) Verilerin aritmetik ortalaması (A.O) hesaplanır.
$$\operatorname A.O = \frac{(2+2+3+5+3)}{5}=3$$ 2) 1. maddedeki ortalamadan, verilerin sapmalarının karelerinin aritmetik ortalaması alınarak varyans bulunur.
$$\operatorname \frac{[(2-3)^2+(2-3)^2+(3-3)^2+(5-3)^2+(3-3)^2]}{5}=\frac{6}{5}$$
Bu örnekte bir X rastlantı değişkeninin i=1,2,3 için aldığı değerler ve X in bu değerleri alması olasılığı bir tablo olarak verilmiştir.
i | 1 | 2 | 3 |
x<sub>i</sub> | -1 | 1 | 2 |
f(x<sub>i</sub>) | 0,5 | 0,3 | 0,2 |
Beklenen değer şöyle hesaplanır:
$$\operatorname{E}(X) = -1 \cdot 0{,}5 + 1 \cdot 0{,}3 + 2 \cdot 0{,}2 = 0{,}2$$
Genel formülle, varyans şöyle bulunur:
$$\operatorname{Var}(X) = (-1-0{,}2)^2 \cdot 0{,}5 +(1-0{,}2)^2 \cdot 0{,}3 +(2-0{,}2)^2 \cdot 0{,}2 = 1{,}56$$
Hesaplama formülu ile ise varyans şöyle hesaplanır ve aynı sonuç verir:
$$\operatorname{Var}(X) = (-1)^2 \cdot 0{,}5 +1^2 \cdot 0{,}3 +2^2 \cdot 0{,}2 - 0{,}2^2 = 1{,}56.$$
Sürekli rassal değişken X için olasılık yoğunluk fonksiyonu şöyle verilmiştir:
$$f(x) = \begin{cases} \frac {1}{x} & \mbox{ eger } 1 \le x \le e \ 0 & \mbox{ digerleri } \end{cases}$$
Beklenen değer E(X) şöyle hesaplanır:
$$\operatorname{E}(X) = \int_1^e x \cdot \frac {1}{x} dx = e - 1$$
Varyans değeri Var(X) şöyle bulunur:
{|
|
$\operatorname{Var}(X)$
|
$= \int_{-\infty}^\infty x^2 \cdot f(x) dx - (\operatorname{E}(X))^2 = \int_1^e x^2 \cdot \frac {1}{x} dx - (e - 1)^2$
|-
|
|
$\qquad = \left[ \frac{x^2}{2}\right] _1^e - (e - 1)^2 = \frac{e^2}{2} - \frac{1}{2} -(e-1)^2 \approx 0{,}242$
|}
Teorik olasılık kuramı incelemeleri için varyans: $\operatorname{var}(X)=\operatorname{E}(X^2)-\operatorname{E}(X)^2$ formülü kullanılarak tanımlanır.
Sonlu bir anakütlenin varyansı aşağıdaki şekilde gösterilir:
$\sigma^2 = \sum_{i=1}^N \left(x_i - \overline{x} \right)^ 2 , \Pr(x_i),$. Bu özel bir varyans tanımı olarak sonlu anakütlelere özgü bir tanımdır.
Örneklem varyansı ise şu şekilde tanımlanmaktadır:
$\sigma^2 = \frac{1}{N} \sum_{i=1}^N \left(y_i - \overline{y} \right)^ 2,$
Örneklem varyansı, anakütle varyansının yansız bir kestirmicisidir. İspatı ise aşağıdaki şekilde gösterilir:
$$\operatorname{E} { s^2 }
= \operatorname{E} \left{ \frac{1}{n-1} \sum_{i=1}^n \left( x_i - \overline{x} \right) ^ 2 \right}$$
$$= \frac{1}{n-1} \sum_{i=1}^n \operatorname{E} \left{ \left( x_i - \overline{x} \right) ^ 2 \right}$$
$$= \frac{1}{n-1} \sum_{i=1}^n \operatorname{E} \left{ \left( (x_i - \mu) - (\overline{x} - \mu) \right) ^ 2 \right}$$
$$= \frac{1}{n-1} \sum_{i=1}^n \operatorname{E} \left{ (x_i - \mu)^2 \right}
$$= \frac{1}{n-1} \sum_{i=1}^n \sigma^2
$$= \frac{1}{n-1} \sum_{i=1}^n \sigma^2
$$= \frac{1}{n-1} \sum_{i=1}^n \frac{(n-1)\sigma^2}{n}$$
$$= \frac{(n-1)\sigma^2}{n-1} = \sigma^2$$
Bu özellikten faydalanılarak örneklem varyansının hesaplanması ile anakütle varyansına ilişkin kestirimlerde bulunulabilir. Bu durumda örneklemin rastsal bir örneklem olması önemlidir. Aksi takdirde örnekleme dayalı kestirimler sağlıklı sonuçlar vermeyecektir.
Varyansın şu özellikleri bulunmaktadır:
Varyansin diğer istatistiksel yayılım ölçülerine kıyasla tercihli olarak kullanılmasına nedenlerden birisi, birbirleri arasında korelasyon olmayan rassal değişkenlerin toplamının (veya farkının) varyansının, her bir rassal değişkenin tek başına olan varyanslarının toplamına (veya farkına) eşit olmasıdır; yani
$$\operatorname{Var}\Big(\sum_{i=1}^n X_i\Big) = \sum_{i=1}^n \operatorname{Var}(X_i).$$ Bu öneri çok kere korelasyon yerine daha güçlü bir ilişki olan değişkenlerin bağımsızlığı şartı kullanılarak verilir, ama korelasyon ilişkisi de yeterlidir.
Bu nedenle eğer değişkenlerin varyansları tüm ayni ise (yani hepsi σ<sup>2</sup> ise), hemen bu formüle göre bunların ortalamasının varyansının şu ifade
$$\operatorname{Var}\Big(\sum_{i=1}^n X_i\Big) = \sum_{i=1}^n \operatorname{Var}(X_i).$$ olduğu görülür; çünkü n ile bölme bir doğrusal dönüşümdür.
Bu gerçek, merkezsel limit teoremi içinde özellikle kullanılan, örneklem ortalamasının standart hatasını belirler.
Genel olarak, değişkenler birbirleriyle aralarında korelasyon gösteriyorlarsa, toplamlarının varyansı kovaryanslarının toplamı olur:
$$\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \sum_{j=1}^n \operatorname{Kov}(X_i, X_j).$$
Burada Kov kovaryanstır ve eğer herhangi bir rassal değişken bağımsız ise, bu değişkenle diğer değişkenler arasında bulunan her kovaryans değeri 0 olur. Verilen formül toplamın varyansının toplamı yapan parçaların kovaryans matrisinin bütün elemanlarına eşit olduğunu göstermektedir. Bu formül klasik sınama kuramında Cronbach'in alfa ölçüsü kavramını geliştirmek için de kullanılır.
Eğer değişkenlerin hep birbirine eğit varyansları, yani σ<sup>2</sup>, varsa ve ayrı ayrı değişkenler arasındaki korelasyonların ortalama değeri ρ ise, bu halde varyansların ortalaması şöyle ifade edilir:
$$\operatorname{Var}(\overline{X}) = \frac {\sigma^2} {n} + \frac {n-1} {n} \rho \sigma^2.$$
Bu formüle göre ortalamanın varyansı korelasyonlar ortalaması ile birlikte artış gösterir.
Bunun yanında, eğer değişkenler için varyans 1 değerde ise (örneğin değişken değerleri standardize edilmişlerse) o halde bu formül daha da basitleştirilip şu sekli alır:
$$\operatorname{Var}(\overline{X}) = \frac {1} {n} + \frac {n-1} {n} \rho.$$
Bu formul klasik sinama teorisinde Spearman-Brown öngörü formülü için kullanılır. Eğer korelasyonlar sabit kalırlarsa veya aynı şekilde yakınsama gösterirlerse, bu ifade, n limitte sonsuz değere yakınsama gösterdikçe, ρ değerine yakınsama gösterir. Bunun bir sonucuna göre, eşit korelasyonları olan veya yakınsama gösteren ortalama korelasyonu olan standardize edilmiş değişkenler için ortalamanın varyansı şöyle ifade edilebilir:
$$\lim_{n \to \infty} \operatorname{Var}(\overline{X}) = \rho.$$ Buna göre büyük sayıda standardize edilmiş değişkenlerin ortalamasının varyansı, yaklaşık olarak bunların ortalama korelasyonuna eşittir.
Bu formul diğer bir sonuç da ortaya çıkartır. Büyük sayılar yasası örneklem ortalamasının anakütle ortalamasına yakınsama göstereceğini önermesine rağmen, bu formülden açıktır ki, birbirine korelasyonu olan değişkenler bulunuyorsa örneklem ortalaması anakütle ortalamasına yakınsama göstermez.
Varyans için hesaplama formülü hemen doğrudan doğruya beklenen değerlerin doğrusallarından ve yukarıda verilen tanımlamadan ortaya çıkar\
$${}\operatorname{Var}(X)= \operatorname{E}(X^2 - 2,X,\operatorname{E}(X) + (\operatorname{E}(X))^2),$$
$${}=\operatorname{E}(X^2) - 2(\operatorname{E}(X))^2 + (\operatorname{E}(X))^2,$$
$${}=\operatorname{E}(X^2) - (\operatorname{E}(X))^2.$$
Bu çok zaman pratikte varyans hesaplaması için kullanılır. Fakat eğer denklemin iki kısmının değerleri birbirine eşit veya çok yakınsa numerik yaklaşımlama hatasından etkilenip yanlış değerler verebilir.
Bir rassal değişkenin ikinci momentinin minimum değeri bu moment, rassal değişkenin ortalaması etrafında alınınca ortaya çıkar; yani
$$\mathrm{argmin}_m,\mathrm{E}((X - m)^2) = \mathrm{E}(X),$$, Bunun aksi olarak, eğer sürekli bir fonksiyon olan $\varphi$ tüm X rassal değişkenleri için
$$\mathrm{argmin}_m,\mathrm{E}(\varphi(X - m)) = \mathrm{E}(X),$$ koşulunu sağlıyorsa, o halde mutlaka $\varphi(x) = a x^2 + b$ () şeklinde bir fonksiyon olması gerekmektedir. Bu koşul çoklu boyutlu hallerde de geçerlidir.1
Orijinal kaynak: varyans. Creative Commons Atıf-BenzerPaylaşım Lisansı ile paylaşılmıştır.
Kaynak: A. Kagan and L. A. Shepp, "Why the variance?", Statistics and Probability Letters, C. 38, No 4, 1998, say. 329–333. ↩
Ne Demek sitesindeki bilgiler kullanıcılar vasıtasıyla veya otomatik oluşturulmuştur. Buradaki bilgilerin doğru olduğu garanti edilmez. Düzeltilmesi gereken bilgi olduğunu düşünüyorsanız bizimle iletişime geçiniz. Her türlü görüş, destek ve önerileriniz için iletisim@nedemek.page