kaynağı değiştir]
İlk ortaya atılan normallik sınaması Pearson tarafından tek örneklem için ki-kare uygunluk iyiliği testinin normal dağılıma uygulanmasıdır. Bunu takiben gittikçe veri gereksinimi daha az olan diğer normallik sınamaları geliştirilmiştir. Diğer taraftan istatistiğin bir özel uygulama dalı olan ekonometri ile uğraşanlar da özellikle regresyon tahmin hatalarının normal olup olmadığını incelemek için bu gelişmeye epey katkıda bulunmuşlardır. Şu liste değişik normallik sınaması isimlerini vermektedir:
Bu sınamalarda sıfır hipotez veri dizisinin normal dağılıma benzer olmasıdır. Bu nedenle normal olmayan veri için yeter derecede küçük bir p-değeri (yani genellikle %5den veya %1den küçük) ortaya çıkacak ve sıfır hipotez olan veri dizisinin normal dağılıma benzerliği hipotezinin reddedilmesine neden olacaktır.
Veri analisti/bilimcisi, çoğu zaman olasılık dağılımı bilinmeyen bir popülasyondan elde edilen örneklemlerle çalışır. Bir örneklemin olasılık dağılımı, o örnekleme uygulanabilecek istatistiksel yöntemler konusunda sınırlamalar getirir. Birçok istatistiksel test ve makine öğrenmesi modeli verinin dağılımına yönelik yapılan bazı varsayımlarla çalışır.
Normallik testleri, bir veri kümesinin normal dağılımla iyi modellenip modellenmediğini belirlemek ve veri kümesinin altında yatan rastgele bir değişkenin normal dağılma olasılığını hesaplamak için kullanılır.
Bu yazıda istatistik ve veri biliminin en önemli konularından biri olan normal dağılımı ve özelliklerini inceleyip, grafik ve istatistiksel testler yardımı ile bir dağılımın normal dağılıma uygun olup olmadığının nasıl anlaşılabileceğini göreceğiz.
Normal dağılım, bir dizi gözlemin, bu gözlemlerin merkezi etrafında nasıl dağıldığını tanımlayan bir fonksiyondur. Normal dağılım gözlemlerin ortalama etrafında toplandığı, tek tepeli, simetrik ve dağa/zile benzer şekle sahip bir dağılımdır.
Gauss dağılımı olarak da bilinen normal dağılım, ilk olarak yılında Carl Friedrich Gauss tarafından tanımlanmıştır. Diğer bir matematikçi Pierre Simon Laplace ise Gaussun buluşunu daha da ileriye taşıyıp, Merkezi Limit Teoremini bulmuştur.
Gerçek hayattaki birçok olay normal dağılıma uygunluk gösterir. Normal dağılım örnekleri:
Normal dağılım, istatistik ve veri bilimi için önemli bir yere sahiptir. Normallik varsayımı, birçok istatistiksel sürecin temelini oluşturur. Günlük hayattaki birçok tesadüfi olay normal dağılıma uyar.
Normal dağılımın veri bilimine ve istatistik hesaplamalarına katkılarını şu şekilde özetleyebiliriz:
Bir verinin normal dağılıma sahip olması, veri setinin simetrik olduğu ve gözlemlerin ortalama etrafında toplandığı anlamına gelir. Ortalama değeri gerçekleşmesi en yüksek olasılığa sahip gözlem iken, ortalamadan uçlara doğru gidildikçe gözlemlerin gerçekleşme olasılığı azalır.
Gerçek bir örnek üzerinden ilerleyelim. Normal dağılıma örnek verirken IQ skorlarının dağılımının da normal dağılıma sahip olduğundan bahsetmiştik. Örnek bir IQ skoru dağılımı şöyle görünebilir:
IQ skoru dağılımı
Bu dağılıma göre IQ skorlarının ortalaması , standart sapması ise 15tir. IQ skorunun olma olasılığı maksimumdur. Çok düşük ve çok yüksek IQ skorlarına doğru ilerlediğimizde olasılıkların azaldığını görürüz. Stanford-Binet IQ testi kullanılarak yapılan çalışmaya göre toplumun sadece % inin ve üzeri IQ skoruna sahip olduğu tahmin ediliyor. Dünya nüfusunu gözünüzde canlandırdığınızda olasılığın ne kadar az olduğunu anımsayabilirsiniz.
Sürekli bir olasılık dağılımı olan normal dağılım iki parametre ile tanımlanabilir: ortalama (μ) ve standart sapma (σ)
Ortalama dağılımın merkezini (yatay eksen) belirlerken, standart sapma ise dağılımın genişliğini (dikey eksen) belirler.
Örnek grafikte, aynı standart sapma ve farklı ortalamalara sahip 3 farklı normal dağılıma sahip veri seti mevcut. Görselden de belli olacağı üzere, her grafiğin standart sapması sabit olduğu için genişliği aynı olurken, ortalamaları farklı olduğu için grafiklerin yerleri birbirinden farklıdır.
Diğer bir örnek görselde ise bu sefer standart sapmaları farklı, ortalamaları aynı olan normal dağılıma sahip veri setleri mevcut. Standart sapma büyüdükçe, değişkenlik arttığı için grafiğin eni büyürken, sapma küçüldükçe değerler ortalama etrafında toplandığı için grafiğin genişliği küçülür. Ortalamalar sabit olduğu için tüm grafiklerin merkezi aynıdır.
Bir rassal değişkenin belirli bir değer aralığında değere sahip olma olasılığını hesaplamak için olasılık yoğunluk fonksiyonu (probability density function pdf) kullanılır. Normal dağılımın olasılık yoğunluk fonksiyon formülü şöyledir:
X ~ N(𝜇, σ2) 𝜇: Ortalama σ2: Varyans π: Pi sayısı (π = ) e: Euler sayısı (e = )Normal dağılımın karakteristik özellikleri şunlardır:
Normal dağılım grafiği
Z dağılımı olarak da isimlendirilen standart normal dağılım, ortalamanın 0, standart sapmanın da 1e eşit olduğu özel bir normal dağılımdır. Standart normal dağılım, z-puanı adı verilen standartlaştırılmış değerlerin normal dağılımıdır. Z-puanı standart sapma birimleriyle ölçülür.
Herhangi bir normal dağılım, verilerin standartlaştırılması ile z-dağılımına dönüştürülebilir. Verinin standartlaştırılması, hem farklı standart sapma ve ortalamaya sahip verilerin karşılaştırılmasını kolaylaştırır hem de kolaylıkla olasılıkhesabı yapılmasına imkan sağlar. Farklı ölçek/büyüklüğe sahip veriler söz konusu olduğunda standardizasyon işlemi makine öğrenmesi modelleri için de kritiktir.
Z-puanı, veri setindeki bir gözlemin ortalamadan kaç standart sapma uzaklıkta olduğunu gösterir.
Herhangi bir gözlem için z puanı aşağıdaki formüle göre hesaplanır:
z = (x - 𝜇) / σ z: Z-skoru x: Gözlemin değeri 𝜇: Değişkenin ortalaması σ: Değişkenin standart sapmasıNormal dağılıma uygun bir veri setini standart normal veri setine dönüştürmek için yukarıdaki formüle göre veri setinde bulunan tüm değerlere karşılık gelen Z-puanı hesaplanmalıdır.
Standart normal dağılımında eğrinin altında kalan alanın toplamı 1e eşittir. İki nokta arasında, eğrinin altında kalan alan rassal değişkenin o değerler arasında olma olasılığını verir.
Standart normal dağılım ve olasılık eğrisi
Üstteki görselde standart normal dağılım eğrisini görüyoruz. Elimizde bir gözlem var ve bunu z puanına çevirdiğimizde -1 olduğunu varsayalım. Z puanının -1 den küçük olma olasılığını hesaplamak için mavi ile işaretlenmiş soldaki kuyruğun alanına ihtiyacımız var. Peki, bunu nasıl yapacağız?
Z-skoruna karşılık gelen olasılık değerini bulmak için Z tablosuna ihtiyaç vardır. Z-tablosunda, -4 ile 4 arasında birim arayla her bir z-puanı için karşılık gelen olasılık değeri hesaplanmıştır. Olasılık hesabı yapabilmek için elinizdeki Z-tablosundan Z puanına karşılık gelen olasılık değerini bulmalısınız.
Bazı tablolarda z-puanlarını negatif görürken, diğerinde pozitif olarak görürsünüz. Z-tablosunun iki farklı versiyonu vardır.
Pozitif Z-tablosu
Örnek pozitif z-tablosu
Negatif Z-tablosu:
Örnek negatif z-tablosu
Her iki Z-tablosunun tüm değerleri olan haline bu linkten ulaşabilirsiniz.
Tablolara bakıp, olasılık değeri hesaplamak kulağa biraz garip gelebilir. Neyse ki, Pythonda bu işi de birkaç satır kod yardımı ile halledebiliyoruz. Tablo ve manuel olasılık hesabını bakış açısı kazanmak adına hatırlatmak istedim.
Peki, Pythonda normal dağılım ile olasılık hesabı nasıl yapılır?
Pythonda sadece normal dağılım değil diğer tüm olasılık dağılımları ile ilgili işlemleri SciPy kütüphanesinin stats modülü ile yapabilirsiniz.
SciPy kütüphanesi, kurulu gelen hazır kütüphanelerden biri olmadığı için kullanmadan önce dosya içerisine çağrılması gerekmektedir.
Şöyle bir örnek üzerinden gidelim. Farz edelim ki, bir matematik sınavındaki sınıf 65 not ortalaması ve 15 standart sapması ile normal dağılıma uygundur. stats modülünü kullanarak önce yukarıdaki parametrelere uygun normal dağılımı oluşturacağız.
Bu sınıftaki bir öğrencinin en fazla 75 almış olma olasılığı nedir?
Belli bir değer ve daha altındaki değerlerden birini alma olasılığını alma şartı için kümülatif dağılım fonksiyonu kullanışlıdır. Kümülatif dağılım fonksiyonunu stats modülündeki cdf() fonksiyonu ile hesaplayabiliriz.
Bir öğrencinin 75 ve daha düşük bir not alma olasılığı %84 olarak hesaplandı.
Bu sınıftaki bir öğrencinin en az 75 almış olma olasılığı nedir?
En az belli bir değer alma olasılığını hesaplarken sf() survival function fonksiyonundan yararlanırız.
Cevabı aslında bir önceki sorudan da bulabilirdik. Normal dağılım eğrisinin altında kalanın toplamı 1dir. Eğer 75ten az olma olasılığı %84 ise 75 ve üzeri not olma ise 1 % işleminden kalan % olmalıdır.
Bu sınıftaki bir öğrencinin 65 ile 75 arasında bir not almış olma olasılığı nedir?
Bu sefer iki nokta arasındaki bir alanın değerini arıyoruz. Bu sorunun yanıtını bulabilmek için önce öğrendiğimiz fonksiyonlardan kümülatif dağılım fonksiyonunu kullanacağız.
Bildiğimiz üzere kümülatif dağılım fonksiyonu en fazla bir değer alma olasılığını hesaplıyordu. Bir öğrencinin en fazla 75 alma olasılığını hesaplayıp, daha sonrasında da en fazla 65 alma olasılığını hesaplayıp, bu iki değeri birbirinden çıkardığımda aradığım alanı bulabilirim.
Bu sınavdaki bir öğrencinin 65 ile 75 arasında bir not almış olasılığı %34 olarak hesaplandı.
Sınıfın öğretmeni olarak çan eğrisi yapmaya karar verdiniz ve ilk %10a giren öğrencilere A+ notunu vermek istiyorsunuz. Hangi not ve üzeri öğrenciler A+ puanı alabilir?
Kantil fonksiyonu olarak da isimlendirilen ppf() fonksiyonu yardımıyla önceki adımlarda hesapladığımız olasılık değerlerine karşılık gelen gözlem değerini hesaplayabiliriz. Tam olarak birebir karşılığı olmasa da cdf() fonksiyonunun tersi sayılabilir.
İlk %10luk kesime girmeyi sağlayacak notu arıyoruz. Yani, diğer bir deyişle bir öğrencinin en fazla % olmasını sağlayacak notu arıyoruz. Bu not ve üzeri olan notlar öğrenciyi ilk %10luk kesime sokacaktır.
Hesaplamaya göre 78 ve üzeri not alan öğrenciler A+ skoru almalıdır.
Her değişkenin değerleri bir dağılım oluşturur. Dağılımın şeklini çarpıklık (skewness) ve basıklık (kurtosis) değerleri ile karakterize edilebilir.
Çarpıklık, simetrik şekilden ne kadar uzaklaşıldığının ölçüsüdür diyebiliriz. Bir değişkenin dağılımı simetrik, sağa çarpık (pozitif) veya sola çarpık(negatif) olabilir.
Sağa veya sola çarpık dağılıma sahip değişkenlerin dağılım grafiklerinde uzun bir kuyruk vardır.
Dağılımın çarpıklığı, çarpıklık kat sayısı (skewness) ile ölçülür. Çarpıklık katsayısı, bir dağılımın çarpıklığının yönünü ve gücünü gösterir. Negatif bir çarpıklık değeri dağılımın sola çarpık, pozitif bir çarpıklık değeri ise dağılımın sağa çarpık olduğunu gösterir.
Basıklık, dağılımın sivriliğinin ölçüsüdür. Yüksek basıklığa sahip bir dağılım, ortalama değere yakın ve sivri bir tepeye ve tepeden sert inişleri olan kuyruklara sahip bir şekle benzerken, Düşük basıklığa sahip bir dağılımın görüntüsü daha düzdür.
Basıklık türlerinin grafiksel gösterimi
Kusursuz normal dağılıma sahip bir veri setinin basıklık değeri 3e eşittir. SPSS gibi bazı istatistiksel yazılımlar, basıklık katsayısını hesaplarken, ünlü istatistikçi Ronald Fisherin tanıma göre hesaplanan katsayıdan 3 çıkardığı için, bu yazılımlarda kusursuz normal dağılıma sahip bir veri setinin basıklık değeri 0a eşittir.
Çarpıklık ve basıklık katsayıları, olasılık dağılımının şekli hakkında fikir vermesi açısından önemlidir. Fakat, tek başınanormallik testinin yerine kullanılamaz. Aşağıdaki görselde de net bir şekilde görüleceği üzere, çarpıklık ve basıklık kat sayısı normal dağılım değerlerine uyan fakat normal dağılıma sahip olmayan veri setleri olabilir.
Basıklık ve çarpıklık katsayısı sıfır olan fakat normal dağılıma uygun olmayan dağılım örneği
Pythonda çarpıklık ve basıklık değerleri SciPy kütüphanesinin stats modülünde bulunan skew() ve kurtosis() fonksiyonları ile hesaplanabilir.
Öncelikle rastgele sayılar ile bir dağılım üretip, daha sonrasında da çarpıklık ve basıklık değerlerini hesaplayacağız.
Rastgele sayılar üretmek için Pythonda bulunan random kütüphanesini çağıracağız.
random kütüphanesi kullanıma hazır. Şimdi de random kütüphanesinde bulunan randint() fonksiyonu ile 0, arasında yer alan 1, farklı sayı üreteceğiz.
Pythondaki list comprehension yapısı ile for döngüsünü kullanarak dağılımı ürettik. Sıra çarpıklık ve basıklık değerlerini hesaplamaya geldi.
Dağılımın çarpıklık katsayısı ve basılık kat sayısı ise olarak hesaplandı. Çarpıklık sıfıra çok yakın. Dağılımı simetrik olarak kabul edebiliriz.
Basıklık tanımını yaparken bazı yazılımların Fisher tanımına göre hesaplanan değerden -3 yaptığını söylemiştik. kurtosis() fonksiyonu varsayılan olarak Fisher tanımını kullanmaz. Yani, normal dağılıma uygun bir veri seti için basıklık değeri 3 olmalıdır. Fisher tanımına göre basıklık değeri hesaplamak isterseniz, kurtosis() fonksiyonuna parametre olarak fisher = True ifadesini girmeniz gerekmektedir.
Veri seti için hesaplanan basıklık değeri negatif ve küçüktür. Bu da dağılımın plati-basık (platykurtic) olduğuna dair yorumlanabilir.
Bu iki değer de tek başına verinin dağılımı ile ilgili net bir tespit yapmakta yeterli değildir. Veri setini bir histogram yardımı ile görselleştirdiğimiz zaman dağılımın normale benzemediğini net bir şekilde görebiliriz.
rand_num değişkeninin histogram grafiği
Bir verinin normal dağılıma uygunluğu grafikyöntemler ve/veya normallik testi olarak da adlandırılan istatistiksel testler yardımı ile tespit edilebilir.
Grafiksel yöntemler dağılımın normal olup olmadığına yönelik hızlı bir fikir edinmeye yardımcı olurken, normallik testleri ile bulguları istatistiksel olarak da kanıtlama imkanı sağlanır.
Veri bilimcisi/analisti olarak grafikleri verinin dağılımına dair bir ön fikir edinmek için kullanıp, kesin sonuçlar istediğiniz veya emin olamadığınız durumlarda normallik testlerine başvurabilirsiniz.
Yazının bundan sonraki sürecinde teknikleri uygulamalı göstermek adına popüler online satranç oyun platformu Lichesste oynanan ve platformun API servisi Lichess API kullanılarak elde edilmiş 20, adet maça ait istatistikleri kullanacağız.
Örnek veri seti: Lichess Satranç Maçı İstatistikleri
Herhangi bir işlem yapmadan önce, yazı boyunca kullanılacak kütüphaneleri çağıracağız. Veri manipülasyonu için Pandas ve NumPy ve görselleştirme için Matplotlib ve Seaborn kütüphanelerini kullanacağız. Daha öncesinde istatistiksel hesaplamalar yapmak için SciPy kütüphanesinden stats modülünü çağırmıştık. Onu tekrardan çağırmamıza gerek yoktur.
Kütüphaneler kullanım için hazır. Şimdi Pandasın read_csv() fonksiyonu ile veri setini çağıralım.
Veri setini read_csv() fonksiyonu ile çağırdıktan yada dosyayı okuduktan sonra da diyebiliriz, Pandasın hazır fonksiyonlarından info()yu kullanarak veri setini tanımak için hızlı bir göz atacağız.
<class 'funduszeue.info4+ MBÖrnek veri seti hazır olduğuna göre normallik testi için yöntemleri incelemeye hazırız.
Biraz önce yukarıda da ifade ettiğimiz gibi grafiksel yöntemler hızlı bir fikir elde etmek için kullanışlıdır fakat, istatistiksel testler kadar kesin sonuçlar vermez. Bir verinin dağılımını tespit etmek için 4 farklı grafik tipi kullanılabilir.
Histogram, veri görselleştirmede en yaygın kullanılan popüler bir grafik türüdür. Bir verinin dağılımını görselleştirmek için sıkça tercih edilir.
Veri setindeki gözlemleri kutu (bins) adı verilen eşit parçalara bölüp, eşit genişliklere sahip sütunlar olarak görselleştirir. Her bir kutunun yüksekliği, kutu içerisindeki gözlem sayısına yani kutuyu oluşturan aralıkta bulunan rakamların frekansına bağlıdır.
Bir değişken normal dağılıma sahip ise histogram zil (bell curve) şeklinde bir görünüme sahip olmalıdır.
Örnek kusursuz normal olasılık dağılımı
Avantajları
Dezavantajları
Pythonda histogram
Pythonda histogram grafiği Pandas, Matplotlib veya Seaborn kütüphanelerinden herhangi biri kullanılarak çizilebilir.
Grafiklerin farkları ve benzerliklerinin daha net fark anlaşılabilmesi için her üç grafiği de yan yana koydum.
Bir verinin dağılımını görselleştirebileceğimiz bir diğer grafik türü ise kernel yoğunluk grafiğidir (kernel density plot kdeplot).
KDEPlot, histogramın kutularına benzer bir şekilde bandwidth adı verilen genişlik değerinden etkilenir. Bandwidth değeri KDEPlotun görünümünü etkiler.
Örnek Kernel Yoğunluk Grafiği
Avantajları
Dezavantajları
Pythonda Kernel yoğunluk grafiği (kdeplot)
Pythonda histogram grafiği Seaborn kütüphanesinden kdeplot() fonksiyonu kullanılarak çizilebilir.
Histograma kıyasla KDEPlot grafiğinde dağılımın şeklini daha net bir şekilde görebiliyoruz.
Adını şeklinden alan kutu grafiği veri setindeki çeyrekleri kullanarak verinin dağılımını görselleştirir. Görselleştirme için çeyreklik değerlerini kullandığı için veri setindeki aykırı değerlerden etkilenmez.
Kutu grafiğinin yatay görünümünde sol veya dikey görünümde alt kenarı 1.çeyreklik değerini ifade ederken, sağ veya üst kenar ise 3.çeyreklik değerini ifade eder. Kutunun içerisinde yer alan dikey çizgi ise ortanca (medyan) değerini temsil eder.
Normal dağılıma sahip bir verinin kutu grafiğinde ortancayı temsil eden dikey çizgi kutunun ortasında yer almalıdır.
Örnek kutu grafiği
Avantajları
Dezavantajları
Pythonda kutu grafiği (Boxplot)
Pythonda kutu grafiği Matplotlib ve Seaborn kütüphanelerinden boxplot() fonksiyonu yardımı ile çizdirilebilir.
Kutu grafiğine baktığımızda Seaborn ile çizilen kutu grafiğinin Matplotlib ile karşılaştırıldığında çerçeveyi orantılı olarak doldurduğunu ve daha geniş göründüğünü söyleyebiliriz. Seaborn ile çizilen grafiğin enini width parametresini kullanarak ayarlayabilirsiniz.
Grafikleri, verinin dağılımı açısından incelediğimizde ortancayı temsil eden çizginin kutuyu neredeyse ortalamasıan rağmen tam olarak kutunun ortasında olmadığını söyleyebiliriz.
Her iki kutu grafiğini de yan yana ekledim. Hem Matplotlib hem de Seaborn kütüphaneleri varsayılan olarak kutu grafiklerini dikey olarak konumlar. Grafikleri yatay hale getirmek için:
Verinin dağılımını anlamaya yönelik bir diğer grafiksel yöntem Q-Q grafiğidir. Q-Q grafiği ile iki olasılık dağılımı (verinin dağılımı ile istenilen olasılık dağılımı) birbiri ile karşılaştırılır. Eğer iki dağılım birbirine eşit ise gözlemler Q-Q grafiğinde bulunan 45 derecelik açıyla çizilmiş düz bir çizgi üzerinde seyreder.
Normal dağılıma sahip bir değişkenin histogram ve Q-Q grafikleri
Avantajları
Dezavantajları
Pythonda Q-Q grafiği (Q-Q plot)
Pythonda Q-Q grafiği çizebilmek için stats modülünden probplot() fonksiyonu kullanılabilir.
Bir dağılımın normal dağılıma uygunluğunu test etmenin ileri seviye fakat daha etkili bir yolu da normallik testi olarak da isimlendirilen istatistiksel hipotez testleridir. Normallik testi, verinin dağılımının normallik varsayımını ihlal edip etmediğini sınamak için kullanılır.
Tüm normallik testlerinde test edilecek hipotezler şöyledir:
H0: Örneklemin dağılımı normal dağılımdan anlamlı (significant) derecede farklı değildir.
H1: Örneklemin dağılımı normal dağılımdan anlamlı (significant) derecede farklıdır.
Genelde istatistiksel testler %90, %95, %99 güven seviyelerinde gerçekleştirilir. En yaygın olarak kullanılan güven seviyesi %95tir. Yazının devamında uygulayacağımız testlerde H0 hipotezini %95 güven seviyesinde test edeceğiz.
Hipotez testleri sonucunda p-değeri hesaplanır. p-değerinin yani %8 olması, veri normal dağılıma sahip olmadığı durumda, çalışmaların %8i verinin normal dağılıma sahip olduğunu tespit ettiği anlamına gelir. p değerinin hata payından (1 güven seviyesi) küçük olması durumunda H0 hipotezi red edilir.
Hipotez testlerinin genel çalışma mantığını inceledikten sonra Normallik testlerini inceleyeceğiz.
yılında Samuel Sanford Shapiro ve Martin Wilk tarafından geliştirilen Shapiro-Wilk testi en güçlü normalite testidir. Shapiro-Wilk testi bir veri setinin sadece ve sadece normal dağılıma uygun olup olmadığını test etmek için kullanılır.
Test sonucunda bir W istatistik değeri hesaplanır. W istatistiği 0 ile 1 arasında bir değer alır. Değer 1e ne kadar yakınsa empirik (teorik) dağılım ile örneklem dağılımı birbirine yakındır. Diğer bir deyişle, veri normal dağılıma daha uygundur.
Test ilk ortaya çıktığı zamanlarda 50den küçük örneklemler için kullanışlıydı. Sonradan yapılan iyileştirmeler ile örneklem büyüklüğü 2,e kadar çıkarıldı. M. Mahibbur Rahman and Z. Govindarajulu tarafından yapılan iyileştirmeler ile örneklem büyüklüğü 5,e kadar genişletildi. Örneklem büyüklüğünün 5,den büyük olduğu durumlarda kullanılması önerilmez.
Shapiro-Wilk testi hangi durumlarda kullanılır?
Tek değişkenli, sürekli veri türüne sahip kantitatif değişkenler için kullanışlıdır.
Avantajları
Dezavantajları
Pythonda Shapiro-Wilk testi
Pythonda Shapiro-Wilk testini uygulamak için SciPy kütüphanesinden stats modülü kullanışlıdır. Örnek veri seti 20 binden fazla gözleme sahip olduğu için Shapiro-Wilk testi uygun değildir. Bu testi uygulayabilmek için normal dağılıma sahip olan ve olmayan iki örnek veri seti oluşturacağız. SciPy kütüphanesinin stats modülünde, belirli bir dağılıma sahip rastgele veri setleri üretebilecek fonksiyonlar bulunmaktadır.
Öncelikle her iki dağılımı da histogram yardımı ile görselleştirerek grafikler yardımı ile normalliğe bakacağız.
Yukarıdaki örnek koddan bağımsız olarak karşılaştırmanın kolay olması için bir çerçeve üreterek her iki histogramı da yan yana koydum. Soldaki grafikte normal dağılıma sahip bir sürekli veri seti bulunurken sağda ise normal dağılıma sahip olmayan bir sürekli veri seti bulunmaktadır.
Shapiro-Wilk testini her iki örnek veri setinde de uygulayarak W istatistiğinin ve p-değerine bakacağız.
Shapiro-Wilk testini bir de normal dağılıma sahip olmayan veri seti üzerinde uygulayalım ve sonuçları inceleyelim.
Shapiro-Wilk testi uniform dağılıma sahip bir veri setine uygulandığında W istatistiği yine 1e yakın olarak hesaplandı. Fakat, burada kritik olan durum p-değerinin %95 güven seviyesindeki değeridir. p-değeri %95 güven seviyesinde alfa değerinden küçük çıktığı için W istatistiği değeri istatistiksel olarak anlamlı değildir. H0 hipotezi red edilir. Verinin normal dağılıma sahip olmadığını net bir şekilde histogramda görmüştük.
Peki, farklı örneklem büyüklüklerinde W istatistiği nasıl davranıyor?
Bu durumu test edebilmek için farklı örneklem büyüklüklerine sahip, normal dağılma sahip binlerce örneklem oluşturup, her biri için Shapiro-Wilk testini uygulayarak W istatistiğini hesaplayacağız. Daha sonrasında da her bir örneklem büyüklüğü için W istatistiğinin örneklem dağılımını elde edeceğiz.
Normal dağılma sahip binlerce örneklem oluşturup, her birine Shapiro-Wilk testini uygulamak için bir fonksiyona ihtiyacımız var.
Gerekli işlemi uygulayacak fonksiyonu oluşturduktan sonra sıra farklı örneklem büyüklüklerine sahip binlerce örneklem oluşturup, W istatistiklerini hesaplamaya geldi.
10, 20 ve 50 örneklem büyüklüğüne sahip 1, adet örnekleme dair W istatistiğini hesaplayarak W istatistiğinin örnekleme dağılımını oluşturduk.
Grafiğe göre, örneklem büyüklüğü arttıkça W istatistiği 1e yaklaşmaktadır. Örneklem büyüklüğü arttıkça Shapiro-Wilk testi veri setindeki küçük sapmalara daha hassas hale gelir ve H0 hipotezini reddetme olasılığı artar.
Kolmogorov-Smirnov testi, örneklemden oluşturulan empirik kümülatif dağılım fonksiyonu (ECDF) ile ideal dağılımın kümülatif dağılım fonksiyonunu (CDF) karşılaştırarak aradaki maksimum farkın hesaplanması ile bir istatistik değeri hesaplar.
K-S İstatistiğinin Örnek Gösterimi
Üstteki grafikte kırmızı ile çizilen CDF ideal dağılımı temsil ederken, mavi ile çizilen ECDF ise örneklemin dağılımını temsil etmektedir. İki çizgi arasındaki maksimum fark D istatistiğini verir. Aradaki fark ne kadar küçükse, dağılım o kadar normale yakındır.
Kolmogorov-Smirnov testi örneklemin elde edildiği popülasyonun parametrelerinin (Ör: Normal dağılım için ortalama µ ve standart sapma σ) bilindiği varsayımı ile çalışır. Parametrelerin bilinmediği ve örneklem üzerinden tahmin edildiği durumlarda Lilliefors testinin kullanılması uygundur.
Kolmogorov Smirnov testi hangi durumlarda kullanılır?
Örneklemin elde edildiği popülasyon parametrelerinin bilindiği, kantitatif değişkenler için kullanılır.
Avantajları
Dezavantajları
Pythonda Kolmogorov-Smirnov testi
Pythonda Kolmogorov-Smirnov testini uygulayabilmek için SciPy kütüphanesinin stats modülünden kstest() fonksiyonu kullanışlıdır.
K-S testini uygulayabilmek için Shapiro-Wilk testini uyguladığımız normal dağılıma uygun olan ve olmayan 2 farklı veri setini kullanıp, sonuçlarını karşılaştıracağız.
UYARI: Kolmogorov-Smirnov testi varsayılan olarak örneklemin dağılımını, ortalaması 0 ve standart sapması 1 olan standartnormaldağılım ile karşılaştırır. Eğer, veri setiniz farklı bir ortalama ve standart sapması olan bir normal dağılıma sahip ise KS testi dağılımın normalden farklı olduğunu ifade edecektir. Yani p-değeri hata payından düşük olacağı için H0 hipotezi red edilecektir.
KS testi ile test etmek istediğimiz dağılımın ortalama ve standart sapması değil, dağılımın şeklidir. Bu nedenle, Kolmogorov-Smirnov testi uygulamadan önce değişken standardize edilmelidir.
K-S testini:
Standart normal dağılıma sahip örnek veri seti
Farklı bir normal dağılıma sahip örnek veri seti
Yazının bu bölümünde K-S testini normal dağılıma sahip fakat ortalama ve standart sapması standart normal dağılımdan farklı bir veri seti üzerinde deneyeceğiz.
Öncelikle, bu tanıma uygun örnek bir veri seti oluşturacağız.
stats modülünden funduszeue.info() fonksiyonunu kullanarak normal dağılıma sahip, ortalaması 45, standart sapması 8 ve örneklem büyüklüğü 1, olan örnek bir veri seti oluşturduk.
Şimdi de bu örnek veri setine K-S testini uygulayacağız.
Normal dağılıma sahip, fakat standart normal dağılıma sahip olmayan veri seti ile K-S testini denediğimizde H0 hipotezi red edildi. Bu nedenle K-S testini uygulamadan önce daha tutarlı ve doğru sonuçlar elde etmek için veri standardize edilmelidir.
Normal dağılıma sahip olmayan örnek veri seti
Kolmogorov Smirnov testini son olarak bir de normal dağılıma uygun olmayan bir veri seti üzerinde deneyelim.
Bir önceki örnekte gördüğümüz üzere, K-S testini uygulamadan önce veri seti standartlaştırılmalıdır. Veri setini standartlaştırmak için her bir gözlemden verinin ortalaması çıkarılır daha sonrasında da verinin standart sapmasına bölünür.
KS testinin daha önceden oluşturduğumuz uniform dağılıma sahip veri setinde uyguladığımız zaman %95 güven seviyesinde D istatistiğinin , p-değerinin ise olarak hesaplandığını görüyoruz. p-değeri alfa değerinden küçük olduğu için H0 hipotezi red edilir. Veri setinin normal dağılıma sahip olduğunu söyleyemeyiz.
Lilliefors testi, Kolmogorov Smirnov (K-S) testinin geliştirilmiş bir alternatifidir. Bazı kaynaklarda ve istatistiksel yazılımlarda Lilliefors düzeltmeli Kolmogorov-Smirnov testi olarak da isimlendirilir.
Aynı K-S testinde olduğu gibi örneklemden oluşturulan empirik kümülatif dağılım fonksiyonu (ECDF) ile ideal dağılımın kümülatif dağılım fonksiyonunu (CDF) karşılaştırarak aradaki maksimum farkın hesaplanması ile bir istatistik değeri hesaplanır. Hesaplanan istatistik değeri ne kadar küçükse, örneklemin dağılımı normal dağılma o kadar yakındır.
Lilliefors testi hangi durumlarda kullanılır?
Örneklemin elde edildiği popülasyon parametrelerinin bilinmediği, kantitatif değişkenler için K-S testi yerine Lilliefors testi kullanılır.
Avantajları
Dezavantajları
Pythonda Lilliefors testi
Pythonda Lilliefors testini uygulayabilmek için StatsModels kütüphanesinden lilliefors() fonksiyonu kullanışlıdır. Lilliefors testini önce normal dağılıma sahip test verisi, daha sonrasında da örnek veri setindeki white_rating değişkeni üzerinde uygulayacağız.
Lilliefors testini white_rating değişkeni için uygulayalım.
Lilliefors testi ile hesaplanan istatistik değeri 0a çok yakın oldu. Aynı Kolmogorov-Smirnov testinde oldupu gibi, bu değer ne kadar küçükse o kadar iyi. Fakat buradaki problem p-değerinde. %95 güven seviyesinde p-değeri, alfa değeri olan ten küçüktür. Bu da H0 hipotezinin red edilmesi anlamına gelir. Yani, hesaplanan istatistik değeri istatistiksel olarak anlamlı değildir. Lilliefors testi sonuçlarına göre white_rating değişkeninin normal dağılıma sahip olduğunu söyleyemeyiz.
yılında Theodore Anderson ve Donald Darling tarafından geliştirilmiştir. Anderson-Darling testi, Kolmogorov-Smirnov testinde olduğu gibi empirik kümülatif dağılım fonksiyonu (ECDF) ile ideal dağılımın kümülatif dağılım fonksiyonunu (CDF) karşılaştırır.
K-S testinden farklı olarak iki eğri arasındaki maksimum farkı değil veri değerlerinin tüm aralığını ele alır ve A2 istatistiğini oluşturur. A2 istatistiği ne kadar küçükse, gözlemlenen dağılım ile ideal dağılım birbirine o kadar yakındır.
Anderson-Darling testi testi hangi durumlarda kullanılır?
Kantitatif değişkenler (aralıklı veya oransal ölçekli veri tiplerinde) için Anderson-Darling testi kullanılır. Dağılım grafiğinde kuyrukların uzun olduğu veri setlerinde daha güçlüdür.
Avantajları
Dezavantajları
Pythonda Anderson-Darling testi
Pythonda Anderson-Darling testi stats modülündeki anderson() fonksiyonu ile kolaylıkla uygulanabilir.
Anderson-Darling testini normal dağılıma uyan örnek veri seti üzerinde test edelim.
AD test istatistiği olabildiğince küçük. AD testini tanıtırken bahsettiğimiz gibi farklı güven seviyelerinde, karşılık gelen p-değerleri hesaplandı. Hesaplanan p-değerlerinin karşılık gelen hata payından büyük olduğunu görüyoruz. Yani, 5 farklı güven seviyesinde de H0 red edilemez.
Aynı testi bir de normal dağılıma uymadığını bildiğimiz bir veri setinde uyarlayarak farkı görelim.
AD testini uniform dağılıma sahip örnek veri setinde çalıştırdığımız zaman, AD istatistiğinin 12 civarında hesaplandığını ve bir önceki örneğe göre baya büyüdüğünü görüyoruz. Farklı güven seviyelerinde p-değeri hata payından büyük olmasına rağmen AD istatistiğinin çok yüksek olmasından dolayı testin bu veri seti üzerindeki sonuçlarına şüpheyle yaklaşmakta fayda var.
yılında Carlos Jarque ve Anil funduszeue.info tarafından önerilen Jarque-Bera testi dağılımın basıklık ve çarpıklık ölçülerini kullanmaktadır. Normal dağılıma sahip bir veri setinin çarpıklık değeri 0, basıklık değeri ise 3 olmalıdır.
Çarpıklık ve basıklık değerleri kullanılarak hesaplanan JB istatistiği sıfıra ne kadar yakınsa, verinin dağılımı o kadar normal dağılıma uygundur.
Jarque-Bera testi testi hangi durumlarda kullanılır?
Örneklem büyüklüğü 2,den fazla olan kantitatif değişkenler yani büyük veri setleri için Jarque-Bera testi kullanılabilir.
Avantajları
Dezavantajları
Pythonda Jarque-Bera testi
Pythonda Jarque-Bera testini uygulamak için yine SciPy kütüphanesinin stats modülünden yararlanacağız. Bu modülde yer alan jarque_bera() fonksiyonu JB testini uygular.
Öncelikle JB testine uygun bir normal dağılıma uyan veri seti üretip, testi bu verinin üzerinde uygulayacağız.
Peki Jarque-Bera testini örnek satranç veri setindeki white_rating değişkeninde uygularsak, sonuç nasıl olacak?
JB testini white_rating değişkenine uyguladığımızda, JB istatistiği inanılmaz derecede yüksek çıktı. p-değerinin de hata payından () küçük olması, verinin normal dağılıma sahip olmadığını söylüyor. Fakat, burada hatırlanması gereken durum değişkenimizde aykırı değerlerin olmasıdır. Histogram ve Q-Q grafiğinde de değişkenin tam bir normal dağılıma sahip olmadığı belli olsa da aykırı değerlerden dolayı test sonuçlarına biraz şüpheci yaklaşmakta fayda var.
Yazı içerisinde, literatürde sıkça rastlanılan ve popüler olan 5 farklı normallik testini inceledik. İncelediğimiz tüm normallik testlerinin farklı avantaj ve dezavantajlarından bahsettik. Normallik testi seçimi yaparken aşağıdaki şartlara dikkat edilmelidir:
Normallik testleri, çarpıklık ve basıklık değerleri, dağılım veya karakteristik fonksiyonu ve normal dağılımlı bir değişken ile standart normal z arasında var olan doğrusal ilişki gibi odaklandıkları normal dağılımın özelliklerine göre farklılık gösterir.
Örneklem büyüklüğü, normallik testi seçimini etkileyen faktörlerden bir tanesidir. Normallik testlerinin etkinlikleri farklı örneklem büyüklüklerinde değişiklik göstermektedir.
Örneklemin dağılımının şekli test seçiminde önemlidir.
Normallik testlerinin gücü farklı koşullar altında değişiklik göstermektedir. Testin gücü, sıfır hipotezini gerçekte yanlış olduğunda reddetme olasılığıdır.
Literatürde birçok farklı durumu göz önüne alarak, farklı simülasyon testleri ile güç karşılaştırılması yapılmıştır.
Daha detaylı bir okuma ve araştırma için aşağıdaki çalışmalar kaynak olarak kullanılabilir:
Farklı birçok normallik testini inceledik, kullanım alanlarını, yapay ve gerçek veri setleri üzerindeki doğruluğunu test ettik. İncelediğimiz örneklerde testlerin farklı dağılım veya farklı örneklem büyüklüklerine sahip veri setlerinde farklı sonuçlar üretebildiğini de gördük.
Normallik testleri:
Sonuç olarak, hiçbir normallik testinin % güvenilir ve kesin sonuçlar vermediğini söyleyebiliriz.
Peki, bu durumda normallik testi gereksiz mi?
Bu soruya yanıt vermeden önce normallik testinin kullanım amacını tekrar gözden geçirmemiz gerekir.
Yapay verilerle çok güzel ve kusursuz histogramlar çizmek kolay olsa da gerçek veri setleri büyük olasılıkla gerçekten normal dağılıma sahip değildir. Veri setinin normal dağılıma mükemmel şekilde uygun olmasını beklemek yerine, normal dağıldığını varsayabilecek kadar normal dağılımdan az sapmasını beklemek daha gerçekçi olacaktır.
Bu nedenle, normallik testi için sorulması gereken soru Verilerimin dağılımı normal dağılıma uygun mudur? değil, Veri setimin dağılımı, normallik varsayımına dayanarak yaptığım çıkarımları etkileyecek kadar normal dağılımdan sapma gösteriyor mu?olmalıdır.
Bir veri setinin normal dağılım gösterip göstermediği nasıl anlaşılır?
1. Yukarıda yaptığımız değerlendirme ışığında, bir veri setinin normal dağılıma ne kadar yakın olduğunu anlamak için öncelikle grafik yöntemlerden faydalanılmalıdır.
2. Eğer tek bir değişken için inceleme yapıyorsanız, histogram veya Kernel yoğunluk grafiği dağılım hakkında hızlıca bir fikir elde edinmenize yarar sağlar. Normal dağılıma sahip bir dağılımın zil şeklinde (bell curve) olmasını bekleriz. Birden çok değişken için inceleme yaptığınız durumlarda ise kutu grafikleri yardımı ile daha hızlı bir şekilde keşif yapabilirsiniz. Normal dağılıma sahip bir dağılımın kutu grafiğinde, ortanca değeri temsil eden çizgi kutunun tam ortasında yer almalıdır.
3. Bazı dezavantajlarından dolayı histogram ve Kernel yoğunluk grafiği yanıltıcı olabilir. Ön incelemeyi tamamladıktan sonra daha net sonuçlar elde etmek için Q-Qgrafiğinden faydalanabilirsiniz. Q-Q grafiğinde, normal dağılımı oluşturan gözlemler 45 derece açıyla çizilmiş doğrusal çizgi boyunca takip eder.
4. Özellikle örneklem büyüklüğünün az olduğu durumlarda, grafik yöntemler tek başına yeterli gelmeyecektir. Bu noktada normallik testlerinden de veri setinize uygun olanını seçerek faydalanabilirsiniz. Hatta, duruma göre birden fazla normallik testini de kullanabilirsiniz. Normallik testlerinin hassas ve yanıltıcı doğasından dolayı, grafik yöntemler, dağılımın çarpıklık ve basıklık değerleriyle birlikte kullanmanızı, değerlendirmenizi ve sunmanızı öneririm. Normallik testleri konusunda örneklem büyüklüğü ile ilgili endişeleri mutlaka not olarak hatırlayın.
Verilerin normal dağılıma uygun olmadığı veya normal dağılıma yakın olmadığı kabul edilen durumlarda izlenecek bazı alternatif stratejiler vardır. Bu yöntemleri şöyle özetleyebiliriz:
Araştırmanın kaynakları da hesaba katılarak, imkan varsa örneklem büyüklüğü artırılabilir. Örneklem büyüklüğünün 30dan fazla olduğu durumlarda Merkezi Limit Teoremine göre, popülasyondan yeteri miktarda örneklemler oluşturulduğunda, örneklem istatistiğinin oluşturduğu örneklem istatistiğinin dağılımı, örneklemin dağılımdan bağımsız olarak normal dağılıma yaklaşır.
Veri bilimcisi/analisti açısından cazip olan örneklem büyüklüğünün artırılması olsa da, gerçek hayattaki birçok engelden dolayı (maliyet, zaman vs.) gerçekleşmeyebilir.
Örneklem büyüklüğünün az olduğu durumlarda, yeniden örnekleme yöntemi ile örneklem dağılımı oluşturulup, örneklem dağılımı üzerinden istatistiksel çıkarımlar yapılabilir.
Verinin dağılımını etkileyen faktörlerden bir tanesi de veri setinde bulunan aykırı değerlerdir. Aykırı değerlerin analizi ve daha sonrasında uygun yöntemler ile giderilmesi ile normal dağılıma uygunluk sağlanabilir.
Aykırı değerlerin analizinden sonra kullanılabilecek bir diğer strateji ise veri dönüşüm (data transformation) yöntemleridir. Veri dönüşümü, değişkenin aldığı değerlerin matematiksel bir fonksiyon yardımıyla başka değerlere değişimine denir. Veri dönüşümü, normallik gibi istatistiksel varsayımların sağlanmasına yardımcı olduğu için önemlidir.
Yazının başında normal dağılımın tanımını yaparken, normal dağılıma uygun olarak gerçekleşen boy uzunluğu, IQ skorları gibi bazı olayları örnek olarak incelemiştik. Boy uzunlukları, IQ skorları gibi bazı rastgele olayların sonuçlarının dağılımı bilinmektedir.
Belirli bir sonucun belirli bir dağılımı izlediğini biliyorsak, verilerin dağılımını doğrulamak için yapılan testin önerdiğine rağmen bu dağılımı varsaymak muhtemelen daha iyi bir strateji olabilir.
Verinin dağılımının normal dağılıma uygun olmadığı durumlarda kullanılabilecek son bir yöntem ise herhangi bir dağılım varsayımına bağlı çalışmayan, Mann-Whitney U, Willcoxon İşaretli Sayılar testi gibi non-parametrik istatistiksel hipotez testlerini veya Decision Tree, Random Forest gibi makine öğrenmesi modellerini tercih etmek olabilir.
Theoria Modus Corporum Coelestium Carl Friedrich Gauss [Theory of the Motion of Heavenly Bodies]
A modification of the test of Shapiro and Wilk for normality
Anderson–Darling test
Jarque-Bera Test
A Test for Normality of Observations and Regression Residuals
Basıklık
Testing For Normality Henry C. Thode
BeğenYükleniyor
Verilerin normal dağılıma uygun olup olmadığını ortaya koymak amacıyla çeşitli normallik testlerinden yararlanmak mümkündür. Bu testler arasında en bilinenleri Ki-Kare, Kolmogorow-Smirnov, Lilliefors ve Shapiro Wilk normallik testleridir. Sözkonusu testlerde hipotezi ile verilerin normal dağılımlı bir anakütleden geldiği ifade edilirken, hipotezi ile anakütlenin dağılımının normale uymadığı ileri sürülmektedir.
Shapiro-Wilk-W testi normallik varsayımını sınayan en güçlü testtir. Shapiro-Wilk sınaması şu şekilde gerçekleştirilir:
ADIM Analyze Descriptive statistics Explore süreci takip edilir.
ADIM Açılan pencerede, normallik sınamasına tabi tutulacak değişken/ler “Dependent List” hücresine aktarılır. Ardından aşağıdaki resimde kırmızı daire içinde gösterilen “Plots” menüsü açılır.
ADIM Açılan Plots penceresinde, aşağıdaki resimde kırmızı daire içinde gösterilen “Normality Plots wirh tests” seçeneği işaretlenir. “Continue” seçeneği ile bir önceki pencereye dönülür ve “OK” komutu ile işlem gerçekleştirlir.
ADIM Oluşan “Output” dosyası bir dizi tablo ve grafik sunacaktır. Bunlar arasından aşağıda örneği verilen “Test of Normality” isimli tablonun sağ sütunu Shapiro Wilk değerini sunar.
Kırmızı daire içinde gösterilen anlamlılık düzeyi p< düzeyinde anlamlı ise hipotezi reddedilir ve dağılımın normal olmadığı kararı verilir. Şayet p> değeri elde edilmişse hipotezi kabul edilir ve dağılımın normal dağılımdan anlamlı bir farklılık sergilemediği yorumu yapılır.
One-sample Kolmogorov Smirnov testi normallik varsayımını sınayan hipotez testlerinin belki en çok bilinen ve kullanılanıdır. Kolmogorov Smirnov normallik sınaması şu şekilde gerçekleştirilir:
ADIM Analyze – Nonparametric Tests – 1-Sample K-S süreci takip edilir.
ADIM Açılan pencerede, normallik sınamasına tabi tutulacak değişken/ler “Test Variable List” hücresine aktarılır. Bu menü sadece istenen bir dağılımı başka dağılımlarla da karşılaştırabilir. Bu dağılımlar açılan pencerenin sol altında sunulur. Normallik sınamasında “normal” seçeneğinin işaretlenmiş olması gerekir.
ADIM ADIM Oluşan “Output” dosyası bir tablo sunacaktır.
Kırmızı daire içinde gösterilen z değeri ve buna bağlı anlamlılık düzeyi (asymp. Sig.) p< düzeyinde anlamlı ise hipotezi reddedilir ve dağılımın normal olmadığı kararı verilir. Şayet p> değeri elde edilmişse hipotezi kabul edilir ve dağılımın normal dağılımdan anlamlı bir farklılık sergilemediği yorumu yapılır.
çamaşır makinesi ses çıkarması topuz modelleri kapalı huawei hoparlör cızırtı hususi otomobil fiat doblo kurbağalıdere parkı ecele sitem melih gokcek jelibon 9 sınıf 2 dönem 2 yazılı almanca 150 rakı fiyatı 2020 parkour 2d en iyi uçlu kalem markası hangisi doğduğun gün ayın görüntüsü hey ram vasundhara das istanbul anadolu 20 icra dairesi iletişim silifke anamur otobüs grinin 50 tonu türkçe altyazılı bir peri masalı 6. bölüm izle sarayönü imsakiye hamile birinin ruyada bebek emzirdigini gormek eşkiya dünyaya hükümdar olmaz 29 bölüm atv emirgan sahili bordo bereli vs sat akbulut inşaat pendik satılık daire atlas park avm mağazalar bursa erenler hava durumu galleria avm kuaför bandırma edirne arası kaç km prof dr ali akyüz kimdir venom zehirli öfke türkçe dublaj izle 2018 indir a101 cafex kahve beyazlatıcı rize 3 asliye hukuk mahkemesi münazara hakkında bilgi 120 milyon doz diyanet mahrem açıklaması honda cr v modifiye aksesuarları ören örtur evleri iyi akşamlar elle abiye ayakkabı ekmek paparası nasıl yapılır tekirdağ çerkezköy 3 zırhlı tugay dört elle sarılmak anlamı sarayhan çiftehan otel bolu ocakbaşı iletişim kumaş ne ile yapışır başak kar maydonoz destesiyem mp3 indir eklips 3 in 1 fırça seti prof cüneyt özek istanbul kütahya yol güzergahı aski memnu soundtrack selçuk psikoloji taban puanları senfonilerle ilahiler adana mut otobüs gülben ergen hürrem rüyada sakız görmek diyanet pupui petek dinçöz mat ruj tenvin harfleri istanbul kocaeli haritası kolay starbucks kurabiyesi 10 sınıf polinom test pdf arçelik tezgah üstü su arıtma cihazı fiyatları şafi mezhebi cuma namazı nasıl kılınır ruhsal bozukluk için dua pvc iç kapı fiyatları işcep kartsız para çekme vga scart çevirici duyarsızlık sözleri samsung whatsapp konuşarak yazma palio şanzıman arızası