
İçindekiler
Bu yazıda, SPSS’te çoklu regresyon analizi yaparken kullanılan ileri doğru seçim (forward) metodunu ele alacağız. İleri doğru seçim metodu, bağımsız değişkenler arasından en anlamlı olanlarını seçerek modele dahil etmeyi amaçlar. Bu yöntem, istatistiksel olarak anlamlı sonuçlar elde etmek ve model performansını artırmak için etkili bir yöntemdir. İleri doğru seçim metodunu kullanarak nasıl çoklu regresyon analizi yapabileceğinizi bu yazıda adım adım öğrenebilirsiniz.
Çoklu Regresyon “İleri Doğru Seçim” Metodu Nedir?
SPSS’te çoklu doğrusal regresyon analizi yöntemlerinden olan ileri doğru seçim yani “forward” metodu, analizde kullanılan değişkenlerin hangi sırayla modele eklenmesi gerektiğini SPSS’in otomatik olarak belirlediği bir istatistiksel yöntemdir. Bu yöntemde SPSS, hangi değişkenlerin modelin açıklama gücüne en fazla katkı yapabileceğini kendisi matematiksel hesaplamalar yaparak tahmin etmeye çalışır.
İleri doğru seçim (forward) metodu, özellikle bağımsız değişkenlerin çok sayıda olduğu durumlarda kullanışlıdır. Çünkü tüm değişkenleri aynı anda modele eklemek, gereksiz karmaşıklığa neden olabilir ve sonuçların yorumlanmasını zorlaştırabilir. Bu nedenle, ileri doğru seçim metoduyla değişkenleri sırayla modele ekleyerek kararı SPSS’e bırakmak, araştırmacılara rahatlık sağlar.
İleri doğru seçim metodu, aynı hiyerarşik regresyon gibi adım adım bir yaklaşım benimser. Fakat hiyerarşik regresyondan farkı, hangi değişkenlerin ne sırayla analiz modeline dahil edileceğinin hiyerarşik regresyonda araştırmacının kendisi karar veriyor olmasına karşın, “forward” çoklu regresyon yönteminde buna SPSS’in otomatik olarak karar vermesidir.
SPSS bu analizde ilk adımda, tüm değişkenlerin tek tek modelle ilişkisini inceler ve en yüksek ilişkiye sahip olan değişkeni seçer. Bu değişken, modelin açıklama gücüne en fazla katkı yapabilecek değişkendir. Bu değişkeni modele kalıcı olarak ekler. Sonraki adımlarda, bu değişkenle birlikte diğer değişkenlerin de modelle ilişkisi incelenir ve en çok katkı yapabilecek değişkenler sırayla eklenir, ta ki modele artık anlamlı katkı yapacak değişken kalmayana kadar.
SPSS’teki “Forward” çoklu regresyon yönteminin tersi olarak “Backward” çoklu regresyon yöntemi bulunmaktadır.
“Forward” Metodu Ne Zaman Kullanılır?
- Çok sayıda bağımsız değişken arasından, hangilerinin gerçekten önemli olduğunu tek tek ekleyerek keşfetmek istediğinizde.
- Modelin aşamalı ilerleyişi üzerinden, her adımda eklenen değişkenin ek açıklayıcılık miktarını görmek istediğinizde.
- Araştırmacıların, önceden güçlü teorik bilgileri yoksa veya hangi bağımsız değişkenin ne kadar etkili olabileceği konusunda ön tahmin yapamıyorlarsa.
- Araştırmacılar kolaya kaçmak istiyorsa.
“Forward” Yönteminin Artıları ve Eksileri
Avantajlar
- Değişken Seçimi Kolaylığı: Çok sayıda değişken içinden az sayıda anlamlı değişkeni ayıklayarak sonuca ulaşmak.
- Model Geliştirme İçin Faydalı: Her adımda eklenen değişkenin modeli ne kadar iyileştirdiğini görmek (R² artışı, p değerleri).
Dezavantajlar
- Modelin Başlangıcı: İlk eklenen değişken (en açıklayıcı olan) bazen diğer aday değişkenlerle beraber incelendiğinde değişik sonuçlar doğurabilir. Tek tek bakıldığında en iyi gözüken değişken, birlikte kullanıldığında o kadar faydalı olmayabilir.
- Veri Gürültüsüne (Noise) Duyarlılık: İleri seçim, verideki gürültü (noise) veya rasgele hatalar yüzünden bazı değişkenleri “önemli” gibi görebilir ya da tam tersi önemli değişkeni atlayabilir. Bu hem aşırı uyum hem de genellenebilirlik sorunlarına yol açar.
- Teorik Yaklaşım Gerekliliği: Her ne kadar otomasyon sağlasa da, mutlaka teori veya literatür desteği ile hangi değişkenlerin aday olması gerektiğine baştan karar verilmelidir.
Ön Varsayımlar
- Lineerlik (Doğrusallık): Bağımlı değişken ile bağımsız değişken(ler) arasında doğrusal ilişki beklenir.
- Normallik: Artık (residual) terimlerin normal dağıldığı varsayılır.
- Homoskedastisite (Sabit Varyans): Artıkların sabit bir varyansa sahip olması gerekir.
- Çoklu Bağlantı (Multicollinearity): Bağımsız değişkenlerin birbirleriyle aşırı korelasyon göstermesi istenmez (VIF, Tolerance değerleriyle kontrol edilebilir).
- Aykırı Değer (Outlier) Kontrolü: Veri setindeki uç değerler modelin tahmin gücünü ve sonuçları bozabilir.
Bu varsayımların en azından büyük ölçüde karşılandığından emin olmak, regresyon analizi sonuçlarının gerçeği yansıtması açısından kritik önemdedir.
Bu çoklu regresyon varsayımlarının hepsinin SPSS ile nasıl test edildiğini anlattığım yazımı linke tıklayarak okuyabilirsiniz.
SPSS ile “Forward” Metoduyla Çoklu Regresyon Nasıl Yapılır?
Aşağıdaki aşamalarda, örneğin “Sınav Başarısı” (bağımlı değişken) ile bağımsız değişkenler olarak “Çalışma Saati (Saat)”, “Motivasyon (Puan)”, “Uyku Süresi (Saat)”, “Yaş” gibi değişkenleri kullandığımızı varsayalım. İsteğe bağlı olarak veri setinizdeki değişkenlerin isimleri elbette farklı olabilir.
- Menü çubuğundan Analyze > Regression > Linear… yolunu izleyin.
- Açılan pencerede:
- Dependent kutusuna bağımlı değişkeninizi (örneğin “SınavBaşarısı”) sürükleyin.
- Independent(s) kutusuna analiz etmek istediğiniz tüm bağımsız değişkenleri (örn. “ÇalışmaSaati”, “Motivasyon”, “UykuSüresi”, “Yaş”) getirin.
- Method menüsünden “Forward” yöntemini seçin. SPSS’te “Forward: LR” (veya “Forward: Conditional”) gibi çeşitli algoritma seçenekleri görebilirsiniz. Varsayılan genelde “Forward: LR”dır.
- Statistics butonuna tıklayıp Estimates, Model fit, Descriptives, Part and partial correlations, Collinearity diagnostics gibi kutucukları işaretleyin. Böylelikle detaylı çıktı tabloları alabilirsiniz.
- Plots sekmesinde, “ZPRED” (tahmin değerleri) ile “ZRESID” (standartlaştırılmış artıklar) seçerek artıklara dair grafik elde edebilirsiniz. Bu grafikler yardımıyla lineerlik, homoskedastisite gibi varsayımları kontrol etmek kolaylaşır.
- OK butonuna basarak analizi çalıştırın.
Analiz sırasında:
- SPSS önce herhangi bir bağımsız değişken eklemeden (Model 0 denilen temel model, sadece sabit terim) başlar.
- Daha sonra her bir bağımsız değişkenin modeli ne kadar iyileştirdiğini test ederek, en çok katkı sağlayanı modele ekler (Model 1). Ardından geriye kalan bağımsız değişkenleri aynı mantıkla test eder, katkı sağlayanı ekler (Model 2), bu süreç her adımda tekrarlanır.
- Yeni bir değişken modele eklenince F testleri ve p değerleri kontrol edilir; eğer anlamlı bir iyileşme (p<0.05) yoksa ekleme yapılmaz ve süreç sonlanır.
İleri Doğru Seçim Metodu Sonuç Yorumlama
SPSS’te Forward yöntemini çalıştırdığınızda bir dizi tablo elde edersiniz. Bunların en önemlileri şunlardır:
Model Summary (Model Özeti) Tabloları
SPSS genelde adım adım eklenen her yeni model (Model 1, Model 2, Model 3, vb.) için ayrı bir satır oluşturur. Bu satırlarda:
- R: Modelin bağımlı değişkenle olan korelasyon katsayısı.
- R Square (R²): Bağımlı değişken varyansının ne kadarının açıklanabildiğini gösterir (0 ile 1 arasında).
- Adjusted R Square: Modelin karmaşıklığını (değişken sayısı vb.) hesaba katan düzeltilmiş R² değeridir. Çoklu regresyon analizinde genelde yorum için R² yerine Adjusted R²’yi dikkate almak daha iyidir.
Her yeni model satırında R ve R² değerlerini inceleyerek, eklenen yeni değişkenin modeli ne kadar iyileştirdiğini görürsünüz.
Örneğin Model 1’de R² = 0.40 iken Model 2’de R² = 0.55 olmuşsa, yeni eklenen değişkenin modelin açıklama gücünü %15 artırdığını söyleyebilirsiniz.
ANOVA Tablosu
Her model için bir ANOVA özeti görürsünüz:
- F değeri ve p (Sig.): Modelin genel olarak istatistiksel açıdan anlamlı olup olmadığını test eder.
- p<0.05 ise, o modelin bağımlı değişkeni açıklamada istatistiksel olarak anlamlı olduğu söylenebilir.
Coefficients (Katsayılar) Tabloları
Yine her model adımı için ayrı bir “Coefficients” tablosu olacaktır:
- Unstandardized Coefficients (B): Regresyon denklemi katsayılarını içerir. Örneğin, “SınavBaşarısı = a + b1*(ÇalışmaSaati) + b2*(Motivasyon) + …”.
- Standardized Coefficients (Beta): Katsayıları standardize eder, değişkenler arasındaki karşılaştırmayı kolaylaştırır.
- t istatistiği ve p (Sig.): Her bağımsız değişkenin modeldeki katkısının anlamlı olup olmadığını gösterir. p<0.05 ise, o değişkenin modele katkısı anlamlıdır.
- VIF (Variance Inflation Factor) ve Tolerance: Çoklu bağlantıyı (multicollinearity) kontrol etmek için. VIF’in 10’dan küçük, Tolerance’ın 0.1’den büyük olması genelde kabul edilebilir sınırdır.
Forward yönteminde bir model kurulduktan sonra, bir sonraki adımda anlamlı biçimde katkı sağladığı tespit edilen değişken “eklenir”. Coefficients tablolarında her aşamada hangi değişkenlerin eklendiğini, p değerlerini, Beta katsayılarını inceleyebilirsiniz.
Örnek “Forward” Analizi Sonucu Yorumlama
Diyelim ki Forward yöntemi sonucunda SPSS, nihai olarak aşağıdaki modeli raporladı:
- Bağımlı değişken: SınavBaşarısı
- Son modelde kalan bağımsız değişkenler: “Motivasyon”, “ÇalışmaSaati”
- SPSS’in Coefficients tablosu (kısaltılmış hali) şöyle olsun:
Bağımsız Değişken | B | Beta | t | p (Sig.) |
---|---|---|---|---|
(Sabit) | 20.000 | – | 4.0 | 0.000 |
Motivasyon | 1.500 | 0.50 | 5.2 | 0.001 |
ÇalışmaSaati | 1.000 | 0.30 | 3.0 | 0.012 |
Bu tablo bize şunları anlatır:
- Sabit (Intercept) 20.000: Diğer tüm değişkenler sıfır iken beklenen SınavBaşarısı 20 puandır (örnek olarak).
- Motivasyon (B=1.500, p=0.001): Motivasyon puanı 1 birim arttığında, SınavBaşarısı ortalama 1.5 puan artar (diğer değişken sabitken). p<0.05 olduğu için istatistiksel olarak anlamlıdır.
- ÇalışmaSaati (B=1.000, p=0.012): Günlük çalışma saati 1 saat arttığında, SınavBaşarısı ortalama 1 puan artar. Bu da anlamlıdır (p<0.05).
- Standartlaştırılmış katsayılara bakılırsa (Beta=0.50 > 0.30), “Motivasyon” değişkeni, “ÇalışmaSaati”ne göre sınav başarısını daha fazla etkilemektedir.
Sonuçta regresyon denklemini şöyle yazabilirsiniz:
SınavBaşarısı = 20.000 + 1.500(Motivasyon) + 1.000(ÇalışmaSaati)**
Forward yöntemiyle elde ettiğiniz bu nihai modelde, diğer değişkenlerin (örneğin “UykuSüresi”, “Yaş” vb.) modele eklenmesi anlamlı bir iyileştirme sağlamadığı için SPSS onları dahil etmemiştir.
Bir yanıt bırakın