SPSS ile Çoklu Regresyon (Backward Metodu)

SPSS ile Çoklu Regresyon (Backward Metodu)

Backward (Geriye Doğru Eleme) yöntemiyle çoklu doğrusal regresyon analizi yaparken, başlangıçta elinizdeki tüm bağımsız değişkenleri modele koyarız. Sonra SPSS otomatik olarak istatistiksel olarak anlamsız (örneğin, p>0.05) olan değişkenleri adım adım modelden çıkarır. Böylece geriye, modele en çok katkıyı sağlayan değişkenler kalır. Özellikle değişken sayısının fazla olduğu durumlarda hangi değişkenlerin modelde tutulması gerektiği hakkında net fikir olmayan durumlarda karar vermek için bu yöntem kullanılabilir.

Çoklu regresyon analizinde geriye doğru eleme (backward) metodu, istatistiksel bir analiz yöntemidir ve regresyon modelindeki bağımsız değişkenlerin hangilerinin istatistiksel olarak anlamlı olup olmadığını belirlemek için kullanılır. SPSS ile geriye doğru eleme yöntemiyle çoklu regresyon analizi yapmak oldukça kolaydır. Bu blog yazısında, SPSS programıyla geriye doğru eleme yöntemiyle nasıl çoklu regresyon analizi yapabileceğinizi öğreneceksiniz.

SPSS Eğitim

 

Çoklu Regresyon “Geriye Doğru Eleme / Backward” Metodu Nedir?

SPSS’te çoklu doğrusal regresyon analizi yapma yöntemlerinden birisi de “geriye doğru eleme” yani “backward” metodudur. Bu yöntem, çok sayıda bağımsız değişkenin olduğu bir modelde hangi değişkenlerin model için en anlamlı olduğunu belirlemek için kullanılır. Bu yöntem, çok fazla bağımsız değişken içeren modellerdeki gereksiz değişkenleri elemek ve sadece anlamlı olanları korumak için kullanılır.

SPSS’teki “Backward” çoklu regresyon yöntemi, “Forward” çoklu regresyon yönteminin tersi olarak düşünülebilir.

Geriye doğru eleme (backward) çoklu regresyon metodunu kullanarak, bir regresyon modeline önce elimizdeki bütün bağımsız değişkenleri dahil ederiz. SPSS, ilk analizi yapıp modeldeki etkisi en anlamsız olan değişkeni otomatik olarak eler. SPSS bu şekilde analizlere devam ederek modeldeki etkisi en anlamsız olan değişkenleri sırayla elemeye devam eder, ta ki modelde sadece anlamlı etkiye sahip değişkenler kalana kadar.

Backward çoklu regresyon yönteminin temel amacı, modeldeki gereksiz değişkenleri eleyerek, anlamsız değişkenlerin modeli etkilemesini engellemektir. Bu sayede, modelde yalnızca gerçekten önemli olan değişkenlerin kalması sağlanır. Böylece, analiz sonuçlarının daha güvenilir ve isabetli hale gelmesi hedeflenir.

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

“Backward” Metodu Avantajları ve Dezavantajları

Avantajlar

  1. Veri Keşfi: Tüm değişkenleri hızlıca değerlendirip modeldeki en kritik olanları korur, önemsizleri eler.
  2. Kolay Uygulama: SPSS otomatik olarak hangi değişkenleri çıkaracağını belirler, manuel seçim yapmanıza gerek kalmaz.
  3. Fazla Değişken Durumunda Etkili: Yüzlerce değişkenin olduğu durumlarda ilk etapta hepsini dahil edip, anlamsız olanları eleyerek sade bir modele ulaşabilirsiniz.

Dezavantajlar

  1. Overfitting veya Yakınsama Sorunları: Başlangıçta çok sayıda değişken eklendiğinde, modelin öncelikle hepsini ‘kabul etmesi’ gerekebilir. Anlamlılık düzeyine göre eleyip dursa da verideki hatalara (gürültüye) duyarlılık artabilir.
  2. İstatistiksel Yorum Karmaşası: Çok sayıda değişkeni ardışık adımlarda eledikçe, nihai modelin keşfi daha uzun tablo dizilerine yayılır. Her adımı doğru yorumlamak gerekir.
  3. Anlamlılık Eşiğine Aşırı Bağımlılık: Katı bir p<0.05 kuralınız varsa, ufak değişiklikler bir değişkenin modelden çıkmasına veya kalmasına neden olabilir.

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

Ön Varsayımlar

Çoklu regresyon yaparken, bazı temel varsayımları ve ön kontrolleri dikkate almak önemlidir:

  1. Doğrusallık (Lineerlik): Bağımlı ve bağımsız değişkenler arasında doğrusal (lineer) bir ilişki olması beklenir.
  2. Çoklu Bağlantı Olmaması (Multicollinearity Olmaması): Bağımsız değişkenlerin birbirleriyle aşırı derecede ilişkili olması (multicollinearity) sonuçları bozabilir. Bunu VIF (Variance Inflation Factor) veya Tolerans değerleri ile kontrol edebilirsiniz.
  3. Normallik: Hataların (residuals) normal dağılması beklenir. Model residual’larının histogram ve P-P/Q-Q grafikleri incelenir.
  4. Değişen Varyans (Heteroskedastisite) Kontrolü: Model residual’larının sabit varyansa sahip olması istenir (homoskedastisite). Scatterplot incelemesi ile buna bakılabilir.
  5. Aykırı değer (Outlier) kontrolü: Veri setindeki uç değerler analiz sonuçlarını önemli ölçüde etkileyebilir. Bunların tespit edilip analize dahil edilmemesi gerekir.

Bu varsayımları olabildiğince sağladığınızda, elde edeceğiniz modelin güvenirliği ve geçerliliği artacaktır.

Bu varsayımların her birinin SPSS üzerinde nasıl test edileceğine dair yazımı linke tıklayarak okuyabilirsiniz.

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

SPSS ile Geriye Doğru Eleme Metoduyla Çoklu Regresyon Nasıl Yapılır?

Aşağıda varsayımsal bir veri seti üzerinden (örneğin “Gelir” bağımlı değişkeni, bağımsız değişkenler ise “Eğitim Yılı”, “Yaş”, “Deneyim”, “Cinsiyet” gibi olsun) SPSS’te Backward metodunu nasıl uygulayacağınızı anlatıyorum.

  1. Ana menüden Analyze > Regression > Linear… menüsüne tıklayın.
  2. Açılan pencerede, Dependent (Bağımlı) kısmına analiz etmek istediğiniz bağımlı değişkeni (örneğin: Gelir) sürükleyip bırakın.
  3. Independent(s) (Bağımsız Değişkenler) kısmına başlangıçta tüm bağımsız değişkenlerinizi (örneğin: EğitimYılı, Yaş, Deneyim, Cinsiyet vb.) yerleştirin.
  4. Method bölümünden Backward seçeneğini seçin (genelde “Backward: LR” vb. olarak görürsünüz).
  5. Statistics butonuna tıklayarak Estimates, Model fit, Descriptives, Part and partial correlations, Collinearity diagnostics vb. kutuları işaretleyebilirsiniz. Bu, çıktı raporunun detaylı olmasını sağlar.
  6. Plots sekmesinden “ZPRED” (tahmin değerleri) ile “ZRESID” (standartlaştırılmış rezidüller) seçerek artıklara (residuals) dair grafikler alabilirsiniz. Bu, doğrusal varsayımını ve sabit varyans varsayımını kontrol etmede yardımcı olur.
  7. Tüm ayarları yaptıktan sonra OK butonuna basın.

SPSS, Backward yöntemine göre önce tüm değişkenleri modele dahil eder, daha sonra anlamlılık düzeyine göre adım adım anlamsız değişkenleri modelden çıkarıp yeni model tahminini verir.

Çıktıda genelde birden çok model satırı görürsünüz (Model 1, Model 2, Model 3, …). Her aşamada hangi değişkenin çıkarıldığı görülebilir.

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

Geriye Doğru Eleme Metodu SPSS Tablo Yorumlama

Çoklu regresyon analizi sonrasında SPSS sizlere bir dizi tablo sunar. Bunların en önemli kısımları şunlardır:

Model Summary (Model Özeti)

Bu tabloda genellikle şu değerlere odaklanırız:

  • R: Regresyon modeli ile bağımlı değişken arasındaki korelasyon katsayısıdır.
  • R Square (R²): Bağımlı değişken varyansının ne kadarının bağımsız değişkenler tarafından açıklandığını gösterir. 0 ile 1 arasında değişir. Örneğin 0.60 ise, bağımlı değişkendeki değişimin %60’ını bu modelin açıkladığı anlamına gelir.
  • Adjusted R Square (Düzeltilmiş R²): Bağımsız değişken sayısını ve örneklem büyüklüğünü dikkate alarak R² değerini düzeltir. Çoklu regresyonda genelde bu değeri yorumlamak daha sağlıklıdır.

Her adımda (Model 1, Model 2, vb.) R² değerinde nasıl bir değişim olduğunu görebilirsiniz. Eğer modelden bir değişken çıkarıldığında R² ciddi oranda düşmüyorsa, o değişkenin modeldeki katkısı düşük demektir.

ANOVA Tablosu

Burada en önemli kısım F istatistiği ve buna karşılık gelen p değeri (Sig.) dir.

  • Analizdeki genel modelin anlamlı olup olmadığını test eder.
  • p değeri 0.05’ten küçükse (p<0.05), model istatistiksel olarak anlamlıdır diyebiliriz.

Coefficients (Katsayılar) Tablosu

Çoklu regresyon sonuçlarının en kritik tablosu genellikle budur:

  • Unstandardized Coefficients (B): Regresyon denklemindeki ham katsayılar. Örneğin denklem “Gelir = a + b1EğitimYılı + b2Yaş + …” şeklindedir.
  • Standardized Coefficients (Beta): Tüm değişkenlerin etkisini karşılaştırabilmek için standartlaştırılmış katsayılar. Hangi değişkenin bağımlı değişken üzerinde daha güçlü bir etkiye sahip olduğunu görebilmenizi sağlar.
  • t ve p değerleri (Sig.): Her bağımsız değişkenin regresyon katsayısının anlamlı olup olmadığını test eder. p<0.05 ise, o değişkenin modelde istatistiksel olarak anlamlı olduğu söylenir.
  • VIF (Variance Inflation Factor) ve Tolerance: Çoklu bağlantı (multicollinearity) sorununu gösterir. VIF değerinin 10’dan küçük (tercihen 5’ten de küçük), Tolerance değerinin 0.1’den büyük olması genellikle kabul edilebilir sınırlar olarak görülür.

Backward yönteminde SPSS, en yüksek p değerine sahip değişkeni (yani modelin açıklayıcılığını istatistiksel olarak önemli ölçüde etkilemeyen değişkeni) çıkarır ve yeni modeli dener. Bu süreç, tüm bağımsız değişkenler belirlenen anlamlılık eşiğine (genelde p<0.05) uygun hale gelene kadar devam eder. Son aşamada Coefficients tablosundaki değişkenlerin tamamı p<0.05 şeklinde görünecektir (veya seçtiğiniz eşiğe göre).

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

Regresyon Denklemi

Diyelim ki, Backward yöntemi sonucu SPSS şu nihai modeli versin:

  • Bağımlı değişken: Gelir
  • Bağımsız değişkenler: EğitimYılı, Deneyim
  • SPSS Coefficients tablosu size şunu göstersin:
Bağımsız Değişken B Beta t p (Sig.)
(Sabit) 10.000 5.2 0.000
EğitimYılı 2.000 0.45 4.3 0.001
Deneyim 1.000 0.25 2.5 0.015

Bu tabloyu nasıl yorumlarız?

  1. Sabit (Intercept): 10.000 değeri, bağımsız değişkenler sıfır iken (EğitimYılı=0, Deneyim=0) beklenen Gelir’in 10.000 (birim cinsinden) olduğunu gösterir.
  2. EğitimYılı: 1 birim (1 yıl) arttığında, Gelir’in 2.000 birim artması beklenir (diğer değişkenler sabit tutulduğunda).
  3. Deneyim: 1 yıl arttığında, Gelir’in 1.000 birim artması beklenir (diğer değişkenler sabit tutulduğunda).
  4. Hepsinin p değeri (0.05’ten küçük) olduğu için değişkenler modelde anlamlı olarak kabul edilir.

Regresyon denklemi şu şekilde yazılabilir:

Gelir = 10.000 + 2.000EğitimYılı + 1.000Deneyim

Beta (standartlaştırılmış) katsayılara bakıldığında (0.45 > 0.25) EğitimYılı değişkeninin Gelir üzerindeki etkisinin Deneyim’e göre daha yüksek olduğu görülür.


SPSS ile Backward yöntemiyle çoklu doğrusal regresyon analizi bu kadardı. Okuduğunuz için teşekkürler.

spss tez analizi istatistik ödev yaptırma ücretli spss veri analizi danışmanlık

Deniz Şavkay hakkında 182 makale
Lisans eğitimimi Boğaziçi Üniversitesi Moleküler Biyoloji ve Genetik bölümünde, Yüksek Lisans eğitimimi Polonya'daki SWPS Üniversitesi Psikoloji bölümünde tamamladım. Davranış bilimlerine ilgi duyuyorum ve eğitim hayatımı bunun üzerine şekillendirdim. SPSS ile istatistik analizi yapmayı çok seviyorum. SPSS analizleriyle insan davranışındaki kalıpları keşfetmek ve insan davranışı hakkında iç görü sahibi olmak beni heyecanlandırıyor.

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*