Mobile App Wiki

Mobile App Wiki

mobileapp.wiki

Ana Sayfa

Kategoriler

mobileapp.wiki

Mobile App Wiki

Mobil uygulama geliştirme bilgi tabanı

GizlilikAna SayfaSitemapRSS
© 2026 mobileapp.wiki
Ana Sayfa/Test & QA/A/B Testing (Uygulama Ici)
Test & QA3 dk okuma

A/B Testing (Uygulama Ici)

Mobil uygulama içi A/B testing rehberi. Firebase Remote Config, Statsig ve RevenueCat ile experiment tasarımı ve istatistiksel anlamlılık analizi.

ab testingexperimentfeature flagremote configfirebaseoptimizasyonvaryasyonstatsig

İçindekiler

Uygulama İçi A/B Testing Nedir?Ne Test Edilebilir?AraçlarFirebase Remote Config ile A/B Testİstatistiksel AnlamlılıkBest PracticesYapınYapmayınFeature FlagsPaywall A/B TestingMetrik Örnekleriİlgili Konular

Uygulama İçi A/B Testing Nedir?

Kullanıcıları rastgele gruplara ayırıp farklı deneyimler sunarak hangi versiyonun daha iyi performans gösterdiğini ölçme yöntemidir. Store A/B testing'den farklı olarak uygulama İÇİNDEKİ değişiklikler test edilir. 2026 itibarıyla data-driven ürün geliştirme yaklaşımının temel taşıdır.

Ne Test Edilebilir?

  • UI değişiklikleri: Buton rengi, boyutu, konumu
  • Paywall varyasyonları: Farklı fiyatlar, layoutlar, teklifler
  • Onboarding akışları: Farklı adım sayısı, içerik, sıralama
  • Özellik varyasyonları: Yeni özelliğin farklı implementasyonları
  • CTA metinleri: "Hemen Başlat" vs "Ücretsiz Dene"
  • Push notification: Farklı mesaj, zamanlama, sıklık
  • Fiyatlandırma: Farklı fiyat noktaları ve paketler

Araçlar

AraçÖzellikFiyat
Firebase Remote ConfigÜcretsiz, basit A/B testÜcretsiz
StatsigKapsamlı feature flag + A/BFree tier var
LaunchDarklyFeature flag odaklı, enterprisePahalı
OptimizelyEnterprise A/B testingEnterprise
RevenueCat ExperimentsPaywall A/B testingRevenueCat planına dahil
Amplitude ExperimentAnalytics + experiment birleşikAmplitude planına dahil

Firebase Remote Config ile A/B Test

  1. Firebase Console'da Remote Config parametreleri tanımla
  2. A/B Testing deneyimi oluştur
  3. Hedef metrik seç (retention, gelir, event)
  4. Trafik bölünmesi ayarla (%50-%50 veya farklı oranlar)
  5. Deneyimi çalıştır
  6. İstatistiksel anlamlılık bekle
  7. Kazanan varyasyonu tüm kullanıcılara yay

İstatistiksel Anlamlılık

  • Minimum örneklem: Genellikle 1000+ kullanıcı/grup
  • Confidence level: %95+ (p-value < 0.05)
  • Test süresi: En az 7 gün (haftanın günleri etkisi)
  • Tek değişken: Bir seferde tek şey test et
  • MDE (Minimum Detectable Effect): Tespit edilebilir minimum etki büyüklüğü
  • Sample size calculator kullanın (Evan Miller, Statsig)

Best Practices

Yapın

  • Hipotez ile başlayın ("X değişikliği Y metriğini %Z artırır")
  • Birincil metrik belirleyin (tek hedef)
  • Yeterli süre bekleyin (erken sonlandırma yanıltır - "peeking problem")
  • Segment bazlı analiz yapın (ülke, platform, yeni/eski kullanıcı)
  • Sonuçları dokümante edin (öğrenme kütüphanesi)
  • Guardrail metrikler belirleyin (test zarar veriyor mu?)

Yapmayın

  • Birden fazla değişkeni aynı anda test etme (multivariate farklı)
  • Anlamlılığa ulaşmadan karar verme
  • Kazananı uygulamadan yeni test başlama
  • Çok küçük değişiklikler test etme (ölçülemeyecek kadar küçük etki)
  • Test grubunu test sırasında değiştirme

Feature Flags

A/B testing'in temeli feature flag'lerdir:

  • Kod içinde "bu özellik açık mı?" kontrolü
  • Server-side toggle ile anında açma/kapama
  • Gradual rollout: %1 → %10 → %50 → %100
  • Kill switch: Sorun çıkarsa anında kapat
  • User targeting: Belirli kullanıcılara özel açma

Paywall A/B Testing

Özel bir A/B testing alanı - doğrudan gelire etki eder:

  • RevenueCat Experiments ile paywall varyasyonları
  • Farklı fiyat noktaları
  • Trial süresi değişiklikleri (3 gün vs 7 gün)
  • Layout değişiklikleri (özellik listesi vs social proof)
  • Birincil metrik: Trial start rate veya LTV

Metrik Örnekleri

TestBirincil Metrikİkincil Metrik
Paywall tasarımıTrial start rateLTV, churn
Onboarding akışıD1 retentionD7 retention
CTA metniTıklanma oranıConversion
Bildirim zamanıAçılma oranıUnsubscribe
Fiyat değişikliğiGelir / kullanıcıTrial start

Varsayımlara değil, verilere dayanarak karar verin. Küçük görünen değişiklikler büyük etkiler yaratabilir.

İlgili Konular

  • Remote Config & Feature Flags
  • A/B Testing (Store Listing Experiments)
  • Conversion Rate (Dönüşüm Oranı)

Bu makaleyi nasıl buldunuz?

Paylaş

← Önceki

Beta Testing

Sonraki →

Crash Reporting (Crashlytics & Sentry)

İlgili Makaleler

Beta Testing

Mobil uygulama beta test süreci rehberi. TestFlight ve Google Play Testing ile closed/open beta, geri bildirim toplama ve kalite güvence stratejileri.

Crash Reporting (Crashlytics & Sentry)

Uygulama çökme raporlama rehberi. Firebase Crashlytics ve Sentry ile crash-free rate yönetimi, stack trace analizi ve production hata izleme.

Performance Profiling

Mobil uygulama performans profiling rehberi. Startup time, frame rate, memory ve battery analizi araçları ile optimizasyon teknikleri detayları.

Unit Testing (Mobil)

Mobil uygulama birim test rehberi. Jest, XCTest ve JUnit araçları, AAA pattern, test coverage hedefleri ve platform bazlı test stratejileri.

E2E Testing (Uçtan Uca Test)

Mobil uygulama uçtan uca (E2E) test rehberi. Detox, Maestro ve Appium ile test otomasyonu, flaky test çözümleri ve bulut test servisleri.