Web Sitesi CMS Seçiminde Teknik Performans Testleri

Bir CMS seçimi yalnızca özellik listesine bakıp “hangisi daha güçlü?” demek değildir. Performans, deneyimin temelidir ve performans da hissiyattan değil metriksiz olmaz. Üstelik performans; yalnızca tek bir “hız testi” ile de anlaşılmaz: kullanıcı tarafı metrikleri (LCP/INP/CLS), sunucu tarafı metrikleri (TTFB/P95/P99), ağ/edge/CDN davranışı, veritabanı ve arama katmanı, kuyruk/cron, önbellek stratejileri ve çok kanallı tüketim (web, mobil, API/headless) bir bütün olarak ele alınmalıdır.
1) Testin Amacı ve Kapsamı: “Neyi” Neden Ölçüyoruz?
-
Amaç: CMS adayları arasında teknik performansı karşılaştırmak ve iş hedefleriyle hizalamak.
-
Kapsam:
-
Kullanıcı yolculukları: Ana sayfa → içerik sayfası, kategori/listing, arama/facet, form gönderimi, giriş/çıkış, yönetici içerik oluşturma.
-
Kanallar: SSR (klasik), headless (JSON/GraphQL), mobil web.
-
Çok dilli/çoklu site: Dil anahtarları, hreflang, menşei ülke varyantı.
-
-
Çıktı: Karar anında sunulacak metrik kartı (P95 TTFB, LCP/INP/CLS, 5xx, edge hit ratio, arama RTT, kuyruk uzunluğu).
2) Metrik Taksonomisi: Aynı Dili Konuşmadan Karşılaştıramazsınız
-
Kullanıcı tarafı (RUM/sentetik):
-
LCP (Largest Contentful Paint): Algılanan yüklenme hızı.
-
INP (Interaction to Next Paint): Etkileşim yanıtı.
-
CLS (Cumulative Layout Shift): Görsel stabilite.
-
-
Sunucu/altyapı:
-
TTFB (Time To First Byte), P95/P99 yanıt, CPU/IO, PHP-FPM/Node işçi doygunluğu, DB yavaş sorgu.
-
-
İş metrikleri:
-
Arama yanıt süresi, form gönderim süresi, checkout/başvuru adımları.
Kural: P95 (hatta kritik noktalarda P99) üzerinden karar verin; ortalamalar hatayı saklar.
-
3) PoC Senaryosu ve Seed Veri: “Gerçekçi Fikstür”
-
Seed veri: En az 1.000 içerik, 5–10 taksonomi, 500+ medya (çeşitli boyut/format), 3–5 şablon/pattern.
-
Yolculuklar: 3–5 ana senaryo; her CMS adayı için aynı taslak ve veri.
-
Çoğulluk: 2–3 coğrafi POP, mobil/masaüstü profilleri, düşük/orta/hızlı ağ koşulları.
İpucu: “Demo verisi” yerine gerçek kampanya içeriğine benzer örneklerle test yapın.
4) Ortam Eşliği: Staging ≈ Prod
-
Sürüm uyumu: PHP/NGINX/Node, DB, cache/Redis, CDN/WAF politikaları.
-
Konfig eşliği: Önbellek anahtarları (varyant), gzip/brotli, HTTP/2/3.
-
Veri boyutu: Prod’un temsil edici alt kümesi (PII maskeli).
Not: Eş olmayan ortamda yapılan test “laboratuvar güzeli” üretir.
5) Edge/CDN Stratejisi: Testte “Kenar Isısı” ve Varyant Anahtarları
-
Kenar (edge) ısındırma: En yoğun 20–50 URL dağıtım sonrası warm-up.
-
Varyant anahtarları: Dil, cihaz, ülke; gereksiz varyant üretmeyin (edge hit düşer).
-
Header disiplinleri:
Cache-Control
,stale-while-revalidate
,ETag/Last-Modified
.
KPI: Anonim trafik için edge hit ratio ≥ %85.
6) Core Web Vitals Test Disiplini
-
Sentetik + RUM: Lighthouse/WebPageTest, ardından gerçek kullanıcı ölçümlemesi.
-
Hedefler: Mobilde LCP ≤ 2.5 s, INP < 200 ms, CLS < 0.1 (pazara göre esnetilebilir).
-
Ön koşullar: Hero görsel
preload
,fetchpriority
, kritik CSS, route-conditional asset.
7) Sunucu Tarafı: TTFB’nin Anatomisi
-
TTFB sürücüleri:
-
Önbellek isabeti (page/dynamic/render cache),
-
DB sorgu yoğunluğu ve indeksler,
-
Arama/facet maliyeti,
-
Kuyruk/cron etkileşimi,
-
PHP-FPM/Node işçi doygunluğu.
-
-
Korelasyon: TTFB yükselince hangi katman kırmızıya düşüyor? Panolarda birlikte görün.
8) Arama (Search) ve Faceted Navigation Testleri
-
Senaryo: 3–4 filtre kombinasyonu, sayfalama, sıralama.
-
Metrikler: P95 sorgu süresi, indeks gecikmesi, facet sayısı/derinliği, min_doc_count eşikleri.
-
Degrade planı: Arama down → basit arama modu + nazik kullanıcı mesajı.
9) Medya Boru Hattı ve Görsel Ekonomisi
-
Format: WebP/AVIF dönüşümü;
srcset/sizes
;loading="lazy"
,decoding="async"
. -
Görsel bütçesi: Mobil toplam JS/CSS/görsel KB sınırları; hero görsellere öncelik.
-
CDN işleme: Kenarda kırpma/ölçekleme, varyant anahtarlarını kontrollü artırın.
10) Asset Yönetimi: Paket Diyeti (JS/CSS)
-
Koşullu yükleme: Her rotaya gerekli dosya; “global şişirme” yok.
-
Kod bölme: Dinamik import; kullanılmayan modülleri temizleme.
-
Bütçe kapısı: JS ≤ 150KB, CSS ≤ 100KB (gzip, mobil).
Vaka notu: Tek “slider” bileşeni 300KB JS getiriyorsa, yalnız ilgili sayfalara çağırın.
11) Önbellek Mimarisi: Keys–Contexts–Tags–Max-Age
-
Render cache doğru yapılandırılmadığında cache miss olur; global purge felaket getirir.
-
İnvalidasyon: İçerik güncellendiğinde tag bazlı hedefli purge.
-
A/B: Cache politikası değişince TTFB/LCP farkını sayısal gösterin.
12) Cron, Kuyruk ve Arkaplan İşleri
-
Ölçümler: Bekleyen iş, ortalama tamamlama süresi, zehirli iş (tekrar tekrar hata).
-
Senaryo: Medya küçük resim üretimi, arama indeks güncellemesi, sitemap ping, e-posta.
-
Plan: Trafik pikinde cron kapalı/takvimli; yayın sonrası hedefli aç-kapa.
13) Yönetici (Admin) İş Akışları: İçerik Üretkenliği ≠ Sadece UI
-
Testler: Yeni içerik oluşturma, düzenleme, yayın; menü/modül ekleme; çeviri eşlemesi.
-
Metrikler: İlk içerik üretim süresi, revizyon/karşılaştırma; admin TTFB.
-
Hedef: Editörlerin time-to-first-publish metriği ile CMS adaylarını kıyaslayın.
14) Güvenlik Başlıkları ve Performans
-
CSP/HSTS/Referrer-Policy/Permissions-Policy: Doğru yapılandırıldığında INP/CLS iyileşir (3P script enflasyonu frenlenir).
-
WAF/hız limiti: Bot kaynaklı aşırı istekleri keser → TTFB bile olumlu etkilenebilir.
-
Test: Güvenlik başlığı değişimlerinin CWV’ye etkisini ölçün.
15) Erişilebilirlik (A11y) ve Performans Bağı
-
A11y denetimi: Başlık hiyerarşisi, alt metin, odak yönetimi, kontrast, klavye erişimi.
-
Bağ: A11y iyileştirmeleri genellikle INP/CLS’yi düzeltir; dönüşüme katkısı ölçülebilir.
-
Kapı: CI/CD’de a11y hataları kırmızıysa yayına izin yok.
16) Yük (Load) Testi: RPS ve Eşzamanlılık
-
Senaryo: Soğuk/ısınmış cache, farklı RPS seviyeleri.
-
Metrikler: P95/P99 yanıt, hata oranı, CPU/IO, işçi doygunluğu.
-
Eşik: Doygunluk noktasında degrade mekanizmaları tetikleniyor mu?
17) Gerilim (Stress) Testi: Sınırlar Nerede?
-
Amaç: Sistem nerede kırılıyor, hangi katman ilk alarmı veriyor?
-
Gözlemler: 5xx artışı, kuyruk birikmesi, DB kilitlenmeleri, CDN oranları.
-
Ders: “Ek CPU ekleyelim” yerine kök nedene gidin.
18) Kalıcılık (Soak/Endurance) Testi: Saatlerce Süren Gerçeklik
-
Süre: 4–8 saat.
-
Metikler: Bellek sızıntısı, log büyümesi, cron/kuyruk kilitleri, arama indeks gecikmesi.
-
Kriter: Test sonunda performans ~başlangıç değerlerine yakın olmalı.
19) API/Headless Performansı
-
Uçlar: REST/GraphQL; sparse fieldsets,
include
kullanımı; sayfalama. -
Kısıtlar: Rate limit, TTL, CDN cache.
-
Sözleşme: Sürümleme ve sözleşme (contract) istikrarı; istemci hatalarını engellemek için “guard rail”ler.
20) Görsel Regresyon ve Şablon Stabilitesi
-
Araçlar: Percy, Loki, Playwright screenshot.
-
Senaryo: Tema/şablon değişimi sonrası piksel farkı; OG/Twitter card görselleri.
-
Bağ: CWV ve a11y ile birlikte “yayın kapısı”na bağlayın.
21) Test Verisi ve Gizlilik: PII Maskeleme
-
Maskeler: E-posta/telefon/ID; test ortamında gerçek PII kullanmayın.
-
Link hijyeni: Parametrelerde PII yok; analitik testlerinde anonimleştirme.
-
Uyum: KVKK/GDPR; saklama süreleri ve erişim izleri.
22) İzleme ve Panolar: Test Çıktısı Operasyona Dönmeli
-
Panolar: TTFB, 5xx, LCP/INP/CLS, edge hit, DB yavaş sorgu, kuyruk uzunluğu, arama RTT.
-
Alarm eşikleri: “P95 TTFB > 800ms (5 dk)” uyarı; “5xx > %1 (3 dk)” P1.
-
Korelasyon: Alarm notunda “son dağıtım diff’i” ve ilgili PR.
23) Otomasyon ve CI/CD Kapıları
-
Kapılar: Lighthouse bütçeleri, a11y kontrolü, schema/canonical/hreflang regex testleri, görsel regresyon, güvenlik audit.
-
Script’ler: CDN hedefli purge, warm-up, sitemap ping, RUM ölçüm başlatma.
-
Kural: Kırmızıysa dağıtım yok; canary geçmeden tam kesim yok.
24) Karşılaştırma ve Skor Kartı
-
Ağırlıklar (örnek):
-
Performans & CWV (25%), Sunucu & Edge (20%), Arama/Facet (15%), Admin üretkenliği (10%), Güvenlik başlık etkisi (10%), A11y (10%), Dayanıklılık (10%).
-
-
Sunum: Her CMS için kanıtlı (grafik + sayı) kart; artı/eksi notları ve riskler.
-
Karar cümlesi: “Aday X, P95 TTFB’de %18, LCP’de %14 daha iyi; arama RTT’si %22 daha düşük; TCO farkı %8.”
25) 90 Günlük Uygulama Planı
Ay 1: PoC senaryoları, seed veri, ortam eşliği, edge/CDN planı, RUM + sentetik ölçüm kurulumu.
Ay 2: Yük/gerilim/kalıcılık testleri; arama/facet ve admin iş akışları; a11y + görsel regresyon; CI/CD kapıları.
Ay 3: Son karşılaştırma; risk/azaltım listesi; edge varyant optimizasyonu; yönetim özeti ve yol haritası.
KPI: LCP/INP/CLS hedefleri, P95 TTFB < 600ms, edge hit ≥ %85, arama RTT < 500ms (örnek), a11y kritik hata = 0.
26) Vaka A: İçerik-Ağır Kurumsal Site – CDN ve Route-Conditional
Belirti: Mobil LCP P95 ~3.1s.
Aksiyon: Hero preload
, kritik CSS; slider JS yalnız ilgili rotada; CDN warm-up.
Sonuç: LCP P95 2.3s; edge hit %89.
27) Vaka B: Faceted Navigation – “Parametre Patlaması”
Belirti: Arama sayfalarında TTFB P95 > 1.2s.
Aksiyon: Facet sınırları, min_doc_count
, popüler facet önbelleği; indeks penceresi.
Sonuç: Arama RTT 480ms; TTFB P95 590ms.
28) Vaka C: Kuyruk Birikmesi – Gece Dalgalanması
Belirti: 02:00–04:00 arası P95 artıyor.
Aksiyon: Paralel işçi + parti boyutu; zehirli iş algısı; medya yeniden işleme penceresi.
Sonuç: Kuyruk sabit, P95 dalgalanması yok.
29) Vaka D: Headless API Sözleşmesi
Belirti: Mobil uygulamada API yanıtları dalgalı.
Aksiyon: Sparse fieldsets, include
rasyonalizasyonu, TTL + CDN, rate limit; versiyonlu uçlar.
Sonuç: P95 API yanıtı %35 iyileşme; mobil “time-to-interact” düşüşü.
30) Maliyet–Performans Eğrisi ve Yönetim Özeti
-
Tablo: “LCP -300ms = +X$ CDN/optimizasyon; SEO/dönüşüm etkisi = Y$.”
-
Anlatı: Performans yatırımlarını gelir, memnuniyet ve operasyon maliyeti ekseninde çerçeveleyin.
-
Karar: En düşük TTFB’nin yanında en istikrarlı (P95/P99 dar aralık) aday tercih edilir.
Sonuç: Performans Testi, CMS Seçiminin “Bilim Dili”dir
Özellik listeleri tartışmayı başlatır ama performans testleri kararı kanıtla mühürler. Bu rehberde; PoC senaryosu ve gerçekçi veri, RUM + sentetik ölçüm, edge/CDN stratejisi, CWV hedefleri, sunucu/DB/arama/kuyruk katmanları, a11y & görsel regresyon, yük/gerilim/kalıcılık testleri ve CI/CD kapılarıyla tekrarlanabilir bir değerlendirme çerçevesi kurduk.
Öneri: Bugün PoC senaryolarını yazın, seed veri setini hazırlayın ve ortam eşliğini sağlayın. Ardından RUM + Lighthouse ölçümlerini entegre edip CDN warm-up ve varyant politikalarını netleştirin. Yük–gerilim–kalıcılık turunu koşturun ve sonuçları ağırlıklı skor kartında puanlayın. Üç hafta içinde elinizde “hangi CMS?” sorusuna metriklerle cevap veren berrak bir tablo olacaktır.