Gereksiz Dizine Eklemeyi Nasıl Durdururum? %70 Durdurma Taktikleri

By

Arama motoru optimizasyonunun (SEO) temelleri arasında yer alan robots.txt dosyası ve site haritaları (sitemap.xml), sitenizin Google ve diğer arama motorları tarafından nasıl keşfedileceğini, taranacağını ve indeksleneceğini belirleyen kritik araçlardır. Özellikle binlerce sayfaya sahip büyük siteler veya e-ticaret platformları için, bu iki bileşenin yanlış yönetimi, önemli “tarama bütçesi (Crawl Budget)” israfına ve kalitesiz sayfaların arama sonuçlarında görünmesine yol açar.

Tarama Bütçesi (Crawl Budget) Kavramının Derinlemesine Anlaşılması

Tarama bütçesi, Googlebot’un belirli bir zaman diliminde sitenizde taramaya ayırdığı sayfa sayısı veya süredir. Bu bütçe sınırlıdır ve özellikle büyük sitelerde yeni ve önemli içeriklerinizin hızlıca dizine eklenmesi için doğru kullanılması hayati önem taşır. Gereksiz veya kalitesiz sayfaların taranmasına izin vermek, bu değerli bütçenin israf edilmesine ve asıl önemli sayfaların gözden kaçmasına neden olur. Amacımız, botların enerjisini sadece trafik getirecek sayfalara yönlendirmektir.

Robots.txt Dosyasının Temel Amacı ve Yanlış Kullanımları

Robots.txt, arama motoru tarayıcılarına hangi bölümleri taramaları ve hangilerini taramamaları gerektiğini söyleyen bir protokol standardıdır. Temel amacı, sunucu yükünü azaltmak ve tarayıcıları gizli veya gereksiz sayfalardan uzak tutmaktır. Ancak, robots.txt dosyasını bir güvenlik önlemi veya dizine eklemeyi engelleme aracı olarak görmek yaygın bir hatadır. Bir sayfayı robots.txt ile engellemek, botun o sayfayı görmesini engeller, ancak başka bir siteden backlink alıyorsa yine de dizine eklenebilir.

Robots.txt ile Tarama Engelleme: Doğru Söz Dizimi Kullanımı

Robots.txt dosyasındaki talimatlar, User-agent (hedef arama motoru botu) ve Disallow (engelleme kuralı) yönergeleri kullanılarak oluşturulur. Örneğin, Googlebot’u tüm siteyi taramaktan alıkoymak için User-agent: Googlebot altında Disallow: / kullanmalısınız. Ancak daha spesifik engellemeler için yıldız (*) ve dolar ($) işaretlerini kullanarak kalıp eşleştirme yapılmalıdır. Yanlış söz dizimi, botların tüm siteyi yanlışlıkla engellemesine neden olabilir, bu yüzden dikkatli test edilmesi gerekir.

Tarama Engellemede “Disallow” Kullanımının Stratejik Alanları

Disallow yönergesi, özellikle düşük değerli veya yinelenen içeriğin bulunduğu alanlar için stratejik olarak kullanılmalıdır. Bunlara tipik olarak site içi arama sonuç sayfaları, oturum açma (login) ve kayıt sayfaları, test veya hazırlık aşamasındaki klasörler, geliştirme ortamları, teşekkür sayfaları ve parametre içeren izleme URL’leri dahildir. Bu sayfaların taranmasını engelleyerek, botların değerli tarama bütçesini asıl SEO değeri taşıyan içeriklere odaklamasını sağlamış olursunuz. Her e-ticaret sitesi, sepet ve ödeme sayfalarını taramadan engellemelidir.

Google Search Console Robots.txt Test Aracı Önemi

Robots.txt dosyanızda bir değişiklik yaptığınızda, bu değişikliğin tüm siteyi yanlışlıkla engellemediğinden emin olmak kritik öneme sahiptir. Google Search Console (GSC) içindeki Robots.txt Test Aracı, bu dosyayı kontrol etmenin en güvenilir yoludur. Bu araç sayesinde, Googlebot’un belirli bir URL’yi tarayıp tarayamayacağını anında test edebilir ve söz dizimi hatalarını canlı ortama geçirmeden önce yakalayabilirsiniz. Bu testler, olası büyük trafik kayıplarını engeller.

Meta Robots Etiketi: İndekslemeyi Kesin Olarak Durdurma

Robots.txt taramayı engellerken, meta robots etiketi (veya X-Robots-Tag HTTP başlığı) dizine eklemeyi kontrol eder. Bir sayfayı Google sonuçlarında kesinlikle görmek istemiyorsanız, robots.txt yerine <meta name="robots" content="noindex"> etiketini kullanmalısınız. Ancak dikkat: Bir botun bu etiketi okuyabilmesi için, robots.txt tarafından engellenmemiş olması gerekir. Aksi takdirde bot etiketi göremez ve sayfa dizinde kalmaya devam edebilir.

Noindex ve Disallow Arasındaki Kritik Farklar ve Seçim

Bu iki yöntem arasındaki temel fark şudur: Disallow (robots.txt) taramayı durdurur (bot sayfaya giremez) ama dizine eklenmeyi garanti etmez; Noindex (meta etiketi) ise dizine eklenmeyi kesin olarak engeller, ancak botun sayfayı taramasına izin verir. Bir sayfayı dizinden kaldırmak istiyorsanız, öncelikle robots.txt’den kaldırmalı ve noindex etiketini eklemelisiniz. Botun etiketi okuması için bir süre taramaya izin vermelisiniz, ardından robots.txt’den tekrar engelleyebilirsiniz.

Parametreli URL’lerin Yönetimi ve Tarama Bütçesi

Özellikle filtreleme, sıralama veya oturum kimliği (session ID) gibi parametreler içeren URL’ler, aynı içeriğin binlerce varyasyonunu oluşturarak tarama bütçesini ciddi şekilde tüketebilir. Gelişmiş Robots.txt kuralları ile bu parametreleri engellemeli veya Search Console’daki URL Parametre Aracı’nı kullanmalısınız. E-ticaret siteleri, bu tür dinamik URL’leri yöneterek tarama bütçesinin büyük bir kısmını kurtarabilirler.

Site Haritası (Sitemap.xml) Kavramı ve Kullanım Amacı

Site haritası, bir web sitesindeki tüm önemli sayfaları listeleyen bir XML dosyasıdır. Amacı, arama motorlarına sitenizdeki tüm önemli URL’lerin bir “yol haritasını” sunmaktır. Bu, özellikle yeni sayfaların veya site içinde derinlerde gizlenmiş sayfaların botlar tarafından hızlıca keşfedilmesini sağlar. Bir site haritası, sitenizde bulunan, dizine eklenmesini istediğiniz URL’lerin bir öncelik listesi olmalıdır.

Site Haritalarında Gereksiz URL’lerden Kaçınma

Bir site haritasının kalitesi, içinde barındırdığı URL’lerin kalitesi ile doğru orantılıdır. Site haritasına noindex etiketi olan sayfaları, robots.txt ile engellenen URL’leri, 301/302 yönlendirmesi yapan sayfaları, yinelenen içerikleri veya son derece düşük kaliteli/boş sayfaları KESİNLİKLE eklememelisiniz. Site haritanız, Googlebot’a hangi sayfaların gerçekten değerli olduğunu göstermelidir.

Site Haritası Bölme (Sitemap Splitting) Stratejisi

Büyük web siteleri (50.000’den fazla URL), tek bir büyük site haritası yerine birden fazla site haritası dosyası kullanmalıdır. Google’ın site haritası başına belirlediği limit 50.000 URL’dir. Haritaları, içerik türüne (blog, ürün, kategori) veya güncelleme sıklığına göre bölmek, sorunları daha hızlı tespit etmenizi ve botların sadece güncel kısımları taramasını sağlamanızı kolaylaştırır. Bu bölünmüş haritaları tek bir Site Haritası Dizin Dosyası (Sitemap Index) ile yönetin.

Site Haritası Dizin Dosyasının Yapılandırılması

Site Haritası Dizin Dosyası, tüm bireysel site haritalarınızı listeleyen ana dosyadır. Bu dosya, Google’a sunulan tek dosyadır ve tarayıcıya tüm bölmeleri nerede bulacağını söyler. Bu dizin dosyasında, her bir alt haritanın son güncellenme tarihini (<lastmod>) doğru bir şekilde belirtmek, botların sadece değişen haritaları kontrol etmesini sağlayarak tarama verimliliğini artırır.

Site Haritasında <lastmod> Etiketinin Akıllı Kullanımı

<lastmod> etiketi, bir URL’nin son değiştirilme tarihini belirtir. Bu, Google’ın o sayfayı yeniden taraması gerekip gerekmediğine karar vermesine yardımcı olur. Ancak, bu etiketi sadece sayfanın içeriği gerçekten değiştiğinde (ufak bir yazım hatası düzeltmesi değil, önemli içerik eklemesi) güncellemek kritik öneme sahiptir. Her sayfa yüklemede otomatik güncelleme yapmak, Googlebot’u yanıltarak tarama bütçesi israfına yol açar.

Google Search Console Üzerinden Site Haritası Gönderimi

Site haritalarınızı GSC üzerinden göndermek, Google’ın haritanızı hızlıca keşfetmesini ve işleme almasını sağlar. Gönderim sonrasında GSC raporlarını düzenli olarak kontrol etmelisiniz. Bu raporlar, Google tarafından kaç URL’nin tarandığını, kaçının geçerli olduğunu ve kaçında hata bulunduğunu gösterir. Hata oranının düşük olması, stratejinizin başarılı olduğunun göstergesidir.

HTML Site Haritasının (Kullanıcı Odaklı) Rolü

XML site haritası arama motorları için tasarlanmışken, HTML site haritası sitenizin alt kısmında yer alan ve kullanıcılar için tasarlanmış basit bir sayfa listesidir. Bu, kullanıcı deneyimini iyileştirir ve site içi linkleme yapısını doğal yolla güçlendirir. HTML site haritası, XML dosyasının yerini tutmaz, ancak ek bir gezinme ve keşif katmanı sunar.

Sayfaların İndeks Durumunun Analizi ve Tespiti

Dizine ekleme verimliliğini artırmak için, hangi sayfaların dizine eklendiğini ve hangilerinin elendiğini bilmelisiniz. GSC’deki “İndeksleme” raporu, bu verileri sağlar. Burada “Taranmadı – şu anda dizine eklenmedi” veya “Yinelenen içerik” gibi durumları tespit ederek, gereksiz dizine ekleme sorunlarının kök nedenini bulabilir ve çözebilirsiniz.

Canoncial Etiketler ile Yinelenen İçerik Kontrolü

Yinelenen içerik (duplicate content), tarama bütçesini tüketen en büyük sorunlardan biridir. Farklı URL’ler üzerinden erişilen aynı veya çok benzer içerikler için, tercih edilen ana URL’yi belirlemek amacıyla <link rel="canonical" href="ana-url-adresi"> etiketini kullanın. Bu, botlara hangi sayfanın asıl otoriteyi taşıması gerektiğini söyler ve dizine ekleme karmaşasını ortadan kaldırır.

Zayıf İçerik (Thin Content) ve Yumuşak 404’lerin Yönetimi

Zayıf içerik (çok az metin, faydasız sayfalar) ve “Yumuşak 404” (sayfanın teknik olarak 200 kodu döndürmesi ancak içeriğin boş veya hatalı olması) sayfaları, tarama bütçesinin israfına yol açar ve sitenizin genel kalite algısını düşürür. Bu tür sayfalar ya iyileştirilmeli, ya birleştirilmeli ya da tamamen kaldırılıp noindex veya 404/410 ile işaretlenmelidir.

301 Yönlendirmeleri ve Tarama Zincirlerinin Önlenmesi

Bir sayfayı kalıcı olarak taşıdığınızda 301 yönlendirmesi kullanmak, hem kullanıcıları hem de botları yeni adrese yönlendirir ve sayfa otoritesini (link equity) aktarır. Ancak, birden fazla 301 yönlendirmesinin birbirini takip ettiği yönlendirme zincirleri (A -> B -> C), tarama bütçesini tüketir ve yavaşlamaya neden olur. Zincirleri kırarak her zaman direkt hedefe (A -> C) yönlendirme yapmalısınız.

Sayfa Hızı ve Tarama Verimliliği Arasındaki İlişki

Sayfa hızı, sadece kullanıcı deneyimi (UX) için değil, aynı zamanda tarama verimliliği için de önemlidir. Googlebot, hızlı siteleri daha fazla ve daha sık tarama eğilimindedir. Sitenizin hızını artırarak (Core Web Vitals’ı iyileştirerek), Googlebot’a sitenizi daha fazla taramak için bir teşvik vermiş olursunuz. Hız optimizasyonu, tarama bütçesini dolaylı yoldan artırır.

Tarama Hata Oranının Düşürülmesi (Crawl Error Rate)

Search Console’daki “Tarama İstatistikleri” raporu, sunucu tarafında yaşanan hataları (5xx) veya istemci tarafında yaşanan hataları (4xx) gösterir. Bu hataların yüksek olması, Googlebot’un sitenizde zorluk çektiği anlamına gelir ve tarama hızını düşürür. 404 (Bulunamadı) hatalarını düzeltmek veya artık var olmayan sayfalar için 410 (Kalıcı Olarak Silindi) kodunu kullanmak önemlidir.

JavaScript (JS) ve CSS Kaynaklarının Robots.txt ile Yönetimi

Modern web sitelerinde, Googlebot’un sayfayı doğru bir şekilde oluşturabilmesi (render) için CSS ve JavaScript dosyalarını taraması gerekir. Eskiden bu dosyalar engellenirdi, ancak artık kritik JS/CSS dosyalarını robots.txt ile ASLA engellememelisiniz. Botun sayfanızı kullanıcı gibi görememesi, hatalı indekslemeye ve sıralama kaybına neden olur. Yalnızca gereksiz, izleme amaçlı veya sunucu yükü oluşturan dosyalar engellenmelidir.

İndeksleme Kontrolü İçin X-Robots-Tag HTTP Başlığı

Özellikle PDF, resim veya Flash gibi HTML olmayan dosyaların dizine eklenmesini engellemek için X-Robots-Tag HTTP başlığını kullanabilirsiniz. Bu başlık, sunucu seviyesinde ayarlanır ve botun dosyayı taramadan veya indirmeden dizine ekleme talimatını almasını sağlar. Bu yöntem, toplu ve hassas indeksleme kontrolü için meta etiketten daha güçlüdür.

Çok Dilli Sitelerde Hreflang ve Tarama Bütçesi

Çok dilli siteler, her dil/bölge kombinasyonu için ayrı bir sayfa oluşturur. Bu durum, potansiyel yinelenen içerik ve artan tarama yükü anlamına gelir. hreflang etiketlerini doğru bir şekilde uygulamak, Google’a hangi sayfanın hangi kullanıcı için olduğunu söyler. Doğru hreflang kullanımı, aynı içeriğin farklı dil varyantlarının gereksiz yere birden fazla kez taranmasını engeller ve bütçeyi korur.

Log Dosyası Analizi ile Bot Davranışını İzleme

İleri düzey SEO uzmanları, sunucu log dosyalarını analiz ederek Googlebot’un sitenizdeki gerçek davranışını izlerler. Hangi sayfaları ne sıklıkla taradığını, hangi yanıt kodlarını aldığını ve hangi saatlerde en aktif olduğunu görerek, robots.txt ve site haritası stratejilerinizi bu gerçek verilere göre ayarlayabilirsiniz. Bu analiz, tarama bütçesi optimizasyonunun en doğru yoludur.

Sürdürülebilir Tarama Bütçesi Optimizasyonu İçin Kontrol Listesi

Tarama bütçesini sürdürülebilir bir şekilde yönetmek için periyodik bir kontrol listesi oluşturun:

  1. Aylık GSC Kontrolü: İndeksleme ve tarama istatistikleri raporlarını inceleyin.
  2. robots.txt Gözden Geçirme: Yeni geliştirme klasörleri veya parametreli URL’ler için engellemeler ekleyin.
  3. Site Haritası Güncellemesi: Yeni ve değerli sayfaları ekleyin, noindex veya 404 olanları çıkarın.
  4. Canonical Audit: Büyük e-ticaret sitelerinde filtreleme ve sıralama sayfalarındaki canonical etiketlerini denetleyin.
  5. Hata Takibi: 404 ve 5xx hatalarını düzenli olarak giderin.

Robots.txt ve Site Haritası Yönetiminde Yapılan En Büyük Hatalar

En yaygın hatalar arasında, bir sayfayı robots.txt ile engellerken aynı anda noindex etiketi kullanmak (bot noindex’i okuyamaz), site haritasına engelli sayfaları eklemek, tüm CSS/JS dosyalarını engellemek ve site haritasını güncellemeyi unutmak yer alır. Bu temel hatalardan kaçınmak, tarama ve indeksleme verimliliğinizde anında ve büyük bir iyileşme sağlar.

İndeksleme Verimliliğinde %70 İyileşme Hedefi

Doğru yapılandırılmış robots.txt ve temizlenmiş bir site haritası ile Googlebot’un enerjisini, sitenizdeki en kaliteli %30’luk içeriğe yönlendirebilirsiniz. Bu, botun değerli olmayan %70’lik kısmı taramasını engellediğiniz anlamına gelir. Sonuç olarak, önemli sayfalarınız daha sık taranır, daha hızlı dizine eklenir ve sıralama potansiyelleri artar.

Tarama Bütçesi ve SEO Performansına Doğrudan Etkisi

Tarama bütçesini optimize etmek, dolaylı yoldan SEO performansınızı artırır. Yeni içerikleriniz hızla keşfedilir, önemli güncellemeleriniz anında algılanır ve sitenizin sunucu performansı üzerindeki yük azalır. Bu teknik optimizasyon, E-E-A-T ve faydalı içerik gibi kalite odaklı sinyallerin Google’a daha hızlı ve etkili bir şekilde ulaşmasını sağlar.

Geleceğin Tarama Yönetimi: API Tabanlı İndeksleme

Google, Search Console’da İndeksleme API’sini (Indexing API) sunarak sitelerin yeni içerikleri veya güncellemeleri anında bildirmesine olanak tanımıştır. Bu API, özellikle büyük ve sürekli güncellenen siteler için geleneksel site haritası ve tarama süreçlerinden bağımsız, neredeyse anlık keşif sağlar. Gelecekte, tarama bütçesini optimize etmede bu API’ler merkezi bir rol oynayacaktır.

Teknik Temeller, Maksimum SEO Verimi

Robots.txt ve Site Haritası yönetimi, bir web sitesinin görünmez kahramanlarıdır. Bu teknik temelleri doğru bir şekilde kurmak ve sürdürmek, sitenizin performansını kökten değiştirir. Gereksiz tarama yükünü azaltarak, Googlebot’un en değerli içeriğinize odaklanmasını sağlarsınız. Bu kılavuzdaki stratejileri uygulayarak, dizine ekleme sürecindeki karmaşayı azaltabilir ve SEO başarınız için sağlam bir zemin oluşturabilirsiniz. Teknik mükemmellik, ilk sayfaya giden kestirme yoldur.

Yazıyı Yazan