Log Analizi

Log File (Günlük Dosyası) Nedir?

Bilgisayar sunucuları, işletim sistemleri, ağ aygıtları ve bilgisayar uygulamaları, bir işlem gerçekleştirdiklerinde otomatik olarak günlük girişi adı verilen dosya üretir. Bu günlük girişlerin kayıt altına alındığı yerler ise günlük dosyalarıdır. Bilinen adıyla log file aslında SEO ve dijital pazarlama bağlamında, bir ziyaret botu ya da bir insan tarafından bir sayfa ne zaman görüntülenmek istenirse gerçekleşen eylem türüdür.

Sunucu günlük kaydı, W3C konsorsiyumunun Ortak Günlük Formatı’nda çıktı şeklinde özel olarak programlanmıştır.

Wikipedia’dan alınan sunucu günlük kaydı örneği;

127.0.0.1 user-identifier frank [10/Oct/2000:13:55:36 -0700] “GET /apache_pb.gif HTTP/1.0” 200 2326

 

  • 127.0.0.1- Uzak ana makine adı. Bu örnekte olduğu gibi, DNS ana makine adı kullanılamıyorsa ya da DNS Lookup kapatıldığında bir IP adresi gösterilir.
  • User-identifier- RFC 1413 kullanıcının uzak günlük adı/ kimliğidir. (Bu önemli değil.)
  • Frank- Sayfayı isteyen kişinin kullanıcı kimliği. Oturum açtıktan sonra bir sayfayı her ziyaret ettiğimde, Moz’un günlük kayıtlarında Moz’un profilinde gördüğüm bilgilere dayanarak muhtemelen “SamuelScott” veya “392388” yazısı görüntülenir.
  • [10 / Eki / 2000: 13: 55: 36 -0700]- Söz konusu eylemin tarih, saat ve saat dilimini gösterir.
  • GET /apache_pb.gif HTTP / 1.0- “GET”, gerçekleştirilebilen iki komuttan biri (diğeri “POST”). “GET”, “POST” bir şey gönderirken (örneğin bir forum yorumu gibi) bir URL alır. İkinci bölüm yani apache_pb.gif HTTP erişilen URL’dir ve son bölüm erişilen HTTP sürümüdür.
  • 200- Döndürülen belgenin durum kodu.
  • 2326- Döndürülen belgenin bayt cinsinden boyutu.

Not: Bir alanda, bilgi olmadığında tire görüntülenir.

Kullanıcı veya Googlebot herhangi bir web sitesinde bir sayfayı her ziyaret ettiğinde, bu bilgilere sahip bir satır sunucu tarafından çıktı alınır, kaydedilir ve saklanır.

Günlük girdiler belirli bir sunucunun, ağın veya uygulamanın etkinliğinin düzeyine bağlı olarak her saniyede birkaç ila bin arasında herhangi bir yerde sürekli olarak oluşturulur.

Günlük Dosyalara Erişim

Farklı sunucu türleri günlük dosyalarını farklı şekilde depolar ve yönetir. Aşağıda, en popüler üç sunucunun günlük verilerini bulma ve yönetme ile ilgili genel kılavuzları verilmektedir:

 

Log Analizi Nedir?

Log analizi, verilerden bir şeyler öğrenmek için günlük dosyalarına geçme işlemidir. Log analizi için bazı ortak nedenler şunlardır;

Development and quality assurance (QA)/ Geliştirme ve Kalite Güvencesi: Bir program ya da uygulama oluşturulmasında sorunlu bug’ların kontrol edilmesi için yapılan programlamanın düzgün çalışıp çalışmadığından emin olmak için

Network troubleshooting / Ağ Sorunlarını Giderme: Bir ağdaki yanıtlama ve sistem hatalarını düzeltme

Customer service / Müşteri Hizmetleri: Bir müşterinin teknik bir ürünle ilgili bir sorun yaşaması durumunda sorunun ne olduğunun belirlenmesi

Security Issues / Güvenlik konuları: Saldırı olaylarını ve diğer izinsiz girişleri araştırmak

Compliance matters / Uyum Konuları: Kurumsal firma ya da devlet politikalarına yanıt olarak bilgi toplama

Technical SEO / Teknik SEO: Aşağıda ayrıntılı olarak inceleyeceğimiz kısım teknik SEO olacak.

 

Seo Log Analizi

Günlük dosyalarınız, arama motorlarının web sitenizi nasıl taradığını ifade eden ve %100 doğru olan verileri içerir. Günlük dosyalar sayesinde Google’a sitenizi tarama ve tanıma konusunda yardımcı olarak, gelecekteki SEO çalışmalarınızdan daha yüksek verim alabilirsiniz. Log analizi, teknik SEO’un bir yönüdür ve günlüklerinizde bulunan sorunları düzeltmek, size daha yüksek sıralama, daha fazla trafik ve daha fazla dönüşüm, satış kazandıracaktır.

Nasıl Yardımcı olabilir?

  • Yanıt kodu hatalarının çok fazla olması Google’ın web sitenizin taramasını ve belki de sıralamalarını düşürmesine neden olabilir ancak günlük analizler sonucunda bu hata kodlarının rahatlıkla farkına varabilirsiniz.
  • Arama motorlarının SERP’lerde görünmesini ve sıralamasını istediğiniz yeni ve eski her şeyi taradığından emin olmak istersiniz, bunu kolaylıkla öğrenebilirsiniz.
  • Tüm URL yönlendirmelerinden gelen bağlantı sularının ( Link Juice) hedefe geçmesini sağlamak çok önemlidir. Log analizi bunların kontrolünü sağlamanıza yardımcı olur.

 

Günlük(Log) Analiz Nasıl Yapılır?

Günlük analiz yani kontrol nadiren düzenli olarak yapılır. Log dosyaları genelde bir hata ya da arıza ile karşılaşıldığında kontrol edilir. Bir web sitesinin, her biri günde on sayfaya gidip 10,000 ziyaretçi alırsa, sunucu her gün 100.000 günlük girişi olacak bir günlük dosyası oluşturur. Bu verilerin manuel olarak kontrol edilmesi imkansızdır.

SEO için bu verileri toplamak ya diğer bir bağlamda günlük analizi kolaylaştırmak için 3 genel yol vardır;

  • Excel’de oluşturmak
  • Splunk veya Sumo mantığı gibi özel yazılımlar
  • ELK Yığın açık kaynaklı yazılım

 

Excel’de oluşturmak basit günlük analizi yapmak için hızlı ve kolay yoldur, ancak dezavantajı, yalnızca belirli bir zaman içindeki bir anlık görüntülenme verilerinin olmasıdır. Bu basit yöntemle genel görünümdeki eğilimleri göremeyiz. Bu nedenle en iyi veriyi elde etmek için, tescilli araçları veya ELK Yığını kullanmak çok önemlidir.

Splunk ve Sumo-Logic, öncelikle işletme şirketleri tarafından kullanılan tescilli log analiz araçlarıdır. ELK Stack’e ait üç platform (Elasticsearch, Logstash ve Kibana) ücretsizdir ve açık kaynak olan Elasticsearch daha küçük işletmeler tarafından daha sık kullanılır. (Bilgilendirme: Logz.io adresinde kendi iç sistemlerimizi izlemek ve kendi günlük yönetimi yazılımımızı temel almak için ELK Yığını kullanılır.)

Günlük Verilerdeki Teknik SEO Bilgileri

Günlük verilerinize eriştikten sonra ve bunları nasıl kullanmanız gerektiğini öğrenmelisiniz. Ele alınması gereken birçok önemli teknik SEO konusu vardır. Günlüklerinizde neyi inceleyeceğinizi göstermek için örnek bir web sitenin verileri ile teknik SEO kontrol panelinin ekran görüntüleri aşağıdadır.

Bot Tarama Hacmi

Baidu, BingBot, GoogleBot, Yahoo, Yandex ve diğerlerinin belirli bir dönem boyunca yaptıkları istek sayısını bilmek önemlidir. Örneğin, Rusya’daki aramalarda bulunmak istiyorsanız, ancak Yandex web sitenizi taramıyorsa, bu bir sorundur.

Yanıt Kodu Hataları

Moz, farklı statü kodlarının anlamları hakkında güzel açıklamalar veriyor. Özellikle çok önemli olan 4XX ve 5XX hatalarını hemen bildiren bir uyarı sistemi kurulumuna sahip.

Geçici Yeniden Yönlendirmeler

Geçici 302 yönlendirmeleri, eski URL’den yeni URL’ye dış bağlantıların “bağlantı suyu” nu iletmez. Neredeyse her zaman, 302 yönlendirmeleri kalıcı 301 yönlendirmesi olarak değiştirilmelidir.

Bütçe Atıklarının Taranması

Google, çeşitli faktörlere dayalı olarak her web sitesine bir tarama bütçesi belirler. Tarama bütçeniz günde 100 sayfa (veya eşdeğer veri miktarı) ise, o zaman 100’ün hepsinin SERP’lerde görünmesini istediğinizden emin olmak istersiniz. Robots.txt dosyası ve meta-robots etiketlerinize ne yazdığınızın bir öenmi yok, tarama bütçenizi reklam açılış sayfalarında, dahili komut dosyalarında ve diğer şeyler için de boşa harcamış olabilirsiniz. Günlükler size bunu yukarıda kırmızı olan iki betik tabanlı örnekler gibi gösterecektir.

Tarama limitinize ulaştıysanız ancak yine de arama sonuçlarında görünmeye başlaması için dizine eklenmesi gereken yeni içerikleriniz varsa, Google sitenizi bulmadan önce terk edebilir. Bu noktada günlüklerin size faydası taranmasının işe yaramadığı sayfaları göstermesi olacaktır.

Yinelenen URL’lerin Taranması

URL parametrelerinin eklenmesi (genellikle pazarlama amacıyla izlemede kullanılır) arama motorlarının aynı içeriğe sahip farklı URL’leri tarayarak tarama bütçelerini harcamalarına neden olur. Bu sorunu gidermek hakkında bilgi edinmek için, Google’da ve Arama Motoru Land kaynaklarını okuyabilirsiniz.

Tarama Önceliği

Google, web sitenizin önemli bir sayfasını veya bölümünü görmezden gelebilir (tarama yapmaz veya dizine eklemez). Günlükler, hangi URL’lerin ve / veya dizinlerin en çok dikkat çektiğini size gösterecektir. Örneğin, hedeflenen arama sorgularını sıralamaya çalışan ancak Google’ın yalnızca altı ayda bir kez ziyaret ettiği bir dizinde oturan bir e-kitap yayınladıysanız, o e-kitaptan organik arama trafiği almayı bekleyemezsiniz.

Olması gerektiği sıklıkta güncellenmesine rağmen web sitenizin bir kısmı çok sık taranmazsa XML bağlantınızın yapısını ve XML site haritanızdaki tarama önceliği ayarlarını kontrol etmeniz gerekebilir.

Son Tarama Tarihi

Dizine eklenmesini umduğunuz bir şeyi hızlıca yüklediniz mi? Günlük dosyaları, Google’ın onları ne zaman taradığını size söyleyecektir.

Tarama Bütçesi

Günlüklerin bize sağladığı verilerden ipucu yakalamamızı sağlayan diğer bir gösterge, Googlebot’un sitedeki gerçek zamanlı etkinliğidir; çünkü arama motorunun bir web sitesine atadığı tarama bütçesi Google’ın siteye verdiği değeri gösterir. Google ideal bir şekilde kötü bir web sitesinde değerli tarama süresini harcamak istemez.

Burada, Googlebot’un 24 saat içinde 154 tarama isteğinde bulunduğunu görmekteyiz. Bunun iyi bir rakam olduğunu söyleyebiliriz

Yazar:admin 16:15 'de yayinlandi.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir