Google önbelleğinden hatalı sayfaları kaldırın.

| 28 Mart 2012 | 64 Yorum




Google  arama motorundan hatalı web sayfaları kaldırmak sitemiz için önemlidir.

Sitenizi içeriğini yeni bir domaine taşıdınız ve eski sitenizde de farklı sayfalara yer veriyorsunuz veya bazı sayfaları sildiğimizi düşünelim. Bunu biz yaptık ancak Arama Örümcekleri belli aralıklarla sayfamızı ziyaret edip içerikleri indeksler. Eğer önceden indekse alınmış sayfa bulunamıyorsa bunları hepsi kayıt altına alınır hatta sunucunuz hizmet kesintisi oluşturduysa tüm sitenizin sayfalarına da ulaşamayacaktır. 404 olarak  isimlendirilen bu hata sitenizin arama sonuçlarında gerilere düşmesine neden olur.  Google web yöneticisi araçlarında web üzerinde siteniz üzerinden arama sorgularına baktığınızda gösterim oranlarınızın düştüğünü göreceksiniz.

URL kaldırma için Şimdi şu adımları uygulayalım.

1. Öncelikle www.google.com/webmasters/ sayfasından hesabımıza giriş yapalım. Eğer yoksa kaydımızı yaptıralım.

2. Yok olanlar için yazıyorum. Site Ekle kısmından yönetmek istediğiniz URL adresini giriyoruz.

3. Daha sonra sitenin bizim yönetimimizde olduğunu Google a belirtmek gerekiyor. Bunun için site dogrulama işlemini yapmamız gerekiyor. Bunu detaylı anlatmadan sadece web arayüzünden indireceğiniz bir dosyayı, sitenizin kök dizinine koymanız veya verilen bir html kodunu index sayfanız içinde belirtilen alanlara yapıştırmanız gerektiğini söyleyeyim. Bu işlemlerden sonra adımlara devam edip site dogrulama yı tıklatmamız yeterli

.



 

4. Kontrol paneli > Tanılamalar > Tarama hataları kısmında kısmında DNS , Sunucu Bağlantı  ve Robots.txt Getirme  ile ilgili bir sıkıntı olmadığını ama 697 adet erişilemeyen sayfa olduğunu görüyorum. Bu ekran görüntüsünün altında ilgili URL adları listelenmiş durumda. Bunları tek tek tıklatığınızda hata ayrıntılarını, sitemap haritası içinde olup olmadığını ve bu sayfanın dahili ve harici linklerini göreceksiniz.

5. Yine bu sayfada indirme butonunu tıklatarak tüm sayfaları Excel sayfasına alıyoruz. CrawlErrorsList_siteadı.xlsx veya .xls şeklinde bir dosya oluşacaktır.

6. Bu dosya üzerinde bazı formüller ile dosya adını net olarak elde edelim. E sutununda yazan bilgileri alıp hepsini web site kökünde yer alan Robots.txt dosyasına yapıştıralım. Bu formülleri sırası ile B1,C1,D1 VE E2 alanarına yazıp, alt satırlara kopyalıyoruz. Bu işlem çok fazla URL hatası alan siteler için kolaylık sağlayacaktır. Eğer hata sayınız fazla değilse excel işlemini atlayabilirsiniz.


bu alan istek üzerine sonradan güncellendi o yüzden görsellerle formüller farklı olabilir ama aşağıda tümleşik halleri ve ingilizce versiyonları vardır. 

Hatalı URL yi, CSV dosyası olarak indirirseniz;

A1 hücresine kırık linki,  B1 hücresine aşağıdaki formülerden uygun olanını yapıştırın.

Türkçe;

=PARÇAAL(A1;MBUL(“/”;A1;8);MBUL(“,404”;A1;1)-MBUL(“/”;A1;8))

İngilizce de;

=MID(A1;SEARCH(“/”;A1;8);SEARCH(“,404”;A1;1)-SEARCH(“/”;A1;8))

C1 Hücresine;

=”Disallow: “&B1

Eğer

Hatalı URL yi, Google dökümanı olarak indirseniz;

B2 Hücresine 

        =PARÇAAL(A1;MBUL(“/”;A1;8);UZUNLUK(A1)-MBUL(“/”;A1;8))

veya ingilizce için

=MID(A1;SEARCH(“/”;A1;8);LEN(A1)-SEARCH(“/”;A1;8))

C1 Hücresine;

=”Disallow: “&B1


7. Robots.txt ye Disallow  olarak URL ekleme

8. URL kaldırma isteğinde bulunma

Site yapılandırma> Tarayıcı erişimi üzerinden URL’leri kaldır sekmesine gelip, Excelde D sütundaki alanları tek tek yapıştırıp, sayfa arama sonuçlarından ve bellekten kaldırmak için istekte bulunuyoruz. Excel den Web Gezgini arayüzüne veya tam tersi geçişlerde SHIFT + ALT kombinasyon ile tuşlara basarsanız sayfalar arasında hızlı geçiş sağlarsınız. Bu özellikle çok fazla URL sayfası hatası durumunda kolaylık sağlar.

9. Tüm bu işlemler tamamladığında Tanılamalar> Tarama Hataları sekmesinde tüm hatalı URL leri seçip Düzeltildi olarak olarak işaretleyelim. Gösterim satırına kadar seçme yapabileceğinizden bu işlemleri Göster satır 500 şeklinde işaretleyip tüm sayfalarınız için yapmanız gerektiği hatırlatayım.

Sonuç ;Bir sonraki boot taramasında tüm 404 URL hataları sıfırlanacaktır. Arama sorgularından sitenizin gösterim sayısının artığını gözlemleyebilirsiniz.

 

Robots.txt ile ilgili bir kaç ipucu:

Eğer robots.txt de bir problem olduğunu düşünüyorsanız ;

Google ve Diğer Arama Motorları Robots.txt dosyasını UFT-8 formatında olmasını tercih eder. Bazen PHP işlemleri ile oluşturulan dosyalarda  UFT-8 formatı BOM denilen Byte Order Mark ï »¿ işareti dosyanın başına eklenir, bu dosyanın Unicode yani evrensel bir karekter seti gösterdiğini belirtir. Robots.txt  BOM  içermeyecek şekilde oluşturulmalıdır.  Notepad++  gibi bir arayüz ile robots.txt dosyasını açın ve UFT BOM dönüştür seçeneği ile kaydedin. Gereksiz boş satırları silin. Resmi formata göre  sitemaptan önce Allow: / kullanmak tavsiye edilir.

Bir başka nokta Boot sitenizi haritanız doğrultusunda hemen indekslemeyebilir sabır gösterip beklemelisiniz. Ben 3-4 gün içersinde kısmi olarak indekslemenin başlayacağını düşünüyorum. Kalıcı bağlantınızın formatına bağlı olarak yani / sonlandırma kullandıysanız “Bir dizin olarak algılandı; belirli dosyaların farklı kısıtlamaları olabilir” uyarısı sayfanızın indekslenmeyeceği anlamında değildir.

Başka bir nokta ;

User-agent: *
Disallow: /

sitenin tamamı Boot motorları tarafından engellenir. Eğer sadece

User-agent: *
Disallow:

yazdığımızda yani / kullanmaz isek bu Allow: veya Allow: / yazılımlarına eşdeğerdir. Boot lar siteye erişebilir.

  • Bir kuralın tüm dosyaları ve dizinleri etkilemesini istiyorsak / kullanalım.
  • Dosyaları veya dizinleri ayrı ayrı belirtmek için

/dizi/dosya.html
/dizi/ornek/



Kategori: İp Uçları, Webmaster

Bora M. Deniz ()

Teknoloji, internet, ve bilişim gibi konularda paylaşımlarım ve yazılarımla 2011 den beri teknorapor.com dayım. Sosyal medya da yararlı bulduğunuz yazılarımı paylaşmanız dileklerimle... The author shares and writings IT, internet and technology news blog offering

Yorum (64)

Trackback URL | Yorum RSS

  1. çok güzel bir anlatım olmuş. Faydasını gördüm.

  2. Fikret diyor ki:

    Arkadaşım inan çok işime yaradı. Bildiklerimizi paylaşırsak zaten biyerlere gelebiliriz. emeğine sağlık. Kaptın 5 yıldızı 🙂

    • editor diyor ki:

      Faydalı olmasına memnun oldum olabildiğince pratik ve görsel yazmaya çalışıyorum. Yıldız içinde teşekürler tavsiyen diğer okuyucuların dikkatini çekecektir.

  3. hediye diyor ki:

    Hocam, bu arada bu dedikleri uyguladım fakat Site hatalarında bir süre sonra bu hatalar tekrar çıkıyor.

    –İstek üzerene bazı önemli sayfalar kaldırıldı.
    ve
    –Bazı önemli sayfalar robots.txt tarafından engellendi.

    uyarı mesajı almama rağmen hatalı linkler tekrar dönüyor. bu konu hakkında fikrin ve önerin varmı? şimdiden teşekkür ederim.

    • editor diyor ki:

      merhaba
      Web master tools da bir simulasyon alanı var. Burada senin taranan robots.txt dosyan yer alıyor.
      -Site yapılandırma
      -Tarayıcı erişimi
      -Engellenen URL’ler (Robots.txt)
      -URL’ler Test etmek için URL’leri ve user-agents’ları belirtin.
      Buraya ilgili sayfanın tam adresini yazıp, test edin. Bu sayfaya erişim olmaması lazım.
      -Tekrar haberleşelim.

      • hediye diyor ki:

        tekrar merhaba. öncelikle ilgin için çok teşekkür ederim.

        test bölümünden hatalı url leri yazıp test ettim. linklerin bazıları engelleniyor ama bazılarına ise hala izin veriyor. izin verilen linkleri tekrar kontrol ettim. robots.txt de Disallow: / ile bloklanmış görünüyor, sitemap.xml de de hatalı link yok.

        bu konu hakkında herhangi bir bilgin varmı?

        Teşekkür ederim.

        • editor diyor ki:

          Rica ederim 🙂 Google eş zamanlı olarak çalışamıyor, URL hatalarını belli bir zaman içinde düzeltebiliyor. URL kaldırma isteğinde bulunduğunde önce beklemede diyor sonra sonra bu istek siliniyor ancak hemen işleme hemen sokulmuyor. Mesela benim sitemde ki URL yapısını değiştirdiğim halde aramalarda hala eski formattaki yapı kısmen devam ediyor. Bugun bende bir ornekfeed le biten bir hata aldım inceledim bu aslında yapı ornek/feed şelinde yani biraz bekleyelim. Eğer robots.txt ile engellediysen ve URL kaldırma isteğinde bulunduysan ve test ettinde bu hatalı URL yapısına izin verilmiyorsa işlem tamamdır.

  4. hediye diyor ki:

    Anladım, bekleyelim bakalım 😉 yine ilginç bişeyle karşılaşırsam rahatsız ederim 🙂
    Teşekkürler.

  5. yasin diyor ki:

    Merhaba Hocam sitemi daha dün google verdim ama lanet olası bir sorun var başımda, “Site haritasında robots.txt tarafından engellenen URL’ler bulunuyor.” Diye bir hata alıyorum resim de var > http://takiliyoz.org/uploads/hata1.png
    Robots.txt’yi o kadar değiştirdim ama sorun aynı, sitemap’i tekrar onlarca kes google ekledim yine aynı, hatta sitenin tüm dosyalarını sildim tekrar yeniden kurdum ama sorun hep aynı napacam ? SAYGILAR…

    • editor diyor ki:

      permalink yani kalıcı bağlatın / ile bitiyor bu durumda bu mesajı alıyor olabilirsin. Sonuçta google bunu bir klasör olarak algılıyor ve genel olarak bu uyarıyı yapıyor. inurl:orneksite.com şeklinde : dan sonra arada boşluk olmadan bir test et. Sayfalarının indekslendiği göreceksin. Yeni sitelerde indeks biraz gecikebilir. kolay gelsin 🙂

  6. LEVENT diyor ki:

    yazınızı çok başarılı buldum tşkler.

  7. kenan diyor ki:

    inan bu yazıyı görene kadar böyle bişey aklıma gelmemişti gerçekten benimde başıma geldi şimdi bende bunları uygulucam çok teşekkür ederim

  8. duygu diyor ki:

    Ben de 1 tane hata varmış. Bu sayı da etki eder mi hite?

  9. mesut diyor ki:

    Sorunum sayfama googleden ziyaretci gelmemesi. programcıyım. sayfalarımın uzantısı html. web programcılığı alanında hayal et ben programlıyım. o derece iyiyim.
    herşeyi yaptım. yapılması gereken. bütün ayarları test ettim. ne bulduysam okudum. test ettim. sonuç aynı. Siteye googleden gelen yok. Uzun ugrasın emegin ne anlamı kaldıki

    Hocam bana bu konuda yardımcı olursanız cok sevinirim.
    İlginize şimdiden teşekkürler

  10. emre diyor ki:

    Merhaba hocam ,

    google web yöneticisi araçlarindan , sağlik – tarama hatalarindan , 3 tane URL hatalarim vardi , onlar kaldırma teklifi verdim ve düzeltildi olarak işareletttim.soruma gelirsek , Sunucu hatalari 1 yaziyor üzerine gelincede , istek zaman aşımına uğradi yada site googlei engelliyor , bu ne demek oluyor üstünede tıkladığımda hatası ne olduğunu söylemiyor , acaba 3 tane URL hatası var diemi sunucu hatasi vedi yoksa başka birşeymi var ?

  11. garaj kapısı diyor ki:

    faydalı bir çalışma.. teşekkürler

  12. Webmaster diyor ki:

    Merhaba,
    Çok yararlı bir paylaşım öncelikle çok teşekkür ederim. Çok önemli bir problemim var bu konuda bir bilgiye ulaşamadım ve çıldırtma durumuna getirtti. Bir sayfamız var ve 25.000 e yakın sayfası indexliydi. Biz sistem yeniledik ve URL yapısıda değişti. eski yapıya göre olan yaklaşım 8000 sayfa sürekli bulunamadı hatası alıyoruz webmaster tools’da… Kısa ve öz sorum şu; “/ornek.php?” soru işareti ile devam eden ve bir takım parametreler içeren sayfa yapısının tamamının google tarafından taranmaması için Disallow: /*.php$ robots.txt ye bu kodu girmek yeterli midir ? Çok teşekkürler…

    • editor diyor ki:

      Teşekkürler,

      User-agent: *
      Disallow: /*.php$
      Disallow: /*.js$
      Disallow: /*.css$
      Disallow: /*?s=
      Disallow: /*.html
      Disallow: /*.htm

      gibi komutlarla ile tüm bu sayfaların arama motoru tarafından indeklenmesini engelleyebilirsin.
      Sağlık> Engellenen URL’ler
      robots.txt dosyasının google tarafından indekslendiği halindeki robots.txt dosyasını göreceksin. Buraya yoksa eğer Disallow: /*.php$ satırını gir ve

      URL’ler Test etmek için URL’leri ve user-agents’ları belirtin” Yazan yere indekslenmesini istemediğin örnek bir URL gir. Test düğmesini tıkladığında bu URLnin engellendiğini göreceksin. Bol şanslar,

  13. Halil TELLİ diyor ki:

    sitemde 3.000 civarı 404 hatası vardı ve şuan sizin yöntemi denedim. merak ettiğim konu şu: 3.000 tane urlyi robots.txt’e ekleyince haliyle çok kalabalık oldu, bu eklediğim urlleri belirli bir zaman sonra kaldırmam ne gibi sonuçlar doğurur acaba?

    • Bora M. Deniz diyor ki:

      Merhaba, 90 gün boyunca kaldırmamalısın. Bu süreden sonra URL google ön belleğinden tamamen silecek ve sitende olmadığından indekslemeyede girmeyecektir.

      • Halil TELLİ diyor ki:

        Teşekkür Ederim, Şuanda bazı linklerim tekrar hatalar kısmında görünmeye başladı 1900 kadarı fakat zannediyorum zamanla kaybolacaklar.
        alexa sıram 25.000 den 105.000’e düştü bu olayla bir alakası var mı bilmiyorum, bekleyelim ne olacak.
        İyi çalışmalar.

        • Bora M. Deniz diyor ki:

          Google zaman içinde bu URL leri kaldıracaktır dediğin gibi bu arada Alexa değeri çok önemsenecek bir değer değil. Sitede kullanıcıların ziyaret süresi ile ilgili bir durum hit dahi çok önemi yok.

  14. Arkadaşım inan çok işime yaradı.Çok güzel bilgiler. Emeğine sağlık.

  15. anahtarcilar diyor ki:

    Merhabalar, Hocam öncelikle makeleniz çok işime yaradı yaklaşık 300 tane kırık Link’im vardı düzelttim sayenizde fakat aklıma takılan bi kaç şey kaldı onları sormak istiyorum, Şimdi engellenen URL’leri …….com/robots.txt dosyasına engellediğim URL leri Robots.txt dosyasınada ekledim Robots.txt dosyasını ziyaret edip Herhangi bir ayrıntıyı atlamışmıyım bir bakabilirmisiniz

    • Bora M. Deniz diyor ki:

      dosyanız tamam gözüküyor. URL kaldırma istediğinde de bulunursanız süreci biraz hızlandırmış olursunuz başarılar dilerim.

  16. yunus diyor ki:

    Hocam Öncelikle Yararlı Bilgi İçin Teşekür Etmek İsterim. Formül Kısmını Yapamadım DEĞER hatası alıyorum excel de Ne yaptıysam olmadı yardımcı olurmusunuz formül kısmı için.

    • Bora M. Deniz diyor ki:

      Merhaba rica ederim, info@teknorapor.com dan bana dosyanı iletirsen, düzeltilmiş haline gönderebilirim.

      • nagihan diyor ki:

        hocam merhaba acil yardım istiyorum.adımın google den silinmesini istiyorum.daha doğrusu adımı yazdığımda kurum adresim çıkıyo.nasıl silebilirim.ben kurum sitesinden tüm bilgileri sildim ancak önbelleğe kaydedilmiş.

  17. Veysel diyor ki:

    Çok güzel bir anlatım olmuş. Eline, klavyene sağlık.

  18. zuleyha diyor ki:

    Ben faceye girmek istiyorum ama telefon hata veriyor nasıl yapabilirim yardım edermisiniz

  19. Jokerdoor diyor ki:

    Güzel bir anlatım gerçekten eline, klavyene sağlık.

  20. Aydın diyor ki:

    Teşekkürler güzel bir anlatım yapmışsınız. iyi bloglar 🙂

  21. PcVentas diyor ki:

    Güzel ve akıcı bir anlatım olmuş. Eline sağlık arkadaşım.

  22. mehmet diyor ki:

    hocam emeğiniz için teşekkür ederim. sitemiz için özgün çalışmalar yapıyoruz. Fakat olmamız gereken noktaya gelemedik ve araştırmalarımın sayesinde sizi buldum. Bu hata ayıklamadan sonra yükselişe geçeceğimize umuyorum fakat 6. maddeyi yapamadım bu arada (sunucu hatası 12.397) olarak görünüyor. Office 2007 kullanıyorum, google/webmaste indir dediğimde .csv olarak indirme olanağı sağlıyor lütfen yardımcı olabilirmisiniz hatta video çekim yaparak anlatımınız olursa çok memnun olurum…

  23. Tuna diyor ki:

    Arkadaslar bunu denedim 2 gunlugune kaldiriyorlar ve sonra yeniden aynI profil resmi cikiyor bunu kokten kendi adimizi google arama motorundan yok etme durumumuz yokmu tesekkur ederim

  24. Johnd783 diyor ki:

    I got this website from my friend who told me concerning this web site and at the moment this time I am visiting this web page and reading very informative content here.

  25. taner diyor ki:

    benim telefon numaramla site açılmış ve googel aramada numaram çıkıyor bu kaydı ve url yi nasıl silebilirm,
    teşekurler

  26. Muhammed diyor ki:

    Bu sitenin robots.txt dosyası olduğundan, bu sonuç için bir açıklama bulunmamaktadır. Daha fazla bilgi edinin
    sayın hocam yazan yazı bu bunu nasıl cozebılırız saygılarımla

  27. Korhan KÜLÇE diyor ki:

    Merhaba; Başarılı anlatımınız için teşekkür ederim. Çok faydalı oldu.
    Artık olmayan sayfalarımı webmaster araçlarında kaldır dedim. Ayrıca robot.txt dosyasına koymalıyım.
    Şu an siteyi tarasınlar tabii ama eski sayfaları aşağıda belirtmek istersem aşağıdaki gibi bir robot doğrumu. Fayda mı sağlarım durup dururken zarar mı veririm. Tekrar teşekkür derim.

    Bunun gibi 650 satır daha var

    • Bora M. Deniz diyor ki:

      Merhaba robot dogrudur. Engellemek istediğiniz sayfalarınızı Disallow: /page/ornek.html şeklinde kullanabilir misiniz?

      • Korhan KÜLÇE diyor ki:

        Teşekkür Ederim.

        Sitemin eski sayfalarının çoğunluğu .html uzantılıydı. Bunları .php olarak yeniledik. Acaba tek tek sayfa adlarını yazmasam da, robota; Disallow: /*.html satırı eklesem nasıl olur? Sonuçta .html ile biten sayfalarımın hiçbirisini artık görme diyorum. Neredeyse 500 sayfa kadar. Sizce uygun olur mu?
        Yoksa tek tek bütün satırları yaz mı dersiniz? Üşendiğimden değil de en faydalısını yapmaya çalıştığımdan kararsızım.

        İlginize tekrar teşekkür ederim.

        • Bora M. Deniz diyor ki:

          Merhaba Korhan doğru tespit html kullanmıyorsan bu şekilde yazman yeterli olacaktır. rica ederim.

  28. Soner Aydın diyor ki:

    Gerçekten 400 sayfası nasıl kaldıracağım diye kara kara düşünüyordum 🙂 Çok teşekkür ederim güzel bir haber 🙂

  29. Mustafa diyor ki:

    Merhaba,
    Ben sitenin url paremetrelerini değiştirdim, yazıda bahsettiğiniz gibi eski sayfalar 404 hatası veriyor.
    Eski urller şöyle idi: siteadı.com/kategori/haberbaşlığı
    şöyle değiştirdim: siteadı.com/haberbaşlığı

    Bunu toplu olarak nasıl düzeltebilirim? Teşekkürler şimdiden.

    • Bora M. Deniz diyor ki:

      Merhaba, toplu değişiklik için mozilla web atayüzünde kullanılabilecek bazı geliştirmeler mevcut aslında araştırmanız lazım.

  30. Orhan diyor ki:

    Hocam merhabalar ben url kaldır bölümüne yanlışlıkla sitenin adresini http://www.lisedersleri.net yazdım daha doğrusu url kaldır bölümünde oraya bir şey yazmadan dizine gönder dedim http://www.lisedersleri.net adresi kaldırdı. Şimdi sıra bulucu bölümüne linki vs. yazdığımda çıkmıyor. Ve ziyaretçi sayıları da düştü. Tekrar dizine ekledim ana sayfayı ve site haritası gönderdim. Site tekrar gelir mi bunun dışında ne yapmalıyım….

    • Bora M. Deniz diyor ki:

      Merhaba erişim engellemesi yoksa robots.txt dosyanızda beklememiz gerekiyor.

      • serkan karabacak diyor ki:

        hocam aynı sıkıntı bendede oldu. ana domaini yanlışlıkla kaldırdım 2 saat içinde anadomain bile googleda çıkmadı hemen farkedip iptal ettim ve şuan bekliyorum. Site ne zaman googleda görünür, sıralama veya başka sorunlar yaşar mıyım ?

  31. dilek diyor ki:

    Merhbalar Hocam
    Ben ayın 8 de Robots.txt dosyamı en iyi şeklinde sunabilmek için İnternette araştırma yaptım ve bulduğum ile değiştirdim. Fakat bir süre sonra sitede bir şeyler ters gitmeye hit azalmaya başladı. Google tools geç güncelleme yaptığı için ta ki bugüne kadar her hangi bir sorun göremediğim için bu sorunları Ramazan ve Yaz olmasına bağlamıştım. Ayın 12 de bizlere en iyi Robots.txt dosyası diye sunulan dosyayı paylaşan kişinin kullanmadığını görünce tekrar Google Toolsu kontrol ettiğimde yeni güncelleme ile 14 bin engelli sayfa olduğunu gördüm.Şu anda kullandığım Robots.txt dosyam bu şekilde oldukça sade ve sorunlar ayın 11 ne kadar görünüyor. En son güncelleme 12 sinde olmuş fakat dosyayı değiştirdiğim gün olan güne ait sorunlar görünmüyor. Engelli sayfaları Robot.txt test ettiğimde şimdi izinli görünüyor ve Google gibi getir dediğimde de bir sıkıntı yok. Aynı zamanda bu sayfalar hala google dizininde bulunuyor.Engelli sayfalara neden olan dosya bu olarak görülüyor
    /wp-content/plugins/jetpack/modules/widgets/top-posts/style.css?ver=20141013
    Hocam siz bana ne önerebilirsiniz başka ne yapabilirim tavsiyeleriniz çok yardımcı olacaktır.
    Teşekkürler

    • Bora M. Deniz diyor ki:

      Merhaba arama motorları site linklerine sorunsuz şekilde erişiyorsa problem yok tekrar bunları kendi indekslerine ekleyecektir. Biraz zaman gerekiyor. Site haritasını zaten Google Webmaster Tools dan site haritalarınızı eklediğinizi düşünüyorum.

  32. Hilal diyor ki:

    Öncelikle bu kaliteli yazınız için teşekkür ediyorum.
    Ancak; excel formüllerinde hata alıyorum. Konu hakkında yardımcı olabilir misiniz?

    • Bora M. Deniz diyor ki:

      Merhaba, öncelikle kullandıınız microsoft Office versiyonu nedir ? Hangi formülde hata alıyorsunuz ?

  33. Sunay diyor ki:

    Bora bey selam.Mevcut sitemi kapatıp makaleleri başka domainde açacağım siteye aktarmak istiyorum.Google kopya içerik olarak değerlendir mi ? Teşekkürler

  34. Etran diyor ki:

    Anlatımın robot.txt için geçerli olanını zor da olsa yaptım ama google tarafından engelleyemedim. çünkü menüler güncellenmiş sanrım ve anlatımınız gerçekten çok Karışık. Güzel bişey anlatmışsınız ama okuyunca insan ne yapacağını şaşırıyor.

  35. Uğur diyor ki:

    Allah razı olsn sağol kardeşim.Çok işime yaradı.

  36. tender dossier diyor ki:

    Merhaba,

    Paylaşım için teşekkürler. 2 sorum olacak.
    1- Robots.txt dosyasında 10.000 civarı url disallow edilirse bir sıkıntı olur mu?
    2- Robots.tx dosyasında disallow yapılan url google tarafından ziyaret edilmeyeceği için bir süre sonra önbellekten silineceği için, ayrıca webmaster tool’da URL Kaldır seçeneği ile bunları kaldırmaya gerek yok dye düşünüyorum. Siz ne düşünüyorsunuz? 10.000 Url’yi tek tek URL Kaldır’dan kaldırmak çok uzun bir iş.

    • Bora M. Deniz diyor ki:

      Merhaba, linklerinizi erişim yetkisi vermeyebilirsiniz. Google belli br süre sonra bunları kendi dizininden kaldıracaktır. Bu işlem sadece bekleme süresini azaltmak için yapılıyor.

  37. mehmet diyor ki:

    Merhaba hocam bir sorum var.
    Benim 200 tane indexlenmiş saçma sapan sayfam var.
    Bunları robot.txt ile engellersem sıkıntı olur mu? Yani bir sınırı var mı?

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir