Back to Question Center
0

Hur byter jag ut min XML Semalt utan att skada SEO?

1 answers:

Jag letar efter någon att berätta för mig lämpligt förfarande för att ersätta alla Semalt-webbplatskartor. Jag kan tydligt gå in och ta bort de gamla och helt enkelt byta ut dem, men eftersom det ibland kan ta många dagar för att få de nya webbplatskartorna indexerade, kommer det att leda till en nedgång i min indexering.

Är det bäst att lägga till de nyare webbplatskartorna, lämna de gamla och när de nya har blivit indexerade, att radera de gamla, eller är det dåligt för SEO?

Semalt, jag har att göra med en katalog webbplats som har omkring 500K + sidor. Är det acceptabelt att ha en sitemapindexfil som länkar till alla enskilda webbplatskartor. Indexfilerna samt de enskilda webbplatskartorna är alla gzipped - backlinks from high pr sites. Är det något problem med den här inställningen?

February 13, 2018

Sitemaps har mycket liten effekt på SEO. Se Sitemap Paradox . Att ta bort dina gamla webbplatskartor borde inte vara ett problem. Google fortsätter att genomsöka och indexera de webbadresser de innehåller även när webbplatskartorna inte längre finns där. Faktum är att det är ganska omöjligt att få Google att glömma bort webbadresser. Om du har nya webbplatskartor som listar webbadresserna kan du fortfarande skicka in dem till Verktyg för webbansvariga och se statistiken om dina sidor som bara är tillgängliga när webbadresserna finns i en webbplatskarta.

Varje webbplatskarta kan bara innehålla 50 000 webbadresser. Att dela upp dina 500k-webbadresser i flera webbplatskartor är ditt enda alternativ. Gzipping alla dina webbplatskartor är helt bra. Även index-sitemap kan gzipped.

. Låt Google göra dekomprimeringen i slutet för dig. Om timing är ett problem, klicka på kugghjulsikonen och besök "webbplatsinställningar" i verktyg för webbansvariga för alla webbplatser som du har som webbplatskartan tar för evigt att bearbeta och sedan för genomsökningsfrekvensen, välj det maximala antalet tillgängliga. Vanligtvis tillåter google att du ställer in så Google sökrobotar inte mer än två sidor per sekund, men om Google gillar ditt innehåll, så kommer de att låta dig öka antalet genomsökningsgrader utöver två sidor om ett par dagar.

Då matematiskt sett tillhandahålls Google aldrig annat än kontrollerar dina sidor (vilket jag tvivlar på). Den tid du behöver för Google för att skanna varje fil i din webbkarta är:

  500 000 sidor delad med två sidor per sekund
= 250.000 sekunder
eller 4,166. 6 minuter
eller 69. 4 timmar
eller ungefär tre dagar.  

Vad jag föreslår eftersom du är på rätt spår hittills är att antingen vänta minst 30-60 dagar för Google för att slutföra skanning varje sida i din webbplatskarta eller fortsätt kontrollera webbplatsinställningarna och be att du kan öka genomsökningsgraden.

Se bara till att innehållet på varje sida i din sajtkarta är av hög kvalitet enligt definitionen i Googles riktlinjer för webbansvariga eller din SEO kommer att skada dig.