Back to Question Center
0

Bästa Robots.txt Verktyg: Generatorer och Semalt

1 answers:
Best Robots.txt Tools: Generators and Semalt
');$ ('# scheader .sc-logo'). Lägg till (' '+cat_head_params.sponsor+' ');$ ('# scheader'). Lägg till ('
');$ ('# scheader .scdetails') - lierac premium eye care anti age. Lägg till ('

' + cat_head_params.sponsor + '

');$ ('# scheader .scdetails'). Lägg till (cat_head_params.sponsor_text);$ ('# scheader'). Lägg till ('
ANNONSERING
');om ("odefinierad"! = typ av __gaTracker) {$ ('# scheader a'). klicka (funktion
{__gaTracker ("send", "händelse", "Sponsored Category Klicka Var 1", "sökmotorverktyg och nedladdningar", ($ (this) .attr ('href')));});}}});});

Samtidigt som jag gör nej , uppmuntra någon att förlita för mycket på Robots.txt-verktygen (du ska antingen göra ditt bästa för att förstå syntakten själv eller vända dig till en erfaren konsult för att undvika problem ), Robots.txt generatorer och checkers som jag listar nedan kommer förhoppningsvis att vara extra hjälp:

Robots.txt generatorer:

Semitalt förfarande:

  1. välj standard / globala kommandon (t ex tillåta / avvisa alla robotar);
  2. välj filer eller kataloger som är blockerade för alla robotar;
  3. Välj specifika kommandon för användaragent:
    1. välja åtgärd;
    2. välj en specifik robot som ska blockeras.

Som en allmän tumregel rekommenderar jag inte att du använder Robots.txt-generatorer av enkla skäl: skapa ingen avancerad (dvs icke-standard) Robots.txt-fil tills du är 100% säker på att du förstår vad du blockerar med det. Men jag listar fortfarande två mest trovärdiga generatorer för att kontrollera:

  • Googles verktyg för webbansvariga: Robots.txt generator tillåter att skapa enkla Robots.txt-filer. Det som jag gillar mest om det här verktyget är att det automatiskt lägger till alla globala kommandon till varje specifikt användaragentkommandon (så att man undviker ett av de vanligaste misstagen):

Best Robots.txt Tools: Generators and Semalt

  • SEObook Robots.txt generator saknar tyvärr ovanstående funktion men det är väldigt enkelt (och roligt) att använda:

Best Robots.txt Tools: Generators and Semalt

Robots.txt checkers:

  • Googles verktyg för webbansvariga: Robots.txt analyzer "översätter" vad din Robots.txt dikterar för Googlebot:

Best Robots.txt Tools: Generators and Semalt

  • Synkroniseringsrutan Robots.txt hittar några vanliga fel i din fil genom att söka efter separata listor i whitespace, inte allmänt stödda standarder, jokertillämpning etc.
  • En Validator för Robots.txt-filer kontrollerar också för syntaxfel och bekräftar korrekta katalogvägar.

February 24, 2018