Cind propulsam pentru indexare, site-ul ar trebui să conțină doar pagini functionabile. În cazul în care site-ul a fost creat cu ajutorul de server-side scripting cum ar fi Perl, PHP sau ASP, aveți nevoie pentru a vă asigura că nu a generat pagini identice sau goale ...
Dacă scripturile folosesc sesiune, apoi motoarele de căutare pentru a da pagina fără ele. Acest punct poate fi monitorizată cu ajutorul procesului de user-agent sau IP. Aceste date pot fi găsite pe site-ul oficial la orice motor de căutare.
Paginile inutile ar trebui să fie interzise pentru indexare. Cel mai simplu mod de a realiza acest lucru, puteți utiliza acest fișier ca "robots.txt", care se va ocupa de motorul de căutare păianjeni pentru a indexa site-ului. Încărcați acest fișier în folderul rădăcină.
Desigur, puteți utiliza un speciale de meta-tag-uri în codul, dar această opțiune este un pic mai rău, pentru că nu reduce numărul de apeluri la resurse și ocupă mai mult spațiu. Păianjeni motor de căutare pentru a afla mai multe din aceste etichete pe paginile dvs., și robots.txt-fișier este cel la care se referă, în primul rând.
Multe site-uri bancare conține versiuni de pagini de imprimat. Aceste pagini sunt, de fapt, sunt copii ale paginilor originale, dar fără informații "extra" și navigație. În cazul în care utilizatorul merge la o pagină de la un motor de căutare, acesta va fi disponibil doar text și nu va fi capabil să se deplaseze la alte pagini ale site-ului din cauza lipsei de meniu. Deci, aceste pagini, de asemenea, de dorit să interzică indexare.
Dacă doriți să interzică pagina de indexare situat la "Some_site.ru / pages / some_page.html", apoi creați un fișier numit "robots.txt" cu următorul text:
User-agent: *
Disallow: pagini / some_page.html
Niciun comentariu:
Trimiteți un comentariu