Post date: 15 лист. 2015 18:05:04
В эру поисковых машин, SEO может быть сведено к 3 основным элементам или функциям: время на обследование сайта (обнаружение), время на индексацию (куда также входит и фильтрация), и время на ранжирование (алгоритмы).
Сегодня первая часть из трех, мы поговорим про обнаружение сайта поисковыми машинами.
Сведение SEO к этим основным элементам позволяет SEOшникам создать своего рода шаблон для работы над продвижением в поисковиках. Применяя этот шаблон можно не углубляться в специфику и тонкости действий в данном шаблоне.
И иногда это нам на руку, так как поисковые машины - это сверхсекретные монстры... роботы-монстры.
Этот тезис основан на следующих предположениях:
Поисковики исследуют, индексируют и ранжируют веб-страницы. Поэтому SEOшники должны основывать все свои тактики на этих шагах поисковиков. Вот те простые выводы, которые будут полезны SEOшникам, вне зависимости от конкуренции в нише:
Но конечно, Google как и все другие поисковики существуют с одной целью — развить бизнес, удовлетворяя потребности пользователей. Поэтому, мы должны постоянно помнить следующее:
И конечно же, так как по своей природе SEO — это соревнование, в котором для выхода в топ выдачи нужно победить своих конкурентов, мы должны заметить следующее:
Учитывая все вышесказанное, мы можем вывести несколько SEO тактик для каждой из фаз работы поисковика.
SEO начинается с исследования того, как поисковый бот обнаруживает страницы. Googlebot, например, исследуя наш сайт, видит все детали, которые записываются в логи. Эти несут следующую информацию:
Специальные скрипты (AudetteMedia's logfilt), которые помогают быстро разобрать множество таких логов, используются в разных ситуациях:
На уровне корпорации существует такой инструмент для анализа как http://www.splunk.com/, который может разобрать всю информацию по user-agent, сортируя ее по коду-статусу сервера, времени и дате:
Xenu – это полноценное приложение, которое предоставляет полнейшую информацию о посещении сайта поисковым ботом. Приложение работает с более чем 10 000 страницами, поэтому его лучше использовать на корпоративном уровне. Вот несколько советов по работе с Xenu или подобными:
Эта быстрая и простая методика помогает найти такие коды как 302 и другие.
В Google Webmaster Tools также есть полезная для SEOшников информация по обнаружению страницы, дубликатам контента и частоте захождения бота на сайт:
Существуют также и другие инструменты, с помощью которых вы можете посмотреть на страницы сайта глазами поискового бота (например Lynx и SEO Browser ).
Самое главное в SEO - это точная информация, но еще важнее то, что и как можно поделать с этой информацией. Все дело в том, как вы интерпретируете данную информацию, а не то, как вы ее достанете.
Подвергая SEO работу систематизации, сообразительные SEOшники делают шаблон действий или методов, основываясь на теорию обнаружения, индексации и ранжирования, что впоследствии приводит их сайты прямиком в топы поисковой выдачи.