Продвижение порталов и интернет-магазинов — страница 28 из 35

□ при помощи анализа логов составьте список страниц, которые посещал робот;

□ получите списки важных непроиндексированных страниц, не посещенных и посещенных роботом;

□ изучите список непроиндексированных страниц, которые не посещал робот ПС. На эти страницы необходимо привести робота, чтобы они попали в индекс;

□ изучите список непроиндексированных страниц, которые посетил робот ПС. Это страницы, которые имеют проблемы с дублями или статическим весом.

Проверка возможности индексации важных областей на Flash– и Ajax-сайтах. При продвижении творческих проектов важно изучить индексацию областей, при написании которых использовались технологии Flash, Ajax или другие, с индексацией которых могут возникнуть проблемы.

□ Необходимо по матрице сайта открыть текстовые сохраненные копии страниц всех типов и найти тексты, выложенные с помощью этих технологий. Если текст найти удалось – значит, блок индексируется.

□ В редких случаях даже при отсутствии Flash и Ajax на сайте может быть настолько «кривая» верстка, что текст не попадет в текстовый индекс.

Проверка возможности индексации всех страниц сайта при текущих инструкциях robots·txt. После корректировки robots.txt необходимо проверить, что все важные страницы доступны для индексации. Проверка осуществляется сервисом http://webmaster.yandex.ru/robots.xml.

Проверка целесообразности использования , nofollow, meta noindex, meta nofollow, SEOHide. Ошибки в инструкциях индексации могут привести к выпадению важных страниц из индекса и существенным потерям трафика. Чтобы выявить эти ошибки, необходимо:

□ сделать проверку по матрице сайта (сервисы RDS-bar, «СайтРепорт»);

□ найти незакрытые ;

□ изучить, какие внутренние ссылки закрыты в nofollow;

□ изучить, какие внешние ссылки закрыты в nofollow;

□ изучить, какие страницы закрыты в meta noindex;

□ изучить, какие страницы закрыты в meta nofollow;

□ изучить, есть ли на сайте SEOHide и корректно ли он внедрен.

Проверка корректности использования , nofollow, SEOHide. После составления списка страниц, на которых используются инструкции по скрытию индексации, необходимо изучить списки на предмет ошибок. Контрольные точки:

□ незакрытый ;

□ индексируемый SEOHide;

□ проверка корректности SEOHide с помощью плагина WebDeveloper;

□ важные страницы с meta nofollow, meta noindex;

□ nofollow на внутренних ссылках.

Поиск ошибок (сравнение индексов по категориям и типам страниц). Необходимо подробно изучить сайт на предмет наличия ошибок. Один из способов сделать это – сравнение списков проиндексированных в разных поисковых системах страниц по тем разделам и типам страниц, где их количество в индексе различается.

□ Изучаются области сайта, где в одной ПС страниц меньше, чем в другой (табл. 10.1).

□ Страницы из списка проиндексированных открываются и изучаются.

□ Изучаются те страницы, которые отсутствуют в индексе одной ПС, но есть в индексе другой.

□ Изучаются страницы, помеченные в Google как supplemental.


Таблица 10.1. Сравнение индексов

Поиск в индексе технических страниц. Далее приведены популярные типы технических страниц, которые рекомендуется закрывать от индексации, а также некоторые варианты идентификации их через оператор inurl:

□ файлы статистики – /*_openstat;

□ страницы контекстной рекламы или меток – /*from=adwords, /*utm_source=, /*utm_campaign=, /*utm_content=, /*utm_term=, /*utm_medium=;

□ корзина – /cart/, /order/;

□ страницы сортировки – /*sort, asc, desc, list=*;

□ страницы поиска – /search/;

□ страницы авторизации – /auth/;

□ версия для печати – /*printable, /print;

□ напоминание пароля – /remind_password/;

□ регистрация – /register/;

□ административный раздел – /administrator/;

□ кэш страниц – /cache/;

□ модули, подгружаемые на страницы, – /components/, /plugins/;

□ файлы инсталяции CMS – /installation/, /installer/;

□ логи – /logs/;

□ файлы – /files/;

□ скрипты, таблицы стилей – /ajax/, /java/, /ess/;

□ аккаунты пользователей – /user/ и др.

Анализ динамики индексации сайта. Динамика индексации сайта может указать на слабые места и проблемы проекта.

Статистика по списку проиндексированных страниц, собранных с параметром &how=tm, позволяет узнать возраст страниц и изучить динамику индексации сайта.

Проверка robots.txt на ошибки. Из-за ошибки в robots.txt весь сайт может быть исключен из индекса. Чтобы избежать этого, следует:

□ с помощью сервиса http://webmaster.yandex.ru/robots.xmL проверить, закрывает ли robots.txt все ненужные страницы и не находит ли валидатор ошибок;

□ проверить соответствие robots.txt правилам http://help.yandex.ru/webmaster/?id=996567.

Проверка robots.txt на наличие директив для всех поисковых систем. «Яндекс» и Google используют различные директивы в robots.txt, и инструкции для них следует писать разные. В robots.txt писать User-Agent: «Яндекс» + User-Agent: * обязательно, опционально писать еще User-Agent: Google.

Проверка sitemap.xml на ошибки. С помощью sitemap.xml можно управлять индексацией своего сайта. Для того чтобы поисковые системы доверяли рекомендациям и корректно обрабатывали их, необходимо исправить ошибки. Нужно проверить следующее:

□ ссылка на sitemap.xml должна быть в robots.txt;

□ атрибуты дат страниц расставлены корректно;

□ приоритеты расставлены правильно;

□ исключены уже проиндексированные страницы;

□ нет страниц, закрытых от индексации в robots.txt;

□ нет нарушений валидности составления sitemap.xml (сервис http://webmaster.yandex.ru/sitemaptest.xmL).

Дополнительная информация о sitemap.xml – на http://www.sitemaps.org/ru/faq.html#faq_xml_schema.

Дублирование, аффилиаты, ошибки

Анализ содержания поддоменов. На поддоменах может располагаться что угодно: копия сайта, спамный контент, вирусы. Например, на поддомене может располагаться архивная версия форума, которая уже не работает и поэтому не обновляется. Используя найденные ошибки в движке форума, которые не были исправлены, спамботы могут оставить на страницах форума ссылки на спамные ресурсы. Необходимо внимательно изучить содержание поддоменов до начала продвижения сайта.

Запрос к «Яндексу» вида rhost:ru.site* дает нам список страниц, расположенных на поддомене.

Получив список поддоменов, следует изучить их содержание через site:1.site.ru. Предмет изучения – поиск лишних доменов, уязвимостей, дублей, спамного и ошибочного контента.

Поиск дублирующих страниц. Необходимо найти все возможные дубли страниц сайта и перенастроить сервер таким образом, чтобы только одна страница главного зеркала была индексируемой. Порядок поиска:

□ сравнение по шинглам (сервис «СайтРепорт»);

□ сравнение Title (сервис «СайтРепорт», WebMaster Google, оператор intitle: в «Яндексе»);

□ проверка на наличие дублей:

■ www.site.ru и site.ru;

■ http:// и https://;

■ dir и dir/;

■ / и /index.php;

■ /cat/dir/ и /dir/cat/;

■ /cat/dir/id/ и /cat/id/;

■ panasonic/tv/ и param_1=12¶m_2=44;

■ param_1=12¶m_2=44 и /cat_12/dir_44/;

■ site.ru и test.site.ru;

■ test.site.ru и site.ru/test/;

■ /bedroom/divan_roza.html и /guestroom/divan_roza.html;

■ /?red_id=3342;

■ /session_id=442424424022492.

Поиск дублирующего контента. На сайте могут присутствовать частичные дубли. Такие страницы не только соревнуются между собой в релевантности по ключевым словам дублированного блока, но и могут терять релевантность по продвигаемым запросам за счет размывания текста. Способы решения проблемы:

□ сравнение по шинглам (сервис «СайтРепорт»);

□ ручной осмотр разных страниц сайта по матрице.

Поиск пустых страниц. На некоторых сайтах можно найти страницы с пустыми Title. При таком раскладе продвигаемые страницы теряют в релевантности, потому что содержимое Title имеет значительное влияние на ранжирование страницы. Нужно выполнить проверку:

□ по Title (сервис «СайтРепорт»);

□ по количеству контента и размеру страницы (часто пустые страницы и страницы с ошибками имеют проблемы в Title).

Поиск страниц с ошибками. Из-за ошибок CMS, базы данных, кодировки, верстки, скриптов и др. некоторые страницы могут отображаться с ошибками. Выполняется поиск:

□ вручную при сравнении индексов;

□ через поиск в тексте ключевых слов admin, SQL и т. п.;

□ с помощью анализа ошибок в логах;

□ с помощью анализа страниц с высоким процентом отказов.

Поиск циклических (бесконечных) страниц. Некоторые модули сайта могут создавать циклические страницы. Так, например, распространенный модуль календаря мероприятий позволяет создавать бесконечное количество страниц, углубляясь в даты до эпохи динозавров и еще дальше. Проверка выполняется:

□ как анализ подозрительных модулей (календарь);

□ анализ страниц с высоким уровнем вложенности (сервис «СайтРепорт»).

Проверка на аффилиаты, зеркала, тестовые поддомены. При

продвижении сайта может возникнуть неприятная ситуация, когда после получения результатов поисковая система склеит несколько сайтов клиента между собой. Способы решения проблемы:

□ проверка данных whois (сервис http://nic.ru/whois/);

□ поиск аффилиатов по контактным данным и whois (сервисы http://www.skvotte.ru/, http://2ip.ru/domain-List-by-emaiL/, http://www.recipdonor.com/infowhois);

□ поиск всех проектов на этом IP (запрос IP:255.255.255.255 в Yahoo!);

□ поиск по дублированию контента;

□ поиск совпадений между проектами по контактным данным и адресам организации;

□ поиск совпадений между проектами по контенту;