Продвижение порталов и интернет-магазинов — страница 3 из 35

Инструменты для определения лидеров

SEORate – сервис, разработанный компанией «Ашманов и партнеры». Система собирает данные о видимости сайтов в ПС, анализирует позиции, частотность поисковых запросов и – частично – количество проиндексированных ссылок. Существенным недостатком системы является работа по сравнительно небольшому числу наиболее частотных запросов, однако и этих данных достаточно для того, чтобы выявить лидеров и получить общее представление об их состоянии (рис. 2.1).

Рис. 2.1


MegaIndex позволяет бесплатно получать данные о видимости тех или иных сайтов по поисковым запросам с учетом региона и в динамике от апдейта к апдейту (рис. 2.2). Количество запросов также ограничено несколькими сотнями даже для самых больших сайтов, однако в целом сервис более информативен, чем SEORate.

Рис. 2.2


Wordstat.yandex.ru. Помимо сбора семантики, к которому мы еще вернемся, позволяет оценить тайп-ин-трафик, то есть трафик, получаемый по запросам, совпадающим с именем сайта. Разумеется, цифры не абсолютные, но сравнительные оценки получаются довольно точными (рис. 2.3).

Рис. 2.3


LiveInternet.ru. Представляет абсолютные цифры по суточному трафику, а если владелец сайта не закроет доступ к статистике сайта – еще и массу другой полезной информации (трафик с ПС, география, наиболее популярные страницы и т. п.) (рис. 2.4).

Рис. 2.4

Сравнение авторитетности ресурсов

Для оценки авторитетности достаточно сравнить ряд косвенных признаков продвижения:

□ тематический индекс цитирования (ТИЦ);

□ PageRank;

□ количество проиндексированных страниц в «Яндексе» и Google;

□ число входящих ссылок на основе Solomono.ru или другого сервиса (сервисов);

□ данные whois, в первую очередь дату регистрации, хотя записи DNS тоже могут дать пищу для ума.

К этому следует добавить результаты продвижения: объем поискового трафика, коэффициент видимости в поисковых системах и т. п. Все данные сводятся в таблицу, на основе которой легко определить сайт с самым эффективным продвижением. Например, оценим количество входящих ссылок и сайтов доноров при помощи сервиса Solomono.ru (табл. 2.1).


Таблица 2.1

В таблице представлены данные по трем крупнейшим порталам одной тематики. Совершенно очевидно, что наибольшего внимания заслуживает сайт CarsGuru.net, который при заметно меньших возрасте и количестве страниц имеет отличные видимость и поисковый трафик. Изучая его, мы можем (и должны) найти те факторы, которые сделали его одним из лидеров.

Общий анализ портала-конкурента

Еще раз приведем список характеристик и факторов, на которые следует обратить внимание, анализируя портал-конкурент:

□ структура сайта, его разделы и сервисы;

□ типы и источники контента;

□ семантическое ядро;

□ присутствие в социальных медиа;

□ источники ссылок;

□ видимость в поисковых системах;

□ трафик с поисковых систем.

Структура сайта

В рамках изучения структуры (рис. 2.5 а, б) вы должны определить:

□ разделы, их взаимосвязь, источники трафика для каждого из них;

□ типы страниц, источники трафика для них;

□ структуру URL;

□ схему перелинковки;

□ структуру метатегов.

Пример схемы перелинковки (рис. 2.6).

Вовсе не обязательно слепо копировать все приемы, используемые конкурентом, но взять на вооружение наиболее эффективные из них необходимо. Кроме того, совокупное изучение структуры сайта и статистики позволит получить информацию о том, что именно нужно пользователю и как именно он решает свои проблемы при помощи сайта. Вполне возможно, что у лидера есть серьезные ошибки в навигации: они вряд ли отпугнут старых пользователей, но вот новые вполне могут предпочесть ваш портал просто потому, что он удобнее.

Рис. 2.5, а


Рис. 2.5, б


Рис. 2.6


Кластеры. Если портал имеет нормальную структуру, в нем легко выявить кластеры, которые будут иметь URL типа site.ru/klasterl, site.ru/klaster2, site.ru/klasterl/podklasterl и т. п. Крайне желательно составить максимально полный список всех кластеров и подкластеров с масками URL – это позволит упростить изучение индексов.

Сравнение индексов

Изучая поисковые индексы «Яндекс» и Google с помощью операторов inurl: и site, мы можем найти разницу в количестве проиндексированных страниц по сайту в целом и по каждому кластеру в частности. Это самая простая и эффективная проверка сайта на ошибки, дубликаты, мусор, проблемы индексации, и она позволит нам составить перечень проблем. Например, такой.

□ Одна и та же страница расположена по разным URL (дублирование). Причины разнообразны – это и смена системы URL без установки кода ответа 301 (страница перемещена навсегда), и использование кода ответа 302 (страница перемещена временно) вместо 301, просто создание нескольких страниц с одинаковым контентом, неправильное использование тегирования, отсутствие закрывающих инструкций в robots.txt и многое другое.

□ В индексе отражены версии страниц для печати.

□ Страница выглядит как сообщение об ошибке, но на уровне сервера отдает код ответа 200 (все в порядке).

□ Страницы с практически идентичным контентом.

□ Страницы с ошибкой базы данных (страница отдает код ответа 200, но весь контент на ней – ошибка базы данных (БД)).

□ Дубли, связанные с индексацией страниц с www и без.

□ Дубли, связанные с возможностью зайти на сайт по IP.

□ Дубли, связанные с Session ID.

□ Дубли, связанные с сортировкой элементов в каталогах.

□ Дубли, связанные с пагинацией и календарем событий.

□ Индексация страниц внутренней поисковой выдачи (тут следует отметить, что «Яндекс» не желает индексировать такие страницы, но грань между страницей внутренней поисковой выдачи и страницей каталога довольно зыбка).

□ Страницы с поддоменов – зеркальных, тестовых и т. п.

Веселая история про тестовый поддомен. Забавная история из практики связана с тестовыми поддоменами. Клиент звонит в ужасе и говорит: «Мы попали под фильтр». – «Почему?» – «У нас одна страница в выдаче». Смотрим – правда, одна страница в выдаче. Непонятно, как так получилось. Вчера было несколько тысяч страниц, сегодня одна. Оказалось, программист, перенося сайт с тестового домена на основной, поскольку на тестовом все продумано, перенес и robots.txt со строчкой «disallow/». Все.

Все отмеченные ранее проблемы приводят к тому, что вес размывается, нужные страницы не индексируются и ранжирование осуществляется не по тем страницам, которые нам необходимы, а по тем, которые нашел робот. При создании нами портала все эти проблемы должны быть исключены.

Как выявлять подобные проблемы?

Большая разница между количеством проиндексированных страниц в кластере говорит о том, что какая-то система проиндексировала большое количество дублей (это почти всегда Google) или какая-то система вследствие большого количества ошибок не хочет полноценно индексировать кластер (мы не будем называть ее по имени, но это, конечно, «Яндекс»). Таким образом, разница в индексах является важным поводом для более пристального изучения.

HTML-код страниц разных типов

Детальное изучение кода страниц – очень кропотливая и неинтересная работа, но ее необходимо выполнить. Это позволит вам выявить ошибки, допущенные конкурентом, и решения, им разработанные. И то и другое необходимо учитывать при создании собственного сайта.

Типичные ошибки в коде:

□ избыточное и ничем не обоснованное использование тегов заголовков (например, выделение заголовком H1 (главный заголовок страницы) названия рубрики «Наши партнеры»);

□ незакрытые теги;

□ дублирование ссылок с размыванием анкорного веса (типичный пример – из каталога на страницу товара ведут три ссылки – с анкором в виде заглавия товара, с анкором в виде картинки и с анкором «Подробнее»).

Типы и источники контента

Изучать контент следует в плотной взаимосвязи с изучением видимости в поисковых системах и трафика. Цель – разработать стратегию наполнения нашего портала, которая по эффективности будет как минимум не уступать стратегии лидера. Если же вам удастся найти скрытый потенциал, например практически не проиндексированные разделы контента, то ваши инвестиции в контент могут стать еще более эффективными.

Видимость сайта в поисковых системах. О сервисах, которые позволяют частично оценить видимость сайта, я писал ранее. Вам необходимо изучить:

□ запросы, по которым сайт находится на высоких позициях, и трафик с них;

□ запросы, которым сайт пока не достиг высоких позиций (и попытаться определить причины);

□ основные входные страницы для поискового трафика (в идеале необходимо приложить немного усилий и определить страницы для разных поисковых систем);

□ запросы, по которым продвигаются конкуренты.

Если у вас установлены «Яндекс.Метрика», Awstats или LiveInternet, необходимо собрать все возможные низкочастотные запросы, по которым находится сайт. Они дополнят нашу семантику.

Ссылочная масса

С тех пор как «Яндекс», а затем и Yahoo! (который, впрочем, все равно показывал далеко не все) закрыли доступ к просмотру ссылок, для оценки ссылочного веса приходится пользоваться платными сервисами. Для этой цели подходят системы Solomono.ru, Ahrefs.com, Majestic-SEO.com (рис. 2.7), которые представляют массу полезных данных.

Рис. 2.7


Что важно оценить?

□ Общую ссылочную массу, а по мере работы над порталом (конкурентов надо анализировать не раз и не два) – и динамику ее прироста.

□ Источники ссылок, в том числе и естественных. Это позволит вам определить социальные сервисы и форумы с вашей целевой аудиторией. Кроме того, изучая естественное ссылочное ранжирование, вы узнаете, какие материалы вызывают наибольший интерес у пользователей.