Как я проводил анализ конкурентов – 1

Анализ сайта 17.07.2012 Комментарии: 20 8345 просмотров

Seo анализ сайтов с тематикой seo старт и горячий интернет-маркетингПосле разбора полетов перед финишем моих курсов seo-специалиста, я наметил свой подробный план оптимизации моего блога. В нем я расписал каждый пункт своих действий. Но сначала хочу предложить Вам бесплатный сео анализ сайтов лучших конкурентов, входящих в топ-10 по поисковым запросам seo старт и горячий интернет-маркетинг. Статистика получилась достаточно подробная и интересная. Поэтому, устраивайтесь удобней перед своими мониторами, .

Анализ конкурентов начинается

Для своего анализа я взял лучших 6 блогов с разных курсов, конкурирующих друг с другом по двум запросам: seo старт в Яндексе и горячий интернет-маркетинг в Google по региону Москва. Для объективности и конечно же, анонимности, я не буду сейчас раскрывать адреса этих сайтов. Думаю, Вы со мной согласитесь – никто не хочет себя показывать не в лучшем свете, хоть ты и лучший. 7-м блогом в моем анализе будет мой блог. Вот его можете сравнивать c другими сайтами сколько угодно :-)

Итак, вступительное слово закончилось, начинаем анализировать блоги конкурентов. Сейчас я ознакомлю Вас со списком всех параметров, по которым была собрана статистика, проанализированы полученные результаты:

Пару слов о необходимости этого анализа. Для чего он вообще нужен? Самыми важными этапами в продвижении любого сайта являются анализ конкурентов, составление семантического ядра, аудит сайта, внутренняя оптимизация страниц сайта. И именно со сбора показателей и параметров сайтов конкурентов и их последующей обработки начинается работа в поисковой оптимизации, поскольку нереально делать какие-то выводы, совершать какие-либо действия и думать об успехе задуманного предприятия не зная ничего  о тех, кто является для Вас потенциальным противником. И, конечно, всегда самые “лучшие” конкуренты находятся в топ-10. Ведь если они там есть, значит они работали над своими веб-ресурсами, что позволило прозрачным алгоритмам поисковых систем запечатлеть их позиции на первой странице зоны выдачи.

1. Анализ показателей ТИЦ и PR конкурентов

тИЦ сайта (тематический Индекс Цитирования) – это показатель авторитетности веб-ресурса с учетом качественной характеристики внешних ссылок на страницы ресурса с других страниц в сети Интернет. Каждая внешняя ссылка имеет свой вес. Поэтому тИЦ определяется суммой весов все ссылок. Другими словами, тИЦ учитывает количество внешних ссылок на данный веб-ресурс с других сайтов, придавая этим ссылкам некоторый  “вес” в зависимости от авторитетности ссылающегося сайта.

PR (Google Page Rank) – показатель поисковой системы Google, показывающий авторитетность веб-ресурса с учетом веса внешних ссылок. Характерное отличие в том, что вес идет не от всего сайта, а от конкретных ссылок. Показатель тИЦ не влияет на положение сайта в поисковой выдаче Яндекса и считается для сайта в целом. А PR рассчитывается для каждой странички по отдельности и оказывает влияние на текущее положение Вашего сайта в поисковой выдаче Google.

Ранги любого сайта можно увидеть с помощью различных программ, веб-ресурсов или дополнений к браузерам. Я воспользовался инструментами для анализа конкурентов seolib.ru.

Seolib делает seo анализ моего сайтаУказываем блоги о seo старте и горячем интернет-маркетинге в анализатор

Давайте посмотрим показатели PR и тИЦ наших блогов.

Seo анализ моего сайта - показатели ПС

Как видим из таблицы, почти все блоги имеют одиноко стоящие нули. И только у одного уже есть первая 10. Интересно, как владелец этого блога смог достичь за 1 месяц таких успехов? Посмотрим, что скажут цифры по другим показателям и параметрам анализа. Возможно и найдем ответ.

2. Индексация сайта в поисковой системе Яндекс и Google

Чтобы четко проверить индексацию страниц сайтов в Яндексе и Google, есть много полезных сервисов. Воспользуемся веб-ресурсом xseo.ru. Сайт содержит много разных инструментов для анализа конкурентов. Используем только то, что нам необходимо.

Как в seo анализе сайта проверить индексацию страниц

Так мы получаем следующую таблицу с количеством проиндексированных страниц в поисковых системах:

Seo анализ сайта - количесвто страниц в индексе Яндекса и Google
Глядя на цифры, сразу бросается в глаза сложность индексации страниц со стороны Яндекса. С чем это связано, сказать не могу. Возможно, его алгоритм приказывает поисковому роботу намного тщательней выбирать текст для индекса, тогда как Googlebot “хавает” все подряд.

И пару слов о понятии supplemental выдача. Когда робот поисковой системы Google пробегает по страницам, он, согласно командам его создателей собирает полезный контент в основной индекс, а остальные тексты в дополнительный. И если в этом дополнительном индексе нет уникального текста (грубо говоря, там находятся дублирующий контент), то эти страницы не попадают в выдачу.

Еще один не маловажный момент данных анализа конкурентов – большое различие в числе страниц, проиндексированных ПС Google в некоторых блогах. Думаю, Вы догадались, почему произошла такая разница – владельцы этих блогов  решили дать доступ поисковому роботу к страницам, которые начинаются с выбора тегов (меток в WordPress). Какой плюс в этом – большее количество страниц попадает в индекс, а также лучше становится поведенческий фактор (если записей на блоге большое количество, то с облаком тегов приятней работать, чем с рубриками). Какой минус в этом – есть вероятность пессимизации сайта из-за дублирующего контента. В принципе, этого можно избежать, что сделали владельцы некоторых блогов – они сократили контент страницы до анонса (получается частично дублированный текст страницы), что позволяет избежать санкций со стороны поисковой системы.

3. Информация о внешних и внутренних ссылках

Воспользуемся инструментами анализа конкурентов, предоставленные веб-ресурсом be1.ru/stat/. В поле “анализ продвижения сайтов” вводим необходимый url, и получаем обширный перечень информации, разделенный для лучшего поиска на рубрики. Нас интересует вкладка “ссылки”.

Seo анализ сайта - количесвто внешних ссылок

В итоге получаем следующую картину.

Seo анализ сайта - информация о внешних и внутренних ссылках

Согласно цифрам, полученным при анализе, видно, что многие блогеры не закрывают большую часть своих ссылок. Если посетитель с Вашей страницы переходит по этой ссылки на другой веб-ресурс, Ваш сайт теряется  в глазах поисковой системы, он теряет свой весь. Возможно, что часть ссылок специально не прячется параметром nofollow, но точно я Вам сказать не могу.

Если говорить о внутренних страницах, то первый блог не использует возможность акцентировать свои конкретные страницы для поднятия их в топе, используя грамотную перелинковку. С другой стороны, имея малое количество страниц и одни и те же анкоры (такое бывает, когда лень придумывать уникальный текст  с ключевыми словами seo старт и горячий интернет-маркетинг), много от перелинковки взять не получится. Ко всему надо идти с умом.  Например, в моем блоге Вы не найдете одни и те же тексты анкоров – они абсолютно разные (все, пойду возьму пирожок с полки :-) ).

4. Наличие инструкций для поисковых систем

Задачей файла robots.txt является ограничение некоторых страниц сайта от индексации, что прописывается в виде команд для каждого поискового робота. Это делается по ряду причин:

  • сайт на реконструкции, в связи с чем робот не должен видеть некоторые страницы во избежание ненужных проблем;
  • ряд страниц содержит дублирующий контент, при индексации которых поисковая система может понизить позицию веб-ресурса в поисковой выдаче;
  • некоторые страницы могут содержать контент, который не для общего пользования, а для эксклюзивных подписчиков сайта, к примеру и т.д.

Для поискового робота ПС Яндекс в этом файле прописывается главное зеркало сайта (во избежание дублей) и путь к карте сайта.

Карта сайта (файл sitemap.xml)отвечает за ускорении и полноту индексации веб-ресурса. В ней содержатся все страницы, которые необходимо владельцу сайта занести в индекс с указанием их приоритета.

Во всех анализируемых блогах присутствуют оба файла. Только один блог не содержит отдельную инструкцию для поисковой системы Яндекс, но у всех прописано главное зеркало и путь к карте сайта. Файл sitemap.xml есть во всех сайтах.

Для составления карты сайта я пользуюсь замечательным плагином XML-SiteMap – рекомендую.

Подведем итоги, рассматривая позицию моего блога для дальнейшей оптимизации:

  1. По рангам полный ноль. А это значит, что для поднятия этих заветных цифр необходимо делать две вещи: во-первых, больше уникального контента, во вторых, привлечение большего количества посетителей на страницы моего блога;
  2. Индексация моего блога не завершена – Яндекс до сих пор не соизволил заглянуть на мои страницы. Поэтому ждем русского робота. А также открою свои теги (не больше 15-ти, включая ключевые слова seo старт и горячий интернет-маркетинг) и предложу ПС Google их проиндексировать.
  3. Закрою все внешние ссылки, чтобы не утекал вес моих страниц. Добавлю для нового контента дополнительную перелинковку документов блога.
  4. Карту сайта менять не буду, в robots.txt уберу возможность индексировать мои рубрики и архивы, но открою доступ к тегам .

Ну вот, первая часть аналитики лучших курсантских блогов закончилась. В следующей статье рассмотрим, как были оптимизированы записи на учебных блогах и взглянем на статистику посещений. До встречи!

Понравилась статья?

Подписывайтесь на новости сайта!

Получайте новые статьи блога прямо на свой e-mail:

Вверх