Готовим сайт к активному seo-продвижению ч.1

Продвижение сайта 20.01.2014 Комментарии: 30 11773 просмотров

Доклад Сергея Кокшарова на ForwardSEOПриветствую Вас, уважаемые читатели блога “Записки seo-специалиста”! Празднование новогодних и рождественских праздников закончилось, все отчеты по прошлому году написаны – пора приниматься опять за нашу любимую сеошную тему! И начну я публикацию новых постов с доклада Сергея Кокшарова под названием “Как подготовить сайт к активному продвижению”. Тема на сегодняшний день как нельзя актуальная – с одной стороны появилась новая версия АГС, которая выкинула из индекса русского поисковика почти 25% всех сайтов Рунета, с другой стороны Яндекс пообещал убрать из факторов ранжирования ценность покупных ссылок. Поэтому советы и рекомендации от Сергея будут как нельзя кстати.

История seo и эволюция факторов ранжирования

Сергей Кокшаров (Devaka), известный seo-специалист и популярный блоггер, решил свой серьезный доклад начать с истории факторов ранжирования. Таким образом он хотел подчеркнуть всю важность изменений, которые произошли в последние месяцы в мире поискового продвижения. Поэтому, быстренько пробежимся по прошлым событиям формирования поисковых алгоритмов.

История факторов ранжирования Яндекса и Гугла

Вначале, когда поисковые системы были молоды и неопытны, основными показателями попадания в топ были текстовые факторы отбора сайтов для выдачи. В то время важна была плотность текста, наличие точных вхождений поисковых запросов и т.д. Именно тогда, с 1993 года,  сеошники познакомились с понятием релевантности страницы сайта. Спустя пять лет к текстовым факторам добавились ссылочные – для успешного продвижения стала важной ссылочная масса сайта. Чуть позже к ним добавились ориентиры авторитетности ресурса, важно было знать доверие к нему поисковиков.

Автор доклада Сергей Кокшаров (Devaka)Ссылочное ранжирование в совокупности  с трастом сайта стали основными показателями успешной seo-раскрутки на на целое десятилетие. Схема тогда была очень простой – у кого больше бюджет на ссылочное продвижение, тот и получает больше поисковый трафик. Конечно, за это время появлялись новые технологии, ужесточались правила оценки качественных доноров. Но принцип оставался неизменным.

Именно тогда возникли целые комплексы автоматизированного продвижения, которые могли сами подбирать поисковые запросы для продвижения и покупать для продвигаемых страниц ссылки. Например, по такой схеме работает до сих пор самый последний вариант такого автоматического сервиса – Сеопульт Про. Поэтому, многие владельцы интернет-магазинов, коммерческих сайтов или порталов пользовались такими комплексами.

Но уже с 2010 года выдача стала меняться – виной тому стали серьезные изменения в алгоритмах поисковых систем. Сначала появилось некоторое влияние социальных сетей, чуть позже поисковики стали требовательней оценивать поведение посетителей на сайтах. А ближе к 2011 году Google первым стал формировать выдачу исходя из персональных предпочтений своих пользователей. В Яндексе это появилось уже в 2012 году с приходом нового поискового алгоритма Калининград. Таким образом, Яндекс и Google серьезно взялись за самый важный вопрос в своей работе, – “соответствуют ли ожидания их пользователей с результатами поиска?” В итоге повысилась планка качества подаваемого контента.

В том же году на первое место наряду с похожими другими часто стали выходить факторы, которые оценивали юзабилити сайта. Какой у сайта дизайн, удобная ли навигация, все ли виджеты полезны – теперь поисковый трафик стали чаще получать ресурсы с интуитивно-понятным и функциональным дизайном. Участились чистки индекса обоих систем путем периодических апдейтов и модернизаций санкций.

Все это привело к серьезным изменениям уже в 2013 году, когда во главе угла стало понятие ценности сайта с точки зрения поисковой системы. И теперь, если сайт не продает или не покупает говноссылки или не ворует контент еще не дает ему право находиться в индексе – теперь поисковикам нужна добавочная стоимость ресурса, его возможная полезность для посетителей из поиска.

Итоги эволюции глазами нерадивого сеошника

Что же в итоге получили владельцы сайтов, которые пренебрегали рекомендациями Яндекса и Гугла? От поисковиков они дождались антиспам-алгоритмов, по другому называемые фильтрами (также есть бан – пожизненный эцих с гвоздями!). Вот самые основные из этих санкций, которые стоят на страже полезного и уникального контента:

АГС. Официально – это специальный фильтр для отсева некачественных сайтов. По простому – решето для говносайтов. С помощью этого фильтра яндексоиды не допускают некачественные ресусры, сайты сделанные исключительно под поисковые системы. А в прошлом году вышла новая версия фильтра Яндекса АГС-40, которая еще и не пускает в индекс сайты без добавочной стоимости.

Панда. Google прекрсано умеет работать с любым контентом и поэтому умеет отличать качественный контент от некачественного. С помощью этого фильтра Гугл исключает из своей базы сайты с блеклым и бесполезным текстовым и медийным наполнением.

Приоритет первого экрана. Когда посетители из поиска приходят, они сразу видят на своем мониторе шапку сайта и прилегающие к ней виджеты, текст и другие элементы. Это так называемый “первый экран”. Поисковики придают ему большой приоритет и поэтому понижают позиции в выдаче тех ресурсов, которые на первом экране имеют больше рекламы, чем полезного контента. Кстати, проверить первый экран своего сайта можно на специальной страничке Google – browsersize.googlelabs.com.

Например, вот так выглядит первый экран моего блога с точки зрения обычного среднестатистического пользователя Google. Красная линия показывает 70%-ный предел, ниже которого по мнению Гугла нужно скролить мышкой экран, чтобы посмотреть остальное содержимое.

Первый экран моего блога

Пингвин. Второй зверь, отвечающий за качественную выдачу в своем серпе. Его задача – наказывать сайты, которые активно по старинке продвигаются с помощью ссылок с анкорами из ключевых слов в прямом вхождении. Также в эту категорию попадают ресурсы, которые покупают ссылки с доноров низкого качества.

Итоги эволюции глазами поисковых систем

Чему научились поисковые системы за свою историю формирования правил ранжирования сайтов? С каждым годом поисковые алгоритмы Яндекса и Гугла становились умнее (если так можно сказать):

  • во-первых, начиная только с одной оценкой контента сайта, поисковые системы научились измерять и другие критерии полезности веб-ресурсов. Они включили понятие юзабилити сайта, стали точно определять поведение посетителей на нем, увидели разницу качества по многим параметрам. Таким образом, начиная с одной контентной линии поведения, смогли увидеть другие, которые расширяли возможности оценка сайтов.
  • во-вторых, если раньше в выдаче можно было найти много по разным темам много некачественных сайтов и даже спамные площадки, то теперь серп держится под бдительным присмотром большого числа факторов ранжирования. Теперь намного сложнее стало попадание в топ-10 – сначала нужно пройти первоначальное отсеивание при оценке сайта, затем пройти все 800+ факторов Яндекса (200+ у Google), чтобы твой ресурс смог побороться за место в заветной десятке. Это все заставляет с каждым годом улучшаться качеству новых сайтов и старых проектов, что в итоге сказывается на улучшение выдачи поисковых систем.
  • в-третьих, видя различные изменения на сайтах, поисковые системы научились видеть и оценивать самые лучшие и работающие способы влияния на их посетителей. Все это они благополучно переняли для своих нужд. В итоге в поисковой выдаче кроме самой строки запроса и контекстно-медийной рекламы стали появляться различные виджеты, сервисы, колдунщики. Таким образом Яндекс и Гугл стали лучше разбираться в пользовательском вопросе своего клиента – обычного пользователя из Интернета.

Выводы по поисковому трафику сегодня

Перед тем, как наметить свой план активного продвижения, учитывая современные реалии, стоит подвести промежуточные итоги сегодняшнего дня. Давайте посмотрим, на что нужно обратить свой взгляд в первую очередь seo-специалисту, веб-мастеру и блоггеру, чтобы получить без проблем свой трафик из поиска.

Важность поведенческих факторов. Раньше не было причины знать поисковым системам, как пользователь распоряжается с предоставленной ему в выдаче информацией. Посетитель переходил на сайт и дальше уже были его заботы, что он будет делать с контентом. Но со временем в выдачу стали просачиваться заведомо продвигаемые сайты, которые создавали свой контент исключительно для поисковых роботов. На это поиск ответил изменением алгоритма, что в итоге в создание новых поведенческих факторов ранжирования.

На что нужно обратить свое внимание в этом случае? Однозначно на хорошее юзабилити сайта, его удобство и особое внимание на понятную навигацию. До нужного контента посетитель не должен идти окольными путями. Сам контент должен быть отформатирован для быстрого поиска и дальнейшего удобного чтения. (вот полезная статья о поведенческих факторах). И не в коем случае не используйте накрутку этих факторов. Пользы от этого точно не будет. А вред – это только вопрос времени. Плюс неправильная информация в статистике поисковых запросов. Вот, например, свежая шутка сеошнегов…

Накрутка переходов сеошнегами по данным статистики Яндекса

Сайты с микроразметкой выигрывают. Если Ваш ресурс имеет такую тематическую направленность, которая позволяет ставить микроразметку, обязательно используйте ее. Ведь добавив в html-код страницы специальные теги, в сниппете выдачи  появится полезная информация на соответствующую тему. Тем самым увеличится CTR заголовка (ссылки с названием страницы в сниппете), что даст увеличение числа переходов на страницу Вашего сайта. Но эту работу доверьте специалисту по коду – это достаточно сложная и трудоемкая работа.

По многим ВЧ топ-10 не меняется годами. Это касается в основном сайтов коммерческой направленности. В такой выдаче сидят зубры поисковой выдачи Итнернета с офигительной историей и большими параметрами авторитетности. Поэтому лучше стоит обойти такие топы. Для этого следует правильно сделать анализ конкурентов по заданным тематикам и поисковым запросам. Иначе если не разобраться вначале, потом просто уйдут затраты на ветер – валуны передвинуть маленьким камешком невозможно!

Монолиты по запросу "Недвижимость в Москве"

Выдача разбавлена картами и другими сервисами. В последние годы в выдаче Яндекса и Гугла стали добавляться дополнительные сервисы (Карты, Маркет, Справочник, Новости и т.д.). Это заметно увеличивает длину первого и следующих экранов, что уменьшает значимость последних позиций (с 8-й по 10-ю).

В коммерческую выдачу подмешивается информационная примесь. Раньше если выдача была коммерческой, то есть сайты продвигались по конкурентным транзакционным поисковым запросам, то и топ-10 выглядел со страницами исключительно коммерческой направленности. Теперь происходит такая ситуация, что в выдаче могут появиться на некоторых местах топа страницы, которые получают трафик по информационным запросам. Но тема та же. Об этом более подробно рассказывал Александр Люстик в своем докладе о современных МФА сайтах.

Молодые и старые сайты с точки зрения seo. Новеньким сайтам и блогам в начале всегда сложно заявить себя в качестве серьезного игрока на seo-территории Яндекса и Гугла. Старым же намного проще завоевать высокие позиции. Вот сравнение старого и молодого ресурса по некоторым важным факторам:

Молодой и старый сайт с точки зрения seo

Итак, предпосылки к активному продвижению понятны – мы рассмотрели историю ранжирования современных поисковых систем, а также познакомились с общими тенденциями поискового трафика в настоящее время. Во второй части посмотрим на материале доклада Сергея Кокшарова, как же нужно продвигать свой сайт в современных условиях. До встречи!

Также рекомендую изучить мою пошаговую инструкцию для начинающих о seo-оптимизации и раскрутке сайта.

С уважением, Ваш Максим Довженко

Понравилась статья?

Подписывайтесь на новости сайта!

Получайте новые статьи блога прямо на свой e-mail:

Вверх