Анализ 1 миллиона поисковых запросов в Google. SEO выводы 2016.


Данный пост будет состоять частично из перевода очень интересного исследования, которое провели ребята из backlinko.com и моих личных наблюдений. В первую очередь хочу выразить благодарность 

Итак, часть 1 (свободный выборочный перевод оригинала).

Недавно мы проанализировали 1 миллион запросов в поисковой системе Google, чтобы ответить на следующий вопрос:

Какие факторы коррелируют с попаданием сайта в ТОП?

Мы изучили контент. Рассмотрели ссылки. Мы также взглянули на скорость загрузки сайта.

И сегодня я поделюсь с вами результатами.

Вот наши основные наблюдения:

1. Ссылки остаются одним из наиболее важных факторов ранжирования в Google. Мы обнаружили, что количество ссылающихся доменов больше всего коррелирует с позициями сайта.

2. Наши данные также показывают, что общий ссылочный вес (по данным Ahrefs) тесно связан с более высокими позициями в выдачи.

3. Мы обнаружили, что контент максимально релевантный теме статьи (по данным MarketMuse) существенно опережает контент, который в деталях не раскрывает тему.

4. Основываясь на данных SEMRush, мы обнаружили что объемные статьи имеют тенденцию занимать более высокие позиции. Средний объем статьи из ТОП 10 Google — 1890 слов.

5. Использование HTTPS является существенным фактором попадания в ТОП 10. И это не удивительно, ведь гугл официально подтвердил, что HTTPS является сигналом ранжирования.

6. Несмотря на всю шумиху вокруг микроразметки Schema, мы не нашли связи с попаданием в ТОП.

7. Контент с хотя бы одной картинкой существенно опережает контент, где изображения не используются. Хотя, мы не нашли связи с использованием большего количества изображений.

8. Использование ключевых слов в тайтле страницы оказывает существенно меньше влияние на позиции сайта, чем мы ожидали.

9. Скорость загрузки сайта имеет значение. Основываясь на данных, полученных из Alexa, можно утверждать, что быстрые сайты существенно опережают медленных конкурентов в выдаче.

10. Несмотря на множественные апдейты Пингвина, точное вхождение анкора оказывает большое влияние на ранжирование сайта.

11. Основываясь на данных SimilarWeb, мы обнаружили что низкий показатель отказов коррелируют с более высокими позициями в выдаче Google.

Часть 2. Мои личные наблюдения и выводы

Далее в оригинальной статье детально описывается каждый из вышеприведенных пунктов и я не вижу особого смысла ее переводить. Кто захочет, тот ознакомится самостоятельно.

Я бы хотел остановится на одном пункте, который кажется мне наиболее важным.

Контент, который в деталях раскрывает тему ранжируется существенно выше

В недалеком прошлом Google определял тему статьи, основываясь исключительно на вхождениях ключевых фраз. Чем больше повторений кейвордов было в тексте, тем более высокие позиции занимала страница. Сегодня же, во многом благодаря алгоритму Колибри, Google научился понимать семантическое значение контента каждой страницы. Например, когда вы ищите «кто режиссер назад в будущее», гугл не будет показывать страницы с точным вхождением ключа, а напротив даст конкретный ответ.

Алгоритм Коллибри

Таким образом при оптимизации контента, необходимо учитывать данный факт. В теории, сайты, которые полностью раскрывают одну конкретную тему, должны занимать более высокие позиции. В своих прошлых статьях, я не раз упоминал, что стоит создавать разнообразие семантического ядра и не допускать множественных повторений вхождений ключа. Теперь скорее всего все абсолютно наоборот.

В своем исследовании Brian Dean проанализировал 10 000 сайтов на важность «авторитетного контента». И согласно данному исследованию более детальный и объемный контент существенно опережает конкурентов.

Самое интересное — это то, что в ТОПе выдачи зачастую оказываются сайты, которые совсем не имеет точного вхождения ключа. Наверное, все сеошники, начиная от «белых» оптимизаторов, кончая дорвейщиками знают насколько важно использование ключа в Title, Description и в самом контенте. Но похоже, что пришло время больших перемен.

Прежде всего скажу, что данные наблюдения объяснили существенные просадки трафика на моих сайтах, а также сайтах других вебмастеров, которые имели место в октябре 2015 года. Как раз тогда и произошло очередное обновление алгоритма RankBrain, который является составной частью алгоритма Колибри (Hummingbird).

Этим также можно объяснить почему так сильно пошатнуло дорвеи в разных нишах и на разных языка. Многие опытные дорвейщики утверждают, что с октября месяца получать былые объемы трафика стало намного сложней. Не находите ничего общего?

Как с этим бороться?

Если с СДЛ все примерно понятно, то вот создание дорвеев, которые бы удовлетворили нынешний аппетит гугла, ставит меня в тупик. Единственный выход, который я пока вижу — это парсинг нескольких статей по каждому кейворду из ТОПа с дальнейшей уникализацией (Spin или банальное перемешивание предложений). По сути, это очень похоже на старые добрые сниппеты, но немного по-другому.

Стоит понимать, что дальше будет только хуже. Точнее лучше, ведь по сути выдача действительно становится более релевантной и качественной и биться головой о стену алгоритмов гугла глупо. Я уверен, что на данном этапе еще можно адаптироваться и приспособить свои методы, но уже сейчас необходимо рассматривать переход в более белые направления SEO.

Понравилась статья? Подпишитесь на обновления и получайте только интересную информацию о белом и черном SEO, дорвеях, наращивании ссылочной массы, продвижении и зароботке, а также многое другое! Все основано исключительно на собственном опыте и проверено лично.