Автор: Эрик Энж (Eric Enge) – основатель и президент Stone Temple Consulting – ведущей консалтинговой компании по поисковой оптимизации в США. Одинешенек из авторов книги «SEO. Искусство раскрутки сайтов». Признанный эксперт в области поискового маркетинга.

Поисковые системы, такие как Google, желают, чтобы качество страниц в результатах поиска было высоким, а пользователи были ими довольны. Если анализ документа (веб-страницы) указывает на контент низенького качества, это может негативно повлиять на её ранжирование и видимость онлайн.

Есть много разных способов анализа качества контента. Тяжело сказать наверняка, какие из них используют поисковые системы. В этой статье мы рассмотрим то, что уже известно о деятельности Google в этой районы, а также другие концепции, которые вы сможете применить для улучшения своих страниц.

Что мы знаем о том, как Google оценивает качество контента

Итак, какие же сигналы и обновления поисковых алгоритмов используются в разборе документов? Помимо качества контента, краткий список включает уровень чтения, использование ключевых слов, однородность контента, плотность рекламы, скорость загрузки страницы и, наконец, факторы языкового разбора.

В конечном счёте, анализ документов направлен на повышение удобства для пользователей поисковой системы. Рассмотрим подробнее.

Алгоритм «Панда»

Когда выговор заходит о «качестве контента», практически каждый, кто знаком с SEO, сразу вспоминает об алгоритме Panda.

С момента запуска в феврале 2011 года этот фильтр получил несколько обновлений. В последнем итоге, в январе 2016 года, он был встроен в основной алгоритм Google.

Изначально алгоритм Google Panda был наведён на «малосодержательный и низкокачественный контент», который предоставляли так называемые контент-фермы, а также сайты, которые копировали содержимое иных ресурсов или же имели малое количество оригинального контента.

В настоящее время Panda по-прежнему борется со спамом, однако алгоритм сделался намного более сложным. После того, как этот фильтр был встроен в основной алгоритм, он стал неотъемлемой долей оценки качества контента посредством анализа документов.

Ручная проверка асессорами Google

В 2001 году в сеть впервые угодило руководство для асессоров Google (некоторые считают, что утечка была спланированной). Команда оценки качества поиска использует этот документ в качестве внутреннего мануала по ручной проверке и разбору веб-страниц.

Цель команды – определить, что представляет собой качество, и использовать эти данные в качестве обратной связи для инженеров Google, ответственных за разработку поисковых алгоритмов.

К образцу, если инженер хочет обновить алгоритм, то асессоры могут помочь ему оценить, приведёт ли это изменение к улучшению итогов поиска.

Со времени первой утечки руководства для асессоров в распоряжение вебмастеров попадали и другие, более поздние версии этого документа. В последнем итоге, в 2015 году Google открыл публичный доступ к полной версии мануала.

Насыщение ключевым словами и «ванильный» контент

Насыщение текста ключевыми словами (keyword stuffing) – это уже пройденный этап, о каком едва стоит упоминать. В старые времена поисковой оптимизации эта техника заключалась в многократном повторении одного и того же слова на странице для получения немало высоких позиций по этому запросу.

Наследием этой практики стало такое понятие, как «плотность ключевых слов» – процент от вхождений заданного ключевого слова (или фразы) на странице в расчёте на всеобщей количество слов на ней. Это также устаревшая концепция.

Наполнение ключевыми словами/плотность ключевых слов – это активность, ориентированная на поисковые системы, а не последнего пользователя. Поисковики запрещают использовать эту тактику, поскольку она не улучшает пользовательский опыт.

Перенасыщение ключевыми словами, особенно в сочетании с использованием небольшого числа синонимов для ключевой фразы или их отсутствием, – мощный сигнал низкокачественного контента.

Аналогичный эффект оказывает однообразный или так называемый «ванильный» контент. Это происходит в том случае, когда содержимое страницы утилитарны не отличается от контента других страниц, возвращаемых по тому же поисковому запросу, и не несёт в себе новизны, оригинальности и полезности. Так, публикация статьи о том, как готовить французские тосты, не привнесёт ничего нового в интернет:

На скриншоте выше мы видим, что в сети есть 625 тысяч страниц на эту тему.

Такие страницы могут иметь трудности в ранжировании, поскольку в их содержимом нет ничего новоиспеченного. Ситуация может измениться только в том случае, если материал будет включать свежие мнения по этой теме или же суждения авторитетных пользователей и экспертов.

При этом сайт, предлагающий контент, который эффективно отвечает на вопросы по заданной теме, будет ранжироваться рослее.

Плотность рекламы, оскорбительный контент и алгоритм Page Layout

Инженеры поиска выяснили, что сайты, перегруженные рекламой, основывают неудобства для пользователей. В январе 2012 года Google представил новый алгоритм Page Layout. Он понижает в выдаче те сайты, какие содержат большое количество рекламы в верхней части страницы, что приводит к смещению фактического контента вниз.

Желаете узнать, не попал ли под него ваш сайт? Оцените, какой процент площади верхней части страницы занимает реклама. Чересчур высокая плотность рекламы может расцениваться как негативный сигнал.

В первоначальном посте, посвящённом Page Layout, Google подчеркнул, что алгоритм затронет лишь те страницы, которые содержат аномально большое количество рекламы по выборке.

У Google также есть патент на дефиниция раздражающей или оскорбительной рекламы и страниц.

Скорость загрузки страницы

Скорость загрузки страницы важна для конечных пользователей. Следственно, она значима и для Google. Поисковик не хочет, чтобы в результатах поиска показывались сайты, которые создают неудобства для пользователей.

В апреле 2010 года Google огласил, что скорость загрузки сайта стала использоваться в качестве фактора ранжирования. На тот момент обновление затронуло лишь 1% итогов поиска. Однако медленные сайты могут иметь более высокий показатель отказов и получать меньше конверсий.

Рост мобильного розыска: потребность в скорости

В июне 2016 года сотрудник Google Гэри Илш заявил, что поисковик будет учитывать скорость загрузки страниц в мобильном ранжировании.

Вскоре после этого иной представитель Google, Джон Мюллер, посоветовал стремиться к тому, чтобы время загрузки мобильной страницы не превышало 2-3 секунд.

Сообразно рекомендациям на сайте Google Developers, загрузка содержимого в верхней части страницы на мобильных устройствах не должна превышать 1 секунду.

Несмотря на все предыдущие заявления, Google пока не использует скорость загрузки страницы в качестве значимого сигнала ранжирования. Этот фактор может негативно отпечатлеться на позициях лишь в том случае, если сайт слишком медленный. Однако он сильно влияет на отношение пользователей и конверсии.

Языковой разбор и пользовательский интент

Языковой анализ помогает поисковым системам расшифровывать намерения пользователей – и это становится всё более значительным для того, как работает ранжирование сегодня.

С помощью языкового анализа поисковые системы, такие как Google, пытаются постигнуть мир так же, как это делают люди.

Система искусственного интеллекта RankBrain, запущенная в 2015 году, анализирует язык в интернете, чтобы поддержать Google лучше понимать, что означают те слова и фразы, которые содержаться на веб-страницах.

Эти знания используются для лучшего понимания запросов пользователей и намерений, какие стоят за ними. Затем система подбирает подходящие алгоритмы и предоставляет результат, который наиболее точно отвечает пользовательскому интенту.

Один из методов, которые используются в работе системы – это выделение языковых паттернов для определения наилучших итогов.

Эта критически важная часть в подходе Google к анализу документов помогает подбирать наиболее подходящие веб-страницы для любого заданного запроса.

Разбор документов и уровень чтения

Уровень чтения связан с оценочной «читабельностью» веб-контента. Стандартной формулой оценки этого аспекта является тест читаемости текста Флеша-Кинкейда.

В рамках разбора документов этот метод используется для измерения среднего количества слов в предложении и среднего количества слогов в слове.

Тест Флеша-Кинкейда не назначен для определения уровня образования, необходимого для чтения документа, как считают некоторые. Он, скорее, позволяет измерить, сколько интеллектуальных усилий потребуется для чтения заданного предложения.

Чтобы оценить удобочитаемость текста, можно использовать соответствующий инструмент в Microsoft Word.

Очевидно, что «оптимального» степени чтения для всех веб-страниц не существует. Этот показатель будет зависеть от специфики сайта и того контента, какой он публикует.

Пока не известно, использует ли Google этот тип анализа в какой-либо форме. Однако теперь мы видим, как показатель читабельности может помогать поисковой системе сопоставлять веб-документы с запросом в подневольности от уровня сложности, который в нём обозначен.

Например, запрос «как рассчитать срок выплат по ипотеке» предполагает, что пользователь желает понять алгоритм вычислений. Поэтому подробная статья, имеющая более высокий уровень чтения, возможно, лучше придётся под этот запрос.

С другой стороны, запрос «калькулятор выплат по ипотеке» предполагает, что пользователю нужно просто получить ответ на проблема. В данном случае уровень чтения контента может быть значительно ниже.

Независимо от того, использует Google этот тип разбора или нет, важно понимать, чего хочет ваша аудитория с точки зрения сложности, и создавать контент, который отвечает этим ожиданиям.

Заключение

Поисковые системы хотят предоставлять своим пользователям релевантный и актуальный контент в итогах. Понимание того, как работает анализ документов и какие факторы учитываются, может помочь вебмастерам улучшить не лишь свои страницы, но и их позиции в выдаче.

Источник: searchengines.ru