• С чего приступить аудит сайта?
  • Проверка кроссбраузерности
  • Валидация Html и CSS
  • Проверка адаптивности сайта
  • Аудит микроразметки
  • Проверка кодировки
  • Аудит скорости загрузки сайта
  • Проверка фавикона
  • Аудит карты сайта в формате sitemap.xml
  • Проверка ответа на промах 404
  • Аудит файла Robots
  • Проверяем заголовки и альты у картинок
  • Аудит Seo-тегов для всех страниц сайта
  • Проверка склейки зеркал
  • Проверка колоченных ссылок на сайте
  • Проверка наличия ЧПУ-адресов
  • Аудит внешних ссылок
  • Тег Canonical
  • Аудит индексации сайта
  • Чек-лист по юзабилити и коммерческим факторам
  • Как я уже не раз сообщал, да и вы сами знаете, что главное в сайте — это контент (его наполнение, содержимое). Все остальное является второстепенным и неважным. Ступней. Второстепенным да, но все равно очень важным.

    То как оформлен контент, во что он завернут, как подается и как все это выглядит с точки зрения поисковых систем — весьма важно. Это не даст вам какую-то немыслимую фору относительно конкурентов (при условии, что они аудит сайта проводят регулярно), но позволит подняться с ними на одну ступень (сравняться с голодными).

    SEO сейчас включает в себя целый ряд факторов разной степени важности (об этом еще раздельно поговорим). Например, для Яндекса на первом месте тексты, а для Гугла по-прежнему в приоритете ссылки (без них рост трафика маловероятен). Но если на сайте есть ошибки технического или структурного типа, хромает юзабилити и тянет вниз поведенческие факторы, то добра от этого не жди.

    Сайтам, продвигающимся по коммерческим запросам вытекаете в аудит добавлять еще и инвентаризацию наличия всех коммерческих факторов (а их немало), без которых сейчас в этой области вообще мастерить нечего. В общем, много за чем нужно следить, а вот за чем именно будет детально рассмотрено ниже по тексту. На самом деле — все весьма и очень просто.

    С чего начать аудит сайта?

    Сначала пару слов о том, кому и зачем это может быть необходимо. Если говорить коротко, то всем у кого есть сайты и кто хочет, чтобы росту их популярности (посещаемости) ничто не помешивало. Это может быть только что созданный сайт или проект, который существует давно.

    Аудит показан и одностраничникам и монстрам в миллионы страниц (заключительные, кстати, отдачу от проверки почувствуют в большей мере). Аудит нужен всем. Другое дело, что проводить его могут профи с пристойными ценниками, а можете сделать и вы сами, сформировав в конце список задач для вашего программиста (если такового нет, то биржи фрилансеров ожидают ваших предложений с нетерпением).

    В принципе, ничего сложного в этом нет. Посидите часок-другой за компьютером, составите по моим лекалам задания на доработку, поищите на биржах исполнителей (истина, это не так просто, ибо там много посредников) и все. При желании можете и сами все это править, но тут уже парой часов не обойдетесь, хотя я ссылочки все же покину для особо пытливых умов.

    В принципе, с чего начинать аудит не так уж и важно, ибо все пункты чек-листа необходимо выполнить, а уже в каком распорядке роли не играет. Отсутствие на сайте ошибок, мешающих продвижению — это комплексная величина и она достигается лишь комплексной и всеобъемлющей проверкой. Поехали.

    Стоп, еще пару слов отступления надо сказать. Дело в том, что есть сайты, какие продвигаются только по информационным запросам (мой блог тому яркий пример). Им по жизни проще, ибо конкуренция в выдаче не столь росла и поисковики некоторые огрехи прощают, а на что-то вообще внимания не обращают.

    Но есть сайты, на которых продвигаются еще и (или в основном) коммерческие требования, а вот тут в выдаче идет настоящая рубка. Для таких сайтов продвижение — это хождение по минному полю. Тут важно все: и объемы текста, и вхождение ключей, и расположение элементов сайта, и структура разделов и так называемые коммерческие факторы (телефон необходимого формата, контакты как у других и т.п.).

    Зачем я это говорю? А затем, что аудит будет универсальный, подходящий для коммерческих и информационных сайтов. Если требования, продвигаемые на вашем сайте информационные, то вы просто опустите те пункты, которые необходимы для продвижения запросов коммерческих. Для вас это будет излишней. Ну а продающим сайтам нужно будет проходить все пункты этого чек-листа неукоснительно.

    Вот, а теперь уж точно поехали…

    Проверка кроссбраузерности сайта

    Как вы соображаете, пользователи на ваш сайт могут заходить с совершенно разных обозревателей (только основных браузеров вот сколько). К тому же сейчас весьма большая доля трафика идет с мобильных устройств (уже более половины от всего потока посетителей). Естественно, что вам необходимо точно знать, что с отображением вашего сайта в этих браузерах тоже все в порядке.

    Как это проверить? Ну, можно скачать себе Хромоног, Мазилу, Оперу, Яндекс Браузер, Сафари, IE и другие. Смотреть в них нужно не только отображение главной страницы, но и иные показательные для вашего сайта страницы (со статьями, с карточками товара, с листингом товара, с контактами). То же самое и для браузеров на популярных мобильных конструкциях (Андроиде и iOs).

    Есть и более универсальный вариант — онлайн-сервис BrowserShots. Он бесплатный, но вполне себе функциональный. Поддерживает большенное число браузеров, а на выходе выдает скриншоты вашего сайта сделанные в выбранных вами обозревателях. Работает не скоро, но вполне сносно.

    Если что-то где-то пойдет не так (поедет дизайн, не подключатся стили, что-то перекосится), то строчите первым пунктом в задание программисту: добиться правильного отображения сайта в таких-то браузерах.

    Валидация Html и CSS

    Этот этап аудита чем-то сродни предыдущему. Валидация (что это вообще такое?) кода и CSS манеров нужна не сама по себе (для галочки), а именно для того, чтобы избежать возможных проблем с отображением сайта, какие зачастую визуальными методами выявить бывает совсем непросто.

    Тем более что мудрить тут особо не нужно. Есть официальные валидаторы от консорциума W3C (он отвечает за формирование стандартов нынешне языка разметки), в которые просто нужно будет добавить адрес страницы вашего сайта:

  • Валидатор HTML кода
  • Валидатор CSS кода
  • Опять же, вы должны соображать, что через валидаторы нужно прогонять не только главную страницу, но и другие «показательные». Например, страницы со статьями, страницы с товарами, со списком товаров (или статей) и т.д. На любой из них могут быть свои ошибки и замечания.

    Что делать с найденными ошибками? Ну, не паниковать, это точно. Если сами соображаете где нужно поправить, то в путь. Но зачастую для исправления ошибок в коде разметки придется копать глубоко и лезть в код движка или плагинов (расширений). В этом случае даете задание программисту: прибрать по возможности все ошибки, выдаваемые валидаторами для «показательных» страниц вашего сайта.

    Проверка адаптивности сайта

    Как я уже сообщал, более половины трафика в рунете уже идет с мобильных устройств. Поэтому хотим мы этого или не хотим, но наши сайты должны уметь «прекрасно сжиматься» (адаптироваться) к экранам гаджетов с низким разрешением. В противном случае вы просто убьете на корню поведенческие факторы вашего примечательного сайта, которому для показа на экране мобильника потребует горизонтальная прокрутка.

    Какими же способами на этом этапе аудита выявить проблему или увериться, что ее нет? В принципе, вы можете просто открыть ваш сайт на своем мобильнике и все увидеть воочию. Есть отличный сервис IloveaDaptive (рекомендую). Или еще несложнее — прямо на компьютере уменьшайте размер окна браузера схватив его мышью за угол. Появляется горизонтальная прокрутка? Картинки вписываются в новоиспеченные размеры?

    Если вы сузили экран в десятки раз, а текст, картинки, кнопки и прочее оформление успешно адаптируется к такому размеру (перестраивается), то это уже примечательно. Но даже если там вам покажется все хорошо — это еще не значит, что все будет хорошо и для поисковых систем. Лучше подстраховаться и посмотреть на сайт глазами поисковых систем.

    У Гугла кушать специальный тест, проверяющий оптимизацию любого сайта под мобильные устройства:

    Тут тоже лучше будет проверить все «показательные» страницы, чтобы увериться в полном отсутствии проблем с адаптивностью на всем вашем сайте.

    У Яндекса тоже есть подобный инструмент, но доступен он лишь из панели для вебмастеров на вкладке «Инструменты» — «Проверка мобильных страниц»:

    Что мастерить, если ваш сайт в ходе аудита не прошел тест на адаптивность? Не паниковать, но брать ноги в руки и искать решение. Собственно я сделал свой сайт адаптивным самостоятельно и даже подробно описал сей процесс.

    Но это вовсе не обязательно делать самому. Адаптация под мобильные конструкции не такая уж и сложная задача для программиста (верстальщика), так что просто добавьте еще один пункт в свое техзадание сформулированное по итогам этого аудита. Я бы рекомендовал делать именно адаптацию, а не отдельную мобильную версию сайта.

    Аудит микроразметки

    Микроразметка — это необходимый атрибут оптимизации сайта при продвижении по коммерческим запросам. Размечаются карточки товаров, контакты, телефоны и все такое прочее. Она скрыта от глаз обыкновенных пользователей и добавляется программно в Html-код в виде дополнительных атрибутов.

    Зачем она нужна? Ну, чтобы поисковики четко и безошибочно соображали, что тут что. Микроразметкой вы буквально тыкаете пальцем поисковику — вот цена, а вот фотография товара, а вот контакты продавца, а вот его телефон.

    Зачем это необходимо поисковым системам? Ну, как же, по этим признакам они оценивают коммерческие факторы сайта (об этом будет отдельная статья) и решают — хватать его в «обойму» доверенных продавцов или это фуфел (дорвей, например) маскирующийся под коммерческий сайт.

    Данные из микроразметки могут попадать в сниппет (описание вашего сайта в выдаче поисковиков) и быть добавочным привлекающим элементом. В общем, для коммерческих сайтов микроразметка обязательна, но далеко не факт, что она у вас выполнена безошибочно.

    Как проверить микроразметку? Опять же будет просто ибо и в Гугле, и в Яндексе для этой цели предусмотрены валидаторы микроразметки:

  • Проверка микроразметки на ошибки в Яндексе
  • Проверка структурированных этих в Гугле
  • Аудит вашего сайта по этому пункту чек-листа будет заключаться лишь в подстановке Урлов страниц, где требуется проверить микроразметку на промахи.

    Главное тут, как мне кажется, это страница с контактами. Обязательно должны быть размечены название компании, почтовый адрес, индекс, контактный телефон, факс, электронная почта. Если там чего-то не хватаете или кушать ошибки в микроразметке, то КФ (коммерческие факторы) вашего сайта могут быть занижены Яндексом со всеми вытекающими.

    Проверка кодировки

    Браузеры сейчас весьма умные и умеют автоматически различать кодировки русского языка, коих очень много. Но самым верным вариантом будет показать тип используемой кодировки в самом начале Html кода всех страниц сайта. Так вы на 100% защититесь от кракозябров (нечитаемых символов, отображаемых вместо литеров русского языка).

    Аудит по этому пункту чек-листа будет довольно простым. Открываете любую страницу сайта в любом браузере и кликаете по порожнему месту на странице правой кнопкой мыши. Выбираете из контекстного меню пункт вида «Посмотреть код страницы» (либо нажмите Ctrl+U на клавиатуре) и в отворившемся окне ищите в самом верху сразу после директивы DOCTYPE конструкцию (называется метатег) задающую кодировку:

    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8" />

    У меня в коде это собственно так и выглядит:

    Вместо UTF-8 у вас может стоять windows-1251 — не суть важно, хотя все же юникод (UTF) сейчас почитается признанным стандартом (для нового сайта лучшие его использовать).

    Если такой строки в исходном коде страниц вы не отыщи (можно воспользоваться поиском по странице «Ctrl»+F), то нужно будет его туда добавить. В большинстве используемых движков сделать это совершенно несложно. В Вордпресс, например, этот код можно дописать в файл header.php из папки с используемой вами темой оформления. Ну а для программиста — это вообще минутное дело (попросту добавьте это в составляемое по результатам аудита ТЗ).

    Аудит скорости загрузки сайта

    Скорость загрузки страниц уже давно сделалась фактором, влияющим на продвижение сайта. Особенно это актуально сейчас, когда большая часть трафика идет с сотовых телефонов, а мобильный интернет ведь вдали не всегда «хорошо ловит». А посему именно у мобильных пользователей косяки в настройках сайта изливаются в очень долгую загрузку страниц.

    Реально более 4 секунд ждать никто не будет. Поисковики это дело фиксируют и принимают меры. Но вначале проблему надо диагностировать.

    Понятно, что вы может измерить скорость загрузки сайта десятком различных способов вплоть до того, что именуется «на глазок», открывая новые страницы сайта в браузере, где вы его еще не открывали до этого или после того, как почистили кеш браузера. Но это все не то, ибо требуется взглянуть на проблему со сторонки поисковиков.

    В этом плане отличным инструментом аудита может послужить сервис Гугла по оценке скорости загрузки сайта под наименованием PageSpeed Insights:

    Как и ранее не устаю повторять — проверять нужно не только главную страницу, но и все иные «показательные» (созданные по разным шаблонам) страницы. Результаты теста должны быть хотя бы неплохими, а в идеале — отличными. Я шел к таким результатам лет пять, наверное. Так долго, что теперь уже и радости никакой нет от достижения отличного итога.

    Но вы, естественно, не обязаны сами мучиться над повышением скорости работы сайта, ибо это реально сложное дело требующее познаний не лишь в программировании, но и в тонкой настойке веб-сервера. Просто добавьте в ваше ТЗ программисту пункт о том, что такой-то перечень страниц должен выдавать при их аудите в PageSpeed Insights отличный или желая бы хороший результат.

    Проверка фавикона

    Фавикону уже много лет и тот формат, в котором он изначально задавался (ico) уже давно морально устарел (его полностью вытеснил PNG). Однако favicon.ico живее всех живых.

    На большинстве сайтов для этой цели используется графический файл-иконка, сохраненная собственно в устаревшем формате ico. Размер его обычно равен 16 на 16 пикселей (у меня именно так), но можно сделать и вяще (32 на 32, например, использует Авито). Яндекс же для этой цели использует файл в формате png размера 64 на 64. У Гула ico размера 32 на 32. В всеобщем, кто в лес, кто по дрова.

    Что такое фавикон, как его создать и как подключить я уже довольно подробно писал. Если кратко, то он отображается в выдаче Яндекса рядышком с названием вашего сайта и на вкладкахзакладках браузера. Задать его можно просто добавив строку кода туда же, где мы лишь что кодировку смотрели:

    <link rel="shortcut icon" type="image/ico" href="http://ktonanovenkogo.ru/wp-content/themes/Organic/favicon.ico" />

    У Яндекса это выглядит чуть по-другому (но он может, по идее, нарушать все мыслимые правила):

    <link rel="shortcut icon" href="//yastatic.net/iconostasis/_/8lFaTHLDzmsEZz-5XaQg9iTWZGE.png">

    Но это не все. Вы еще не слышали про Apple Touch Icon? Нет? Я вот тоже недавно об этом услышал. И ведаете в чем тут дело? Это оказывается специальная иконка, которая будет отображаться на мобильном устройстве, если ваш сайт вытянули на «хом скрин» (аналог пролетария стола в iOs).

    Проблема еще и в том, что на разных устройствах от Эпл этот файлик требуется разного размера (от 57 на 57 пикселей до 180 на 180). Кроме iOs иконки формата «Apple Touch Icon» несмотря на наименование поддерживают и устройства на Андроиде. Какие там размеры нужны вообще непонятно.

    На официальной странице для Эпл-разработчиков на данный момент предлагается два варианта директивы мест хранения Apple Touch Icon — задать общую для всех иконку или несколько для любого размера. Мне второй вариант кажется слишком громоздким (четыре записи добавлять), поэтому я выбрал первый вариант с директивой пути до иконки (она должна быть в формате PNG) размером 180 на 180 пискселей:

    <link rel="apple-touch-icon" href="http://ktonanovenkogo.ru/apple-touch-icon.png">

    Если ничего из вышесказанного про фавикон и Apple Touch Icon вы не постигли, а в исходном коде сайта (Ctrl+U) поиском по странице (Ctrl+F) ничего подобного («shortcut icon» и «apple-touch-icon») не отыщи, то просто скопируйте этот текст вашему программисту и скажите ему: «чтоб было».

    Есть, уместно, отличный сервис «Генератор иконок Favicon«, который из одной загруженной вами картинки сделает тяни необходимый набор изображений, которые вы сможете скачать одним архивом.

    Мало того, он вам даже код для подключения всех этих красивостей к сайту предоставит. Истина, их там уже очень много получается, но вы всегда вольны чем-то пожертвовать ряда компактности исходного кода страниц вашего сайта.

    Аудит карты сайта в формате sitemap.xml

    Поисковые системы безусловно умнеют из года в год, но тем не немного нелишним будет им однозначно „показать пальцем“ на те страницы вашего сайта, которые необходимо проиндексировать. Для этого предусмотрен файл так именуемой карты сайта, который обычно называют sitemap.xml и размещают в корне сайта (именно там его в первую очередь будут разыскивать боты Яндекса и Гугла).

    Файл sitemap.xml в идеале должен обновляться с появлением новых страниц на сайте (в показанной чуть выше статье я упоминал про плагин для Вордпресс, который оперативно создает карту блога). В этом файле должны содержаться страницы, какие подлежат индексации поисковыми системами.

    Могу поделиться с вами несколькими лайфхаками по sitemap.xml, которые можно использовать:

  • Не стоит тупоумно помещать sitemap.xml в корень сайта и указывать путь до него в файле роботс.тхт (о нем мы еще ниже поговорим). Почему? Ну, зачем упрощать житье тем, кто ворует ваш контент (а такие всегда найдутся).

    Лучше спрятать этот файл поглубже и назвать по-другому (jfhfhdk.xtml, так). После этого просто идете в панель Гугла и Яндекс Вебмастер, чтобы указать там путь до этого файла. Все. Поисковики в курсе, а прочие пусть утрутся.

  • Если у вас огромный сайт с большим числом страниц и большой их вложенностью, то, наверняка, имеются проблемы с его индексацией. Кушать масса способов как загнать страницу в индекс (все те же IndexGator или GetBot) и удержать ее там (сквозной блок со случайным списком страниц), но можно и sitemap.xml для этой мишени использовать.

    Дайте задание вашему программисту, чтобы в файл карты сайта добавлялись только страницы, на этот момент не попавшие в индекс или выпавшие из него. Это ускорит доступ к ним ботов поисковиков, ибо они не будут отвлекаться на уже проиндексированные странички.

  • В всеобщем, данный этап аудита заключает в том, чтобы убедиться в наличии на сайте в любой момент времени актуального файла карты всех страниц подлежащих индексации. Если его нет, вы его не отыщи или вам он не понравился — пишите очередной пункт в ТЗ программисту. Для него все это как два пальца…

    Проверка ответа на ошибку 404

    Никто не идеален и уж тем немало те, кто будет ставить ссылки на ваш сайт на блогах, форумах, в соцсетах и других местах. Людям свойственно ошибаться. А одна промах в URL-адресе страницы ведет к тому, что ваш сервер (где живет сайт) ответит на такой запрос (переход по битой ссылке) кодом 404. Обыкновенное дело, но…

    Очень плохо, если эту ошибку будет обрабатывать браузер и выдаст пользователю белый лист с тонкой надписью „404 not found“. В этом случае этот посетитель будет для вас потерян. Такие промахи должен обрабатывать сам сервер и выдавать страницу 404 ошибки в дизайне вашего сайта, что сильно повысит вероятность того, что пользователь этот все же найдет у вас что-то увлекательное (на вашу радость). Понятно?

    Как проверить? Просто добавьте к адресу вашего сайта через слеш любую белиберду образа „http://ktonanovenkogo.ru/fdfdfsf“ в адресной строке браузера и смотрите на результат. Видите белый лист с тонкой надписью? Пишите очередной пункт ТЗ для программиста или настраивайте 404 страницу сами, например, опираясь на приведенную рослее статью.

    Второй важный момент. Нужно убедиться, что ваш веб-сервер (это не тот сервер, что в стойке хостера стоит, а программа веб-сервер) выдает в ответ на запрос несуществующих страниц собственно код 404. Если он выдает на них код 200, то беда. Будет много непонятных и ненужных проблем.

    Как проверить код ответа? Есть масса сервисов. Так, в составе Яндекс Вебмастера или этот вот. Вставляете в него адрес страницы, которой точно нет на сайте (типа „http://ktonanovenkogo.ru/fdfdfsf“) и глядите на код ответа вашего сервака:

    Если там не 404, то прям срочно связываетесь с программистом и просите в экстренном порядке все поправить. На самом деле, этот пункт аудита весьма важен, ибо чреват очень неприятными последствиями.

    Аудит файла Robots

    Испокон компьютерных веков поисковые роботы прежде чем приступить обход сайта ищут сначала в его корне файл robots.txt. В нем обычно указывают директивы для поисковых ботов, какие либо запрещают индексирование каких-то страниц и разделов (например, тех, где лежат файлы движка), либо разрешают индексацию, так, поддиректории в запрещенной для индексации директории.

    Подробнее про robots.txt и мета-тег роботс читайте в приведенной по ссылке статье. В принципе, этот файл может быть порожний либо его может не быть вовсе. Поисковики, конечно же, сумеют со временем (с годами) разобраться в том, что у вас мусор, а что „ценный контент“. Но как и с файлом sitemap.xml — лучше, если поисковому боту „показать перстом“.

    Robots.txt служит в основном для указания — туда ходи, сюда не ходи (а тут рыбу заворачивали). Это не значит, что бот туда подлинно не пойдет (гуглобот вообще везде ходит), но вы свою задачу выполнили и технические файлы (движка, темы оформления, скриптов) в индекс карабкаться не будут и время на их индексацию бот, скорее всего, тратить не будет.

    Тезисно по проверке robots.txt:

  • Аудит имеющегося у вас файла необходимо проводить в панели Гугла и Вебмастере Яндекса.

    Вводите адреса „показательных“ страниц и убеждаетесь, что они доступны для индексации. После вводите адреса технических файлов (папок) и убеждаетесь, что они закрыты для индексации. Главное правильно подобрать страницы и ничего не пропустить из важного. Если что-то не так, как надо, то добавляйте пункт в ТЗ программисту.

  • Раньше в robots.txt требовалось добавлять в отдельном блоке для Яндекса основное зеркало сайта с помощью директивы Hosts. Недавно Яндекс это дело отменил, но директиву многие по-прежнему прописывают.
  • Также многие добавляют в Роботс линия до карты сайта в формате xml. Но чуть выше мы с вами пришли к выводу, что лучше не палиться и не облегчать жизнь копипастерам.
  • Директивы, воспрещающие индексацию в файле Роботс.тхт не означают того, что бот не перейдет на эти страницы и не проиндексирует их. Особенно наплевательски к таким директивам относится Гугл.

    Если желаете 100% закрыть страницу от попадания в индекс добавьте в ее html код мета-тег robots (см. скрин). Например, у меня страницы с преходящими архивами закрыты именно так (через плагин ОлИнСЕоПак).

    В мета-теге robots значение „noindex“ воспрещает индексировать этот документ (страничку, то есть ее содержимое), а „follow“ разрешает переходить боту по имеющимся на ней ссылкам (но можно даже и это запретить). Подетальнее смотрите в приведенной выше статье по Роботсу.

  • Проверяем заголовки и альты у картинок

    В html предусмотрены уровни заголовков от H1 до H6, какие использовать на странице очень желательно именно в порядке убывания. Главный заголовок — это H1. Не стоит даже ради красивости сначала ставить H3 потом H1, а потом H2. Порядок — есть порядок.

    Другое дело, что многие лукавят и делают большие надписи (аля главные заголовки) вообще не заголовками, а обычными блоками (используются, например, теги div вместо H1), размер и вид текста в каких задается просто с помощью CSS.

    Дело в том, что в этой надписи (в отличие от H1) не нужно употреблять ключевые слова и ее можно сделать максимально притягательной и не загружённой ключами. А сам H1 может идти ниже и визуально будет выглядеть как рядовой заголовок или вообще как фрагмент текста.

    Уже дальней пойдут H2 (а как их подразделы — H3, если до этого дойдет), которые при продвижении под коммерческие запросы лучше ключами вообще не засорять — LSI фразы для них будут в самый раз. О них подетальнее поговорим в отдельной статье, но если кратко, то это фразы употребляемые экспертами в данной области, а не теми, кто в этом ничего не петрит.

    Ну, вы постигли? В принципе, это общая практика и хорошо работает особенно на продающих страницах, где главное склонить покупателя к действию крупными и ослепительными зазывными текстами, а для поисковиков использовать в скромно оформленном H1 (и тайтле) ключевые фразы (надо опять же смотреть на конкурентов из Топа по этому запросу).

    Весьма часто содержимое H1 совпадает с содержимым Тайтла (что такое тайтл и дескрипшен читайте по ссылке). В принципе, H1 дает возможность вариации использования иной версии ключа, а для информационных запросов, когда кластер ключей для одной страницы огромен, заголовки всех степеней дают возможность использовать как можно больше ключевых слов для увеличения трафика на статью.

    На данном же этапе аудита вам основное выяснить — соблюдается ли иерархия заголовков на основных типах страниц (главной, категориях, статьях, карточках товаров) вашего сайта и всюду ли есть H1. Для этой цели отлично подойдет плагин для браузеров Веб Девелопер, который наглядно может показать все используемые на странице заголовки. Можно и попросту подводить мышь к заголовку и из меню правой кнопки выбирать пункт „Посмотреть код“ (или „Исследовать элемент“), но это будет не так скоро и наглядно.

    Очень часто теги H2-H6 могут использоваться разработчиками шаблона в оформлении темы (заголовках меню, так). Лучше это все убрать, чтобы заголовки были только в уникальной части данной конкретной страницы (в ее теле, а не в обвесе).

    Касаемо атрибутов Alt и Title у используемых на сайте изображений (в теге Img). Атрибуты Alt должны быть прописаны непременно (их содержимое будет отображаться вместо картинки, если ее браузеру не удастся подгрузить), а Title — по жажде (его содержимое показывается при подведении мыши к изображению на странице сайта).

    Внимание! Сейчас в Альтах категорически нельзя спамить ключевыми словами, уповая на то, что их мол не видит посетитель, а потому туда пихают неочеловеченные n-граммы типа „холодильник купить Москва“. Масса сайтов за это попали под фильтр.

    Зачастую владельцы добавляли ключи даже к изображениям, относящимся к дизайну сайта (логотипам, стрелочкам и тому подобной мишуре). Сейчас Alt должен лишь описывать то, что изображено на картинке (ну, может еще с использованием LSI фраз — о них напишу отдельную статью).

    Как проводить аудит виол? Чтобы найти страницы, где атрибутов Alt вообще нет, можно использовать уже упомянутый выше Валидатор HTML кода. Он отсутствие виол отмечает именно как ошибку. Чтобы проверить содержимое тегов Альт отлично подойдет уже упомянутый выше плагин для браузеров Веб Девелопер (он умеет отображать содержимое виол для всех картинок на странице прямо рядом с изображением).

    Естественно, что при нахождении расхождений — правите их сами либо добавляете очередной пункт в ТЗ программисту.

    Аудит Seo-тегов для всех страниц сайта

    Какие SEO теги есть? Ну, изначально их было три: Title, description и keywords. Однако, keywords уже давным-давно стал рудиментом. Представляете, изначально он был придуман, чтобы поисковики соображали, по каким запросам ваш сайт ранжировать (добавлять в Топ). Глупые они тогда были.

    Что главное в рамках этого этапа аудита:

  • Во-первых, Title и description должны быть (какие собственно читайте в приведенной выше статье). В смысле, наличествовать. Страница без Title считайте что не существует для поисковиков. Description тоже значителен, но уже не так. О таких страницах (без тайтлов) вам с радостью расскажут Гугл и Яндекс Вебмастер в блоках с найденными ошибками. Также это наглядно можно увидать с помощью такой бесплатной программы, как Xenu Link, если отсортировать собранные ею данные по столбцу „titile“ (увидите порожние ячейки).
  • Во-вторых, не должно быть одинаковых Тайтлов у страниц в рамках одного сайта. Они должны хоть чем-то выделяться, даже если это карточки с похожими товарами. О таких ошибках вам опять же сообщат в панели вебмастеров Яндекса и Гугла (у меня таких промахов нет, а посему скрин привести не могу, но вы покопайтесь сами). Если сайт небольшой, то одинаковые теги Title вы и с поддержкой Xenu Link сможете выявить.

    Если сайт совсем маленький, то можно посмотреть Тайтлы и Дескрипшены вручную попросту нажав Ctrl+U на клавиатуре (посмотреть исходный код страницы):

    Что делать, если ошибки такого рода были отысканы? Если это статьи или карточки товаров, то просто измените чутка Тайтлы или настройте автоматическую их генерацию для карточек на основе штампа.

    У меня такая проблема была на страницах с пагинацией (типа главной на этом блоге, где внизу есть нумерация). Я попросту закрыл страницы пагинации от индексации (через мета-тег Роботс) и добавил на всякий случай к ним мета-тег Каноникал указывающий первую страницу как каноническую.

    Если ничего не постигли, то программист поймет обязательно и быстро решит для вас выявленные на этом этапе аудита проблемы. А иначе зачем вы ему денежки платите?

    Проверка склейки зеркал

    Поисковики такие глупые, что считают некоторые совершенно одинаковые на наш взгляд страницы различными. Например, для Яндекс и Гугла страницы со слешем и без слеша в конце будут разными:

    http://ktonanovenkogo.ru

    и

    http://ktonanovenkogo.ru/

    А также доменное имя сайта с www и без www для них воспринимают как два различных сайта:

    http://ktonanovenkogo.ru

    и

    http://www.ktonanovenkogo.ru

    Ну, как бы и ладно, что нам с этого, убудет что ли. Таки убудет. Контент-то на этих страницах и сайтах будет равный. А это что? Правильно. Дублирование контента, чего очень не любят поисковики. Почему? Потом что мы одним и тем же забиваем их базу, а значит для ее хранения необходимо больше „железа“ и больше денег. А лишние деньги поисковики тратить не любят.

    Второй очевидный минус. Внешние ссылки будут проставляться людьми и так и так (со слешем, без него, с www и без него). Если эти зеркала не слеплены, то поисковик (он на самом деле не такой тупой) выберет что-то одно как главное зеркало. А что будет с теми ссылками, что ведут не на основное зеркало? Правильно, они не будут приняты в расчет, что повлияет в худшую сторону на ранжирование сайта.

    Поэтому зеркала необходимо склеить с помощью 301 редиректа (мы этим говорим поисковикам, что это перенаправление делается навсегда в отличие от временного 302 редиректа). После этого дубли пропадут в глазах поисковиков, а все ссылки будут учтены в независимости от того был у них в конце слеш или нет, а также было ли www или нет.

    Как провести аудит склейки зеркал? Будет просто. Открываете в браузере ваш сайт и начинаете в адресной строке над ним глумиться. Для начала допишите перед доменом (после http://) три литеры www или, наоборот, сотрите их, если они там были. Потом нажмите Энтер на клавиатуре. Что произошло?

  • Страница обновилась, а в адресной строке ваше изменение сохранилось. Это нехорошо — зеркала не склеены.
  • Страница обновилась, но в адресной строке www исчезло. Это здорово, ибо именно так и отрабатывает 301 редирект у слепленных зеркал. Проверьте все то же самое и с другими страницами сайта. В идеале везде должно редиректить на главное зеркало (оно у вас может быть как с www, так и без www — вообще не значительно).
  • Теперь проведите тот же эксперимент со слешем. Если на главной странице в адресной строке его в конце нет, то добавьте и нажмите Энтер на клавиатуре. Если слеш остался, то склейки такого образа зеркал нет — надо будет дорабатывать. Если слеш изчез, то все ОК и зеркала такого типа тоже очутились склеены.

    Проверяем дальше. Добавьте в конце адреса главной страницы „/index.php“, чтобы вышло так „http://ktonanovenkogo.ru/index.php“. Жмите на Энтер. Редиректит на основное зеркало (в моем случае „http://ktonanovenkogo.ru“). Если нет (/index.php остается), то поздравляю — вы отыщи еще одно не склеенное зеркало.

    То же самое проверьте с /index.html и т.п. Забыл сказать, что нормальным вариантом при таких добавках будет также появление страницы 404 (не отыскано). В этом случае тоже дублей не будет, а ссылки с index после Урла главной страницы генерят лишь движки сайтов, но никто из людей на вас внешнюю ссылку в таком виде не поставит.

    Что делать, если на этом этапе аудита вы отыщи не склеенные зеркала? Похвалить себя, а потом либо самим попробовать сие безобразие поправить опираясь на эту и еще вот эту публикацию, либо добавить еще одинешенек пункт в ТЗ программисту. Для него эта проблема выеденного яйца не будет стоить.

    P.S. Если аудит показал, что зеркала (так, с www и без www) не были склеены, то в качестве будущего главного лучше выбрать то, которое таковым посчитала поисковая система. Для коммерческих запросов основным поисковиком является Яндекс, а посему необходимо ввести в его строку домен вашего сайта и подвести курсор мыши к названию вашего сайта в выдаче. В нательном левом углу браузера вы увидите адрес вашего сайта и именно такой вид стоит выбрать для главного зеркала (с www или без него).

    Проверка колоченных ссылок на сайте

    Что это такое? На вашем сайте всегда будут иметь место ссылки двух типов:

  • Внутренние — ведущие на иные страницы вашего же сайта.
  • Внешние — ведущие, соответственно, на другие ресурсы.
  • Так вот, оба этих вида ссылок могут быть колоченными, испорченными, то есть не приводящими к открытию страницы, на которые они по идее должны вести.

    Почему это может происходить:

  • Вы сами промахнулись при вставке ссылки (ввели URL адрес с ошибкой, допустили ошибки в теге гиперссылки).
  • Страница, на которую ведет эта ссылка могла со порой поменять адрес или вовсе быть удаленной (перенесенной). Это могли сделать вы сами на своем сайте (или ваш программист) и не учесть это изменение в перелинковке. На чужом сайте могло произойти то же самое и внешняя ссылка в результате этого стала колоченной.
  • Если это была внешняя ссылка, то могла даже исчезнуть не только сама страница, но и весь сайт. Уместно, несказанно грустно это наблюдать.
  • В любом случае вы должны регулярно проводить полный аудит всех имеющихся на сайте ссылок на объект того, не появились ли среди них битые (ведущие в никуда). Почему это так важно? Поисковые боты ходят только по ссылкам и если у вас будет чересчур много путей, по которым пройти нельзя, то они могут обидеться.

    В лучшем случае, ваш сайт с кучей битых ссылок будет глядеть для поисковых систем непрезентабельно. Это как магазин с облупившейся витриной, разбитыми стеклами и поломанными ступенями — доверия не возбуждает. Битые ссылки будут всегда и везде — такова их природа. Нужно просто регулярно коротать проверку и исправлять (или удалять) те пути, по которым пройти невозможно.

    Естественно, что переходить по всем ссылкам на всех страницах сайта будет не необходимо. Это процесс можно легко автоматизировать. Как это сделать? Об этом можно почитать тут — Проверка битых ссылок.

    Я мастерю так:

  • Раз в несколько месяцев прогоняю свой блог через сервис Broken Link Checker (подробнее о нем читайте в приведенной статье). Он коротает аудит очень быстро — минут за десять, наверное (но находит далеко не все). Я лечу или удаляю отысканные пути ведущие в никуда и еще на несколько месяце об этом забываю.
  • Раз в год или чуть больше я прогоняю сайт через программу Xenu Link Sleuth. Она даровая и расскажет о вашем сайте вообще все. Работает она долго — зато найдет все, что побилось или поломалось. После долго и нудно все это лечу, чтобы еще на год-два забыть об этом.
  • Естественно, что все это можно переложить на плечи программиста ничто вам не помешает проконтролировать выполненную им труд по описанным выше методикам.

    Проверка наличия ЧПУ-адресов

    Есть такой термин ЧПУ. Означает человеко-понятные урлы. Урлы — это адреса страниц вашего сайта. В принципе, они могут быть двух обликов:

  • Формируемые движками сайтов, когда после домена следуют знак вопроса и куча непонятных параметров (цифро-букв). Так, „http://ktonanovenkogo.ru/?p=59164“. Это не очень хорошо, ибо человек глядя на такой адрес мало что соображает.
  • Но бывают Урлы преобразованные к виду понятному человеку (ЧПУ). Вот так, например:
    http://ktonanovenkogo.ru/wordpress/plagini_wordpress/bitye-ssylki-proverka-paneli-yandeksa-google-programmoj-xenu-link-sleuth-wordpress-plaginom-broken-link-checker.html

    Тут виданы разделы, в которых помещена эта статья и их, кстати, можно открыть просто удалив все лишнее справа от последнего слеша (сам порой так делаю на других сайтах, если там нет хлебных крошек). Да и сам Урл представляет из себя вполне себе читаемый вариант заголовка, написанный транслитом (что это такое?).

    Почитается оптимальным использовать именно латиницу (транслитерацию с русского), нежели кириллицу. Связано это с особенностями работы поисковиков и кой-какими другими возникающим на ровном месте проблемами.

  • Что делать, если взглянув в адресную строку своего (или продвигаемого вами) сайта вы заметили, что Урлы не вида ЧПУ? Все зависит от возраста сайта. Если он только что появился и даже еще толком не проиндексировался, а также трафик на него пока не велик — храбро подключайте ЧПУ. Как подключить ЧПУ в WordPress я как-то уже писал, но ваш программист сможет это с легкостью сделать для любого движка.

    Если сайт уже имеет пристойный трафик с поисковых систем, то ничего не трогайте. Да, ЧПУ лучше, но если вы сейчас его подключите, то трафик потеряете (хотя если мастерить грамотно, то можно и не потерять, но нужен спец). Возможно, что со временем он вернется, но я бы не рисковал. Считайте, что результатом этого этапа аудита для вас сделалось знание как нужно было делать, если бы была возможность начать все сначала.

    Аудит внешних ссылок

    Это не SEO-аудит на объект качества, количества и содержания проставленных на ваш сайт ссылок (об этом мы еще в отдельной статье поговорим). Это аудит ссылок ведущих с вашего сайта. В идеале с него не надлежит быть проставлено ничего лишнего и уже тем более открытого для индексации, но это в идеале.

    Откуда могут взяться лишние внешние ссылки? Ну, кушать варианты.

  • Вам сделали сайт и зашили в него ссылку на компанию-разработчика.
  • Вам поставили шаблон, в котором были вшиты внешние ссылки (или даже код Сапы для торговли ссылок).
  • Сайт заражен вирусом (или его взломали), что опять же может выразиться в появлении несанкционированных вами внешних ссылок.
  • Ваш программист или администратор барыжат торговлей ссылок с обслуживаемых ими сайтов (у них ведь есть полный доступ к коду).
  • Если вы думаете, что сможете найти их визуально, то могу вас разочаровать, ибо сие крайне маловероятно. А посему необходимо взглянуть на сайт глазами поисковика, а точнее его бота. Сделать это можно только с использованием софта или специальных сервисов. Каких собственно?

  • Да все та же программа Xenu Link Sleuth собирает данные обо всех ведущих с вашего сайта ссылках. Отсортируйте ее итоги по первому столбцу „Addres“ и вы увидите весь список внешних ссылок.
  • Можно использовать примечательный СЕО-плагин для браузера RdsBar. В его настройках включите „Подсветку внешних ссылок“:

    В результате на открытой в браузере странице все внешние ссылки будут перечеркнуты, а те из них что отворены для индексации будут обведены красным пунктиром (это совсем плохо):

    Внимательно осмотрите таким образом все „показательные“ страницы особенно во периметру (шапка, футер, сайдбр). Но опять же, визуально не все можно увидать.

  • Можете использовать этот сервис (потребуется лишь регистрация). Вводите там адрес страницы и получаете список всех ведущих с нее ссылок. Внешние ссылки будут подсвечены алым цветом. Если ее анкор (текст ссылки) в соответствующем столбце перечеркнут, то значит она закрыта для индексации (в ней прописан атрибут rel=»nofollow», желая вес по ней все равно утекать будет).
  • Есть похожий инструмент для постраничной проверки исходящих ссылок в Pr-Cy. Ищите в колонке «Внешние ссылки» те строки, где нет красной надписи NOFOLLOW.
  • Если «левые» внешние ссылки в итоге аудита будут найдены, то дайте задание программисту на их удаление либо сами попытайте понять «откуда у них ноги вырастают». Зачастую они могут быть глубоко вшиты в код шаблона (зашифрованы) и для их удаления потребуются определенные навыки. Размышляю, что программист справится. В крайнем случае поменяйте шаблон (тему оформления).

    Тег Canonical

    В чем смысл Canonical? Это инструмент живой для Гугла (в меньшей степени для Яндекса), который позволяет на страницах с полностью или частично дублированным контентом оставить метку о том, что это как бы не страница сама по себе, а снимок канонической версии страницы (в мета-теге как раз указывается ее адрес) и не нужно ее индексировать.

    Где и когда это может понадобиться? Чаще итого таким образом решают проблему со страницами, имеющими пагинацию (это когда внизу будет переход на вторую, третью и иные части этой страницы). У меня это «Главная» и страницы рубрик.

    У таких страниц одинаковый Тайтл, H1 и Дескрипшн (зачастую и небольшой SEO-текст, какой добавляют для поисковиков), а значит в глазах поисковиков это дубли. Чтобы не искушать судьбу нужно для страниц типа «http://ktonanovenkogo.ru/page/2» добавить в html код тег Canonical с директивой Урла канонической (основной) для нее страницы (в нашем примере это «http://ktonanovenkogo.ru»):

    В чем заключает данный этап аудита? Попросту пройдитесь по всем страницам с пагинацией и посмотрите прописан ли на вторых, третьих и так далее страницах пагинации этот мета-тег (разыскивайте в исходном коде с помощью Ctrl+U и Ctrl+F) и ведет ли он на правильную каноническую страницу (ту, что без номера, т.е. первую в пагинации — материнскую).

    Кроме пагинации Canonical может использоваться и в иных случаях. Например, имеет смысл его применять для версий страницы для печати или отдельной мобильной версии. Также он позволяет прибрать дубли, создаваемые движком сайта (из-за каких-то своих внутренних багов).

    Также Canonical позволяет не засорять индекс различными страницами фильтрации (сортировок) используемых в интернет-магазинах (если лишь для каждой из таких страниц не формируются свои собственные Тайтлы, H1 и сео-тексты, что делает их уникальными).

    Все найденные замечания добавьте в ТЗ вашему программисту. Если увлекательно, то тут описан мой вариант настройки Canonical для блога на Вордпресс.

    Аудит индексации сайта

    Суть проверки — это постичь насколько полно и правильно индексируется наш ресурс. Для этого достаточно будет просто сравнить число страниц в индексе Яндекс и Гугла с поддержкой уже упоминаемого выше плагина для браузеров РДС-бар.

    Как видите, у меня в индексе Яндекса на треть страниц больше, чем в Гугле. В принципе это звоночек, какой обязательно нужно проверить (как-то я таким образом серьезную проблему выявил, именно сравнив число страниц в индексе).

    Для детального разбора можно кликнуть по цифрам в окне РДС-бара и перейти в выдачу Яндекса или Гугла. Очень часто в индекс попадают мусорные страницы образа «поиска по сайту», которые обязательно нужно закрывать от индексации через мета-тег Роботс (декламируйте об этом выше), но многие забывают. Также в индекс могут попасть и дубли страниц, которые не закрыли с поддержкой Canonical, как это было описано выше (например, страницы пагинации).

    У меня проблем не выявилось (скорее баг плагина), ибо я проверил число страниц в индексе сквозь Яндекс Вебмастер (из левого меню «Индексирование» — «Страницы в поиске» и внизу отворившейся страницы выгрузка в формате Эксель) и число выгруженных оттуда страниц совпало с тем, что было в Гугле. Но лучше излишний раз проверить, чем потом проблемы огребать.

    P.S. Если на сайте используется структура поддоменов (частое явление для расширения региональности под Яндекс — отдельный домен под любой новый регион), то нужно учитывать, что в Гугле все страницы на основном домене и поддоменах попадают в общий индекс, ибо он находит их все одним сайтом. Яндекс же поддомены (домены третьего уровня) считает за разные сайты.

    Добавлю сюда же скорую проверку структуры вашего сайта. При продвижении коммерческих запросов важно все (это как хотьба по минному полю, где важно шагать по следам уже прошедших его). Сама по себе структура будущего сайта в идеале списывается у тех, кто уже находится в Топе по вашим запросам. Попросту тупо выписываете структуру (пункты меню) 10 сайтов из топа (исключая агрегаторы, типа Авито), удаляете повторения и вот у вас лучшее из того, что может быть.

    Аудит структуры в этом случае будет очень быстрым (поверхностным). Просто выписываете среднее число страниц ваших конкурентов из Топа, какое находится в индексе поисковиков. Вычисляете по ним среднюю температуру по больнице и сравниваете со средним числом страниц вашего сайта в индексе Яндекса и Гула. На основании этого мастерите вывод — нужно ли вам еще расширять структуру (если число страниц вашего сайта серьезно меньше) или нет.

    Чек-лист по юзабилити и коммерческим факторам

    Юзабилити — это удобство взаимодействия с сайтом, какое во многом связано с соблюдением тех стандартов, к которым уже привыкли пользователи интернета и не найдя которые они «сильно сорвутся». Почему так любят соцсети? Потому что там все привычно, на своих местах, понятно и просто. Но и на обычных сайтах кушать стандарты дефакто, которые нарушать не стоит.

    Коммерческие факторы — это такие элементы сайта (и не лишь его), которые жизненно необходимо иметь при продвижении под коммерческие запросы. Их довольно много и не все владельцы обращают на это внимание (будет отдельная статья по этой теме — подпишитесь, чтобы не проглядеть). А между тем, это один из критических факторов, который при всем при том очень легко накрутить (подтянуть до нужного уровня) с минимальными усилиями.

    Особенность этого этапа аудита заключается в том, что все эти факторы работают в комплексе. То есть они должны быть хотя бы «по большей доли». На данном этапе вам главное провести проверку на предмет наличия всех этих вещей именно на вашем сайте. А уже по его итогам составлять ТЗ программисту на доработку.

  • Копирайт (знак копирайта, название и год основания) — пустячок, который обыкновенно в самом низу страницы выводится и выглядит так:
    © KtoNaNovenkogo.ru, 2009-2018 | Все права защищены
    Быть должен непременно. Если нет, то сделайте сами или программиста озадачьте.
  • Логотип — обязательный атрибут (графический или текстовый, как у меня) и при этом он непременно должен являться ссылкой, ведущей на главную страницу. Это догма, которой ни в коем случае не стоит пренебрегать.
  • Форматирование текстов — страница не должна глядеть как кусок слепленного в один комок текста. Должны быть на уровне CSS проработаны удобные абзацы, юзабельные списки, таблицы, прекрасные заголовки (подзаголовки) и т.п. Посетитель принимает решение «остаться или уйти» всего за пару секунд и глядит он в это время не на содержание, а на его подачу.
  • Кнопки на сайте — они могут быть графическими или текстовыми, но главное тут не само присутствие, а понимание посетителями, что это кнопка. Как этого добиться? Есть такое понятие в CSS как hover-эффект, который позволяет заставить кнопку менять собственный вид при подведении к ней мыши. Обычно меняется либо фон кнопки, либо цвет текста, но возможны и другие эффекты. Основное, чтобы было ясно, что это кнопка и по ней можно (нужно) кликнуть. Если этого где-то нет, то озадачьте себя или программиста решением этой проблемы.
  • Шрифты — очень портится восприятие сайта (страдает юзабилити), когда на нем используется чересчур много разных шрифтов. Всего хорошо в меру и нужно добиваться лаконичности, а не вычурности. Если глазам не доверяете, то кликните по слову правой кнопкой мыши и изберите «Посмотреть код».
  • Время и дни работы — очень важный коммерческий фактор. Поисковики это все «хватают на карандаш». График работы должен быть выполнен в виде сквозного блока, отображаемого на всех страницах, и размещаться наверху (в шапке) или в внизу шаблона (в футере).
  • Регион работы — тоже очень важный коммерческий фактор добавляющий удобства пользователям и нравящийся поисковикам (Яндексу). Как все это лучше оформить подсмотрите у немало успешных конкурентов из Топа, по вашим основным ключевым запросам.
  • Поиск по сайту — важный юзабилити элемент, какой должен быть обязательно на любом сайте. Способов реализации много. Например, можно использовать поиск по сайту от Яндекса или скрипт от Гугла. У любого движка сайта или интернет-магазина есть свои возможности реализации поиска.
  • Хлебные крошки — эта навигационные ссылки, какие помогают посетителям понять, на какой странице они сейчас находятся и при необходимости перейти в раздел, относящейся к этой странице. Вариантов реализации море (даже я описывал их тут и тут).

    Они весьма сильно повышают юзабилити и лучше будет их реализовать тем или иным способом. Важно и их размещение. Общепринято, что они должны располагаться в верхней левой доли страниц, где их и будут искать большинство посетителей.

    Вообще, все базовые элементы сайтов должны быть расположены там, где пользователи свыклись их видеть на сайтах лидерах (в вашей нише).

    Для каждого движка наверняка найдется свой плагин хлебных крошек либо ваш программист реализует их самостоятельно, что тоже несложно.

  • Политика обработки персональных этих — стало актуально недавно в связи с новым федеральным законом 152-ФЗ о сборе и защите персональных этих. За несоблюдение сих требований предусмотрены довольно приличные штрафы. Хотя бы политику конфиденциальности разместить стоит и дать на нее ссылку где-либо в подвале сайта.
  • Кнопка прокрутки вверх — по соображениям юзабилити, такая кнопка желательна (у меня ее нет), но лучше посмотрите на сайты из Топа по вашей тематике.
  • Онлайн-консультант — отличный инструмент для повышения не лишь коммерческих факторов сайта, но и для улучшения поведенческих характеристик и повышения конверсии. Не стоит думать, что для его реализации вам потребуется брать сотрудников для ответов или самому все время быть на связи. Просто разрабатываете базу ответов на частые вопросы и отвечать за вас будет «бот». В случае затруднений он предложит клиенту покинуть телефон для консультаций, а это ведь первый шаг к продажам. В общем, штука невероятно эффективная при должной настройке.
  • Обратный звучен — тоже отличный и почти что обязательный инструмент для коммерческих сайтов (пример смотрите тут). Желательно, чтобы эта кнопка была бы доступна на первом экране любой страницы вашего сайта.
  • Ссылки на соцсети — комильфо, если ваш сайт будет представлен в основных соцсетах (ВК, Фб, ОК, Твиттер и т.п.) и на его страницах будут размещены ссылки на эти соцсети (у меня это сделано в правой верхней доли сайта).

    Это важный фактор, учитываемый поисковиками. Даже для проектов, которым как бы не о чем писать в социалках, есть возможность размещать там экспертные материалы с новинками отрасли вообще. Достаточно постить материалы в одной соцсети, а в остальные их можно просто копировать.

  • Возможность поделиться в соцсетях — живо как для информационных (кнопки для расшаривания статей в социалки, например, как эти, эти, эти или эти), так и для коммерческих запросов (возможность поделиться в соцсетях должна быть на всех карточках товаров).
  • Блок с новинками (либо новыми статьями) — обязательный атрибут любого сайта. Желательно, чтобы этот блок был доступен с основной страницы или даже был бы сквозным.
  • Электронная почта на домене — важный фактор, говорящий в пользу вашего сайта. Посмотрите на адрес почты, какой указан у вас в контактах. Если Емайл оканчивается не на ваш домен (как, например, admin@ktonanovenkogo.ru), а на yandex.ru или gmail.com, то считайте, что вы выявили положительную проблему с помощью этого аудита. Не волнуйтесь, создать ящик на своем домене просто и пользоваться им можно будет в привычном вам интерфейсе, если пожелаете (декламируйте про Емайл на домены в Яндексе и тоже самое у Гугла).
  • Для интернет-магазинов актуальна перелинковка в карточках товаров. Осуществляется с поддержкой блоков «Похожие товары», «Недавно просмотренные», «С этим обыкновенно покупают», рекомендуем и т.д. Стало дефакто обязательным атрибутом, отсутствие которого сразу будет работать в минус вашему ресурсу. Также желательно предлагать посетителям покупку в одинешенек клик, что также стало правилом хорошего тона.
  • Раздел «Контакты» — одинешенек из важнейших коммерческих факторов, сильно влияющий на успешность (и даже возможность) продвижения. В этом разделе обязательно должен быть показан адрес (полный почтовый адрес офиса с индексом), телефон (с кодом города или 8-800, но ни в коем разе не мобильный номер), пора работы, Емайл (очень хорошо, если будет форма обратной связи). Также должна быть карта проезда на собственном авто, на общественном транспорте и пешком. Я как-то писал про то, как можно создать схему проезда на основе Яндекс Карт и получить карту проезда для сайта от Гугла.
  • Варианты оплаты и доставки — на коммерческом сайте непременно должны быть такие страницы с подробнейшим пошаговым описанием (иногда даже с добавление видео-пояснений). Кроме присутствия таких страниц должны быть еще и ссылки на них (на видном месте) в карточках с товарами. Это тоже очень важный коммерческий фактор (характеризующий вашу «услужливость»).
  • Пора итожить

    Пробежавшись по всем пунктам приведенного выше аудита вы, возможно, найдете много того, что имело бы смысл изменить, подправить или прибрать. Глядя на сайт невооруженным взглядом большинство озвученных выше проблем останутся незамеченным. Считайте, что я вас вооружил. И помните, чего-то неважного тут нет, ибо любая мелкота важна (ведь именно она может отделять вас от успеха).

    После того как пройдете по всем пунктам аудита и выявите какие-то промахи, вы готовите окончательный вариант ТЗ программисту. Выбор программиста это тема для отдельной статьи. Искать их можно на фриланс-биржах, но подходить к выбору стоит тщательно, ибо надеяться на отзывы и рейтинги сложно в силу их частой накрутки.

    Программист оценивает фронт работ, озвучивает стоимость и сроки исполнения, после чего вы все это ратифицируете и он начинает вносить в сайт необходимые правки (платить ему лучше поэтапно после проверки выполнения каждого пункта ТЗ). Как вариант, можете все мастерить и сами, но некоторые моменты будут весьма сложны для новичков и можно понаделать «не того».

    В вытекающих статьях данной рубрики планирую подробно поговорить про коммерческие факторы ранжирования, про то, что сегодня из себя представляет SEO, про то необходимы ли для продвижения ссылки и как заполучить самую идеальную из них. Подробно поговорим про SEO тексты, LSI фразы и многое, многое другое. Подпишитесь, чтобы не проглядеть.

    P.S. Гугл опубликовал совсем недавно новую версию своего руководства по поисковой оптимизации для начинающих. Знаете, что самое забавное? Большая часть их рекомендации была озвучена мною выше. Так, что это вовсе не «злое» SEO, в вполне себе «добросердечное». Во многом, именно эти моменты очень важны и самим поисковикам.

    Да, и еще видео от «Вебмастерской Яндекса» на тему:

    А так же видео от Виталия Виноградова под наименованием «SEO-аудит — как проверять сайт в 2018 году»:


    Источник: ktonanovenkogo.ru