Конструктор сайтов Nethouse дарит 300 рублей по промокоду SEOSTOP. Попробуйте!

х
Наверх

SEO аудит сайта: поиск, выявление и устранение слабых мест

Содержание:

Аудит своего сайта можно заказать у специалистов, а можно сделать своими силами. Второй вариант предпочтительнее, так как позволит лучше понять глубину проблем, а привлечь стороннего специалисти можно в том случае, если не получится самостоятельно выявить и исправить недочеты. Эту статью я написал для тех, кто хочет самостоятельно произвести проверку сайта на предмет ошибок, мешающих его продвижению в поисковых системах.

Зачем нужен аудит?

Даже если с вашим проектом все хорошо, то это не значит, что его нельзя сделать лучше. На практике мелкие ошибки можно найти даже на крупных сайтах, в разработку которых вложили большие деньги и хорошо продумали все нюансы.

Ну а если у вашего проекта проблемы с посещаемостью, то глубокий аудит просто необходим. Правильный анализ поможет вам найти слабые стороны и ошибки, которые необходимо устранить в первую очередь.

Структура

Начинать стоит с проверки структуры сайта. Согласно общепринятому правилу, на любую страницу сайта пользователь должен попасть в три клика. В крайнем случае, в четыре, но это актуально только для крупных проектов со сложной иерархией.

В анализе вам помогут программы Xenu или Screaming Frog. Обратите внимание на все страницы и на разделы, в которых они находятся. Ко всем страницам и разделам должен быть доступ из меню. Каталогов, где в одной категории куча материалов разных тематик быть не должно. На проблемы со структурой косвенно указывают плохие поведенческие факторы.

Структуру и удобство сайта нужно оценить и визуально, но об этом лучше попросить постороннего человека, который раньше на вашем проекте не был. Программы укажут вам распределение страниц по разделам, но они не могут оценить удобство для пользователя, на которое влияет внутренняя перелинковка, блоки рекомендуемого контента, хлебные крошки и другие параметры.

Наличие дублей страниц

Проверьте есть дубли страниц, это может быть причиной низких позиций сайта в поисковых системах. Чаще всего дубли возникают из-за добавления ряда динамических параметров к URL, однако возможны и другие варианты, все зависит от специфики CMS. Например, в Joomla со стандартными настройками в индекс будут попадать варианты страниц для печати, которые являются дублями.

Наличие дублей проще всего проверить с помощью Google, использовав расширенный поиск - https://www.google.ru/advanced_search. Указывайте домен, копируйте отрывок текста со страницы и смотрите результаты поиска. Дубли можно закрывать от индексации в robots.txt, можно использовать rel=”canonical” или устранить причину их появления. Одно другого не исключает, лучше работать по всем фронтам для устранения дубликатов страниц.

Расширенный поиск Google

Проверка контента

Аудиту контента сайта стоит уделить повышенное внимание, часто он становится причиной плохих позиций в поисковых системах. Начинать стоит с проверки текстов, где учитывается целый ряд параметров.

Уникальность. Тексты должны быть уникальными, это действительно необходимо. Исключения есть, например, тексты законов – их не нужно делать уникальными. Если вы выявили, что материалы с вашего сайта позаимствовал другой ресурс, напишите его владельцу и потребуйте поставить ссылку на свой сайт или удаления статьи. Смотрите обзор способов проверки уникальности текстов.

Плотность ключевых слов. Тексты не должны быть переспамлены ключевыми словами, в них не должно быть неестественных конструкций без склонения, которые точно копируют поисковые запросы. Плотность ключевых слов – понятие относительное, единых цифр тут не существует. Рекомендуется изучать конкурентов с первых позиций в поисковой выдаче.

Грамотность. Поисковые системы учитывают и этот параметр, поэтому грубых ошибок быть не должно. Несколько опечаток никак не повлияют, но если ошибок очень много, то это может быть причиной плохих позиций. Проверять можно с помощью онлайн-сервисов, их много.

Форматирование статей. Это особенно актуально для больших материалов, которые должны иметь четкую структуру. Текст должен быть разбит на абзацы, для больших статей стоит делать оглавление с якорями, которые помогут читателю быстро перейти в нужный раздел. Списки, подзаголовки и цитаты делают текст более легким для восприятия.

Заголовки. Главный заголовок должен быть в теге H1, для подзаголовков используются теги H2-H5. Здесь часто совершают ошибки, например, просто используют тег H по понижающей, где последним будет H6. Для сложной статьи оптимальный вариант подзаголовков выглядит так:

  • H1 – Название статьи;
  • H2 – Название раздела;
  • H3 – Название подраздела, который относится к разделу.

Такая структура проста и понятна, если приходится использовать теги H4 и ниже (подразделы подразделов), то это не очень хорошо. Скорее всего, статья будет сложна для восприятия. Обратите внимание на качество самих заголовков, они должны быть для людей, а не для поисковых систем. В них не должно быть спама ключевых слов.

Полезность текстов. Этот параметр относителен и его трудно оценить объективно. Особенно если статью писали вы. О бесполезности текста косвенно можно судить по большому количеству отказов, но только в том случае, если запросы целевые. Но это актуально только для небольших материалов, где пользователь может быстро оценить их пользу, а вернулся он к поиску или нет, вы узнать не сможете.

Изображения. Фотографии и изображения украшают почти любую статью, а если они уникальные, то это дополнительный плюс. Обратите внимание на заполнение параметров Alt и Title картинок, если без Title можно обойтись (это не критично), то Alt должен быть заполнен обязательно. Иногда трафик с поиска по картинкам может быть очень большим.

Метатеги. Здесь все достаточно просто. Title должен точно описывать содержание страницы, не быть спамным и содержать ключевые слова. Decription должен содержать развернутое описание страницы и также быть уникальным. Keywords сегодня заполнять необязательно, а уж спама ключевыми словами там точно быть не должно. Кстати, именно проблемы с метатегами часто выявляются в ходе аудитов старых сайтов.

Технический аудит

Robots.txt

Начинать технический аудит стоит с проверки именно этого файла, там очень часто встречаются ошибки. Требования следующие:

  • Должны быть закрыты от индексации технические разделы;
  • Должна быть указана карта сайта, главное зеркало и другие параметры.

Настройка robots.txt зависит от используемой CMS, необходимо читать рекомендации. Нередко простые ошибки в этом файле закрывали от индексации целые разделы. Или наоборот, позволяли поисковикам индексировать кучу «мусора».

Robots.txt

Проверка кода сайта

В коде сайта не должно быть различного мусора и грубых ошибок. Проверить можно с помощью сервиса https://validator.w3.org/ . Он для любого сайта укажет ошибки, но не все из них имеют значение. Если вы сами в этом не разбираетесь, то тут однозначно лучше обратиться к специалисту. Можно найти верстальщика на фрилансе, который за небольшую сумму приведет к валидному виду код.

Важно также выявить возможные нежелательные элементы. Например, любители скачивать бесплатные шаблоны для популярных CMS часто находят вшитые ссылки в коде сайта.

Кодировка сайта

Скорость загрузки страниц

Важный параметр, который при прочих равных может позволить обойти конкурентов. Сервисов для проверки много. Можно воспользоваться tools.pingdom.com или monitis.com/pageload. Последний сервис очень актуален, если у вас широкая география посетителей: он позволяет анализировать скорость загрузки из разных стран.

 В любом случае нужно воспользоваться сервисами проверки скорости загрузки сайта, они проверяют как десктопную версию, так и вариант для мобильных. Кроме того, некоторые указывают вам рекомендации по оптимизации страниц.

Скорость загрузки сайта

Проверка URL

Проще всего сделать аудит с помощью программ, которые я уже упоминал: Xenu и Screaming frog. Они покажут битые ссылки, редиректы, страницы с 404 ошибкой и выведут список человекопонятных урл (ЧПУ).

Проверьте также наличие страницы 404 ошибки, она должна быть, это прямая рекомендация всех поисковых систем.

Sitemap

Карта сайта должна быть, она должна быть правильно настроена (регулярно обновляться), путь к ней прописан в robots.txt. Sitemap нужно добавить как в Яндекс.Вебмастер, так и в Google Search Console.

Регистрация в панели вебмастеров

Сайт обязательно должен быть добавлен в Яндекс.Вебмастер и в Google Search Console. Просто потому, что эти сервисы сами оперативно будут оповещать вас о возникновении серьезных проблем и давать свои рекомендации.

Панель вебмастера Яндекса

Хостинг

Хостинг должен быть надежным и обеспечивать стабильную работу сайта. Лучший инструмент для проверки - ping-admin.ru, он позволяет проводить мониторинг круглосуточно и отправляет уведомления, если работоспособность сайта нарушена. Также частично эту задачу решает и Яндекс Метрика.

Внешние факторы

Аудит внешних факторов в первую очередь подразумевает поиск всех входящих ссылок. Их можно посмотреть в Google Search Console, Яндекс Вебмастере или воспользоваться сервисом ahrefs.com. Учитывать необходимо:

  • Количество входящих ссылок на разные страницы сайта;
  • Анкор-лист;
  • Качество доноров.

Сегодня вполне возможно получить наказание от Яндекса и Google за большое количество плохих ссылок на ваш сайт. Ссылочный профиль должен быть хорошим. Если есть плохие ссылки, то в Google их можно исключить на странице https://www.google.com/webmasters/tools/disavow-links-main, в Яндексе такого инструмента нет. Либо придется связываться с владельцами сайтов и просить их об удалении ссылок.

Поведенческие факторы

Сегодня качественный аудит сайта обязательно включает в себя исследование поведенческих факторов. Они действительно очень серьезно влияют на позиции, поэтому здесь возможные проблемы стоит искать очень внимательно. Я уже писал подробно про поведенческие факторы, подробнее можно прочитать в этой статье.

Аудит поведенческих факторов невозможен без установленных систем сбора статистики, лидерами являются Яндекс Метрика и Google Analytics. Они позволяют получить самые развернутые и точные данные о поведенческих факторах, но они должны быть установлены с первых дней жизни сайта. В противном случае придется ждать, пока соберется достаточное количество статистики.

Проводя аудит сайта, нужно проверять очень много параметров и делать это внимательно. Вы можете потратить два дня на подробную проверку, но забыть изучить robots.txt, в котором скрывается главная проблема. Своевременная и глубокая проверка позволит не только устранить ошибки, но и избежать их в дальнейшем.

Смотрите также
Пройдите, пожалуйста, защиту от спама.