Первоначальный аудит: какие параметры сайта важно проверить

прочитали: 529
Понятно, что чем больше параметров сайта анализируется, тем точнее получается анализ и, соответственно, тем более детальный план продвижения можно выстроить. Однако в ряде случаев приоритетнее провести не глубокий анализ, а экспресс-аудит, который бы позволил при минимальных затратах времени оценить потенциал сайта и перспективы его продвижения.

Именно такой анализ оказывается востребованным, когда важно определить основные ограничения для SEO, не отвлекаясь на изучение малозначимых факторов. «Джентльменский набор» параметров, которые требуют оценки в первую очередь, составляется каждым SEO-специалистом по-своему, однако можно выделить несколько наиболее важных из них, которые достойны внимания в любом случае. Рассмотрим их подробнее.

Наличие сайта в индексе

Индексация ресурса – это процесс, во время которого поисковые роботы посещают сайт, собирая с его страниц разнообразную информацию, которая будет выдаваться по запросу пользователей. И первое, что важно проверить, – знают ли поисковые системы о вашем сайте. Для этого вводится структура url:www.site.ru* | url:site.ru* (для Яндекса) и site:site.ru (для Google). Чтобы посмотреть страницы в основном индексе Google, используется конструкция site:site.ru/&.

Если сайт целиком не в индексе, или индексируется только одна главная или несколько страниц, тогда как по факту их значительно больше, – это тревожный знак. Это означает, что он либо совсем недавно появился и пока не успел привлечь внимание робота, либо сделан таким образом, что индексация существенно затруднена (отсутствие robots.txt и sitemap.xml, ссылки на JavaScript и т. п.), либо на него наложены санкции со стороны поисковой системы. И если с первым и вторым бороться не так трудно, то вытаскивать сайт из-под фильтра – задача долгая и требующая огромных трудозатрат. Если есть повод заподозрить наличие санкций, лучше всего не ограничиваться «быстрым» аудитом, а проверить возможные причины наложения фильтра.

Наличие и корректность robots.txt

Файл robots.txt – текстовый файл, который указывает роботам поисковых систем параметры индексации. Его отсутствие – верный признак того, что поисковым продвижением сайта пока что не занимались. Он необходим для предотвращения индексации страниц, которые не нужно показывать роботу, для облегчения индексации нужных страниц (если в нем прописан адрес sitemap.xml) и для указания на главное зеркало. Проверить уже существующий robots.txt можно также через Яндекс.Вебмастер — http://webmaster-yandex.ru/robots.xml. С помощью него можно выявить, в частности, не запрещен ли для индексации весь сайт или его важные страницы.

Наличие и актуальность sitemap.xml

Sitemap.xml – файл, содержащий информацию о страницах сайта, которые необходимо проиндексировать, а также о частоте обновления информации на его страницах. Несмотря на то, что наличие карты сайта в XML, составленной для робота, не является гарантией правильной и быстрой индексации, ее настоятельно рекомендуется использовать на любых сайтах независимо от их объема и направленности. Стоит проверить не только наличие, но и актуальность sitemap.xml. Для этого SEO-компании обычно используют собственные инструменты, однако можно воспользоваться и одним из бесплатных, к примеру, http://www.validome.org/xml/validate/. Еще одна достаточно распространенная ошибка – наличие карты сайта только в HTML или только в XML. Необходимо, чтобы на сайте присутствовали обе.

Наличие телефона для региона продвижения

Эта проверка актуальна в том случае, если продвигаются или будут продвигаться коммерческие геозависимые запросы. Чаще всего она необходима для сайтов тех компаний, которые, физически находясь в Московской области, хотят продвигаться по Москве. Чтобы поисковая система смогла определить сайт как подходящий к нужному региону, необходимый минимум – наличие в разделе «Контакты» телефонного номера и адреса, который относится к этому региону. Без этого будет невозможно попасть в Яндекс.Справочник, присутствие в котором заметно упростит работу с сайтом.

Уникальность текстов на сайте

О том, как важна уникальность контента, говорить не приходится. Причём речь идет не только об уникальных текстах, но и о соотношении уникальных и неуникальных страниц. Необходима проверка, которая покажет, насколько проблемной будет одна из самых трудозатратных задач – уникализация текстов. Такую проверку можно запустить и с использованием бесплатных программ и сервисов, таких как Etxt Антиплагиат или content-watch.ru, однако она может быть довольно долгой – до нескольких часов, особенно если сайт содержит достаточно большое количество страниц с текстом. Другой недостаток использования свободного ПО – ограниченность доступа к результатам проверки (сколько дублей имеет сайт, что это за дубли, какие страницы наиболее «растиражированы» в сети и т. п.). Поэтому пакетная проверка уникальности зачастую осуществляется с использованием либо платных сервисов, либо скриптов, которые созданы SEO-компанией и оптимально «заточены» под ее нужды.

Наличие аффилиатов

Если у сайта есть аффилиаты – сайты, которые принадлежат той же компании и направлены на продажу тех же продуктов/услуг – велик риск попадания под фильтр. В результате по некоторым запросам сайт может либо полностью отсутствовать в выдаче, что чаще всего и происходит, либо значительно просесть по позициям.

Трудность состоит в том, что не существует стопроцентно надежного способа выявления аффилиатов. Лучший метод – напрямую спросить у клиента об их наличии, однако он может, во-первых, не разбираться в SEO и попросту не суметь быстро ответить, а во-вторых, попробовать скрыть их от SEO-компании. Распространенные в сети сервисы, такие как http://tools.promosite.ru/use/clones.php или http://www.copyscape.com, также могут помочь. Еще один практикуемый способ – попробовать вручную пробить через поисковик телефон, указанный на сайте. Если он есть на каком-то другом ресурсе – вероятнее всего, он и будет аффилиатом.

Настройка зеркал

Зеркало — дубликат сайта с другим именем домена, созданный для предотвращения перегруженности основного сайта. Некорректно настроенные или ненастроенные зеркала оказывают существенное влияние на продвижение: от неправильного распределения ссылочного веса до полного выпадения продвигаемого сайта из индекса. Конечно, поисковая система может и сама определить главное зеркало, но не всегда она делает выбор, который устраивает SEO-специалиста и клиента. Самая банальная и самая частая ошибка – отсутствие указания на то, какое зеркало сайта является главным – с www или без.

Проще всего проверить настройку зеркал в файле robots.txt, где должна быть прописана директива host. Если этой информации в нем нет, стоит проверить склейку зеркал через 301-й редирект. Для этого нужно ввести в адресную строку браузера адрес с www и посмотреть, будет ли видно www в URL после перехода на сайт. Если видно, нужно проделать то же самое, набрав адрес без www. Если и в этом случае после перехода в адресной строке будет отображаться www – редирект не настроен, а значит, поисковая система не в курсе, какой сайт следует считать основным.

Дата регистрации домена

Дата регистрации домена определяет, прежде всего, возможность продвижения ВЧ запросов. Если домен был зарегистрирован недавно (менее 1 года назад), будет значительно затруднено продвижение по конкурентным запросам. Самый простой и удобный способ проверить эту дату – использовать одну из находящихся в открытом доступе баз данных с WHOIS-интерфейсом, такой как whois.tcinet.ru. Из всех параметров, о которых идет речь в этой статье, этот – единственный, с которым SEO-специалист не сможет ничего сделать. Тем не менее, убрать его из списка вряд ли представляется возможным, в противном случае велик риск либо несколько месяцев впустую тратить бюджет на продвижение высококонкурентных запросов, если клиент захочет их видеть в семантическом ядре, либо менять и пересогласовывать СЯ.

Вывод

В заключение стоит сказать о том, что такой анализ по десяти параметрам имеет право быть использованным только в том случае, если скорость аудита стоит на первом месте. В том случае, если нужно проанализировать веб-ресурс, уже находящийся на продвижении и по каким-то причинам не торопящийся пробиваться в ТОП, необходим тщательный поисковый аудит сайта, который будет включать и исследование юзабилити, и технических параметров, и коммерческой составляющей, и многого другого.

(Рейтинг: 4.5, Голосов: 4.0000)
Находи клиентов. Быстрее!
наверх