Screaming Frog Хелпер - Новости программы, статьи      
Технический аудит сайта

Screaming Frog SEO spider для технического аудита сайта

 991
22.10.2022 | Время чтения: 16 минут
Facebook
Автор: ПРАЙМ

Screaming Frog SEO spider для технического аудита сайта

Применение Screaming From SEO spider

Есть платная версия программы, но для полноценной работы необязательно ее покупать. В бесплатной есть все необходимые функции, чтобы сделать технический аудит сайта. Для начала, перед анализом эффективности, давайте разберемся с настройками Screaming From SEO spider. Заходите в Configuration, затем – Spider. Рассмотрим вкладки.

Basic

Приоритетный формат в пассинге для векторной и флеш-графики, видео и аудио – SWF. Его можно исключить для ускорения анализа сайта. То же касается JavaScript и SCC стилей.

Limits

Самый главный пункт – Limit Search Depth – ограничения по вложенности страницы. Это серьезно сэкономит время, поскольку на крупных сайтах обычно представлена информация о массе продуктов, что влияет на глубину вложенности по url.

Advanced

Нам нужно проанализировать те сведения, обрабатываемые поисковыми роботами. Для этого ставим галочки таким образом:

Preferences

В Screaming SEO Frog настраиваются объемы метатегов, заголовков h1 и h2, урла, изображений и длины атрибута alt. Чтобы не пропустить важное во время проверки, можно установить максимальные значения.

Если вам нужно исследовать только некоторые разделы или все за незначительными исключениями, это возможно сделать. Зайдите в Configuration, затем – Include. Укажите раздел, который необходимо проверить. А для того, чтобы исключить из аудита какие-то разделы, зайдите сначала в Configuration, потом – Exclude, и укажите их.

Для недавно созданных сайтов, которые еще не функционируют и не имеют администратора, есть возможность создать в SEO Screamig Frog гостевой доступ. Так вы оставите рабочий вход для админа нетронутым, при этом сможете оценивать эффективность нового сайта.

Когда сайт закрыт в robots.txt, можно настроить игнорирование этого файла во вкладке Basic.

Скорость парсинга

Это одна из главных настроек в SEO Frog. Когда вы будете запускать парсинг, внизу увидите текущий и средний скоростные показатели. Заранее укажите допустимое значение, если вы знаете, что сайт не выдержит высокую нагрузку.

С настройками мы закончили, и можно переходить к старту парсинга сайта. Вверху SEO Frog укажите адрес сайта и нажмите кнопку для старта. В зависимости от тяжести сайта, ожидание займет от пяти до двадцати пяти минут.

Как проверить качество парсинга

В программе справа есть пункт Response Codes, нажмите на него. Смотрите в выпавшем меню пункт No Response. При очень большом значении, рекомендуется уменьшить скорость парсинга в настройках.

Образец аудита сайта

Для начала скажем, что любую страницу можно не только выгружать из SEO Spider Frog, но и редактировать в Exel. Таким образом, можно убирать лишнюю информацию.

Рассмотрим самые важные моменты из отсчетов.

Информация о кодировке страниц

Во вкладке Internal есть фильтр HTLM, смотрим в нем столбец Content. Нужно убедиться, что везде стоит кодировка UTF-8. Если она иная, смотрите в столбике рядом, какой стоит код ответа сервера. К примеру, если значится 301 редирект, то все в порядке.

Проверка мета-тегов в SEO Spider Frog

Это очень важный пункт. Для начала проверьте наличие на всех страницах h1, description и title. Технически это довольно просто. Находите нужный столбик, нажимаете на него дважды и просматриваете выпавший список. На наглядном образце мы видим коды ответа сервера 301 и 404 на всех страницах, на которых отсутствует мета-тег Title. Кроме одной строчки, но, зайдя на эту страницу, мы видим, что тайтл есть. Значит, это ошибка парсинга. Ошибка может встретиться на одной из пятисот страниц, это не критично. Если у вас много проблем, измените скорость в настройках и запустите все вновь.

Проверьте заголовки h1, h2, description и title. В столбике рядом вы также увидите количество символов и размеры в пикселях. Нужно проверить не только наличие мата-тегов, но и их длину.

Пробегитесь по перечню, если у вас мало страниц, или примените фильтр, чтобы увидеть идентичные h1, title и description.

После всего вышеизложенного нужно выполнить важное действие в SEO оптимизации, которая позитивно сказывается на месте в выдаче, – прописать мета-теги и сделать каждый из них единственными на сайте.

Затем смотрим, как обнаружить дубли страниц сайта. Заходим в раздел URL, применяем фильтр дубликатов. Вот пример идеального результата:

Если дубли присутствуют, уничтожьте их. Есть два пути это сделать:

  • удаляете дубли;
  • в файле robots.text закрываете их от индексации, скрыв тем самым их ото всех систем поиска.

Посмотрите на длительность загрузки страниц и их размеры. Вернитесь к Internal и найдите столбики Response Time и Size. Код странички не может быть более двухсот килобайт. Если он все же больше, переходите на проблемную страницу и приступайте к анализу. Скорость загрузки в норме – не более шести секунд. За шесть секунд прогружаются самые тяжелые страницы. Если показатель отличается от нормы, заходите на страницу, анализируйте и исправляйте.

Как оптимизировать картинки

При аудите сайта оптимизация изображений очень важна. К примеру, если картинка имеет соответствующую выдачу, Яндекс возьмет ее с большей долей вероятности. Это улучшит и положение сайта в поисковой системе, и приведет новых посетителей. Здесь также поможет скриминг фрог. Для этого вам нужна вкладка Imanges и фильтр Over 100 kb. Находите тяжелые изображения, а после – Missing Alt Text. Эти настройки самые основные, касаемо иллюстрационного контента.

Как проанализировать перелинковку

Важнейшие правила:

  • приоритетные страницы следует расположить максимально близко к стартовой;
  • на них должно находиться минимум исходящих ссылок и максимум входящих, это придаст им большой внутрессылочный вес..

Находите inlinks outlinks во вкладке Internal и отсортируйте по значению. При помощи поисковой строки найдите все важные страницы в списках. Для каждого сайта эти значения индивидуальны. Лучше ориентироваться на среднессылочную массу каждой страницы и их количество.

Как найти пустые страницы

В Internal примените фильтр HTML, и смотрите столбец Word Count. Отфильтруйте по значению и просматривайте строчки, ищите те, где значение ноль или просто вас смущает такой размер. Не обращайте внимание на строки с кодом 404 и 301 редиректами. Если пустые страницы вам нужны, заполните их информацией. Если не нужны, удалите или закройте, чтобы они не отображались при индексации.

Как обнаружить неисправные URL

Перейдите в SEO Spider Frog, затем во вкладку URL и проверяйте по различным параметрам. Есть много нюансов в создании адресов страниц, начиная от технических, заканчивая эстетическими. Этот пункт игнорировать не стоит. Рассмотрим основные параметры, которые рекомендуется проверить:

  • Non ASCII Characters – урлы, не имеющие символов, они не входят в схему кодировки ASCII. С такими адресами будут возникать сложности, поэтому исправляйте.
  • Underscores – урлы с использованием нижнего подчеркивания. Принято писать через дефис, поэтому лучше исправить.
  • Duplicate – наиболее важный фильтр, собственно, в первую очередь, для него и нужно заходить в этот раздел.
  • Dynamic – тут отображаются URL с содержанием символов «!», «&», «?». Их наличие некритично, но рекомендуется избавиться от этих знаков в ссылках.
  • Over 115 characters – показывает длинные url. Некоторые любят помещать ключи в урлы, но это небезопасно и грозит санкциями за спам.

Помните про 301 редирект при каждой манипуляции с url.

Анализируем внешние ссылки с сайта при помощи Frog Sreaming

Во вкладке External можно проверить полностью весь список. Нужно проанализировать этот момент досконально и регулярно перепроверять их качественные и количественные показатели. Исходящими внешними называются ссылки, расположенные на других сайтах, переходя по ним, пользователь попадает на страницу вашего сайта. В External отфильтруйте по значению столбец Status Code. Нужно вычислить ссылки, которые не работают. Удаляйте их или редактируйте, чтобы они стали корректными.

Снизу расположена вкладка In Links, в ней расположен перечень страниц, имеющих ссылку на конкретный сайт. Просмотрите весь список, проверьте, чтобы в нем не было посторонних ссылок. Иногда случается, что некто получает с применением шпионских методов доступ и зашивает ссылки, поэтому рекомендуем удостовериться, что все в порядке. Каждый адрес в списке должен приводить пользователя на страницу вашего сайта.

Мнение эксперта

В поисковых системах постоянно увеличивается количество факторов ранжирования. В ТОП по выдаче становится очень сложно попасть, поскольку множится число конкурирующих сайтов. Каждый день появляются новые конкуренты, а старые усовершенствуют свою поисковую оптимизацию. Нужно иметь весомые преимущества перед другими. Именно для увеличения преимуществ проводится технический аудит сайта, привлекаются SEO специалисты, которые занимаются подробным анализом каждого пункта. Они дают конкретные рекомендации и исправляют все ошибки. Сейчас такое время, что к СЕО анализу необходимо относиться серьезно.

Без помощи специалистов провести технический аудит возможно. В этом материале подробно изложены основные моменты и даны конкретные инструкции. Для полноценной оптимизации программы Screaming Frog Spider SEO недостаточно, но она поможет выполнить большую часть работы. Она имеет широкий арсенал для анализа и выявления проблем и этим превосходит многие сервисы со схожим функционалом. Главное правило аудита и анализа – делай медленно, но качественно.

Оригинал статьи взят с сайта ПРАЙМ

Оцените статью
5/5
1



<< Назад