Что нового в Screaming Frog SEO Spider 19 Peel?
Содержание
Разработчики Screaming Frog SEO Spider выпустили новую версию 19.0 под кодовым названием «Peel» («Кожура»).
Обновление содержит ряд важных изменений, новых функций и улучшений, основанных на отзывах пользователей и работе команды.
Далее – перечисление всего нового, что теперь есть в инструменте.
1. Обновленный дизайн
Внешний вид интерфейса был немного изменен, а выбор логики поведения при сканировании (для поддомена, подпапки, всех поддоменов и т.д.) для удобства перемещены в область управления сканированием.
Выбор логики поведения ранее был в меню настроек, но теперь после переноса он доступен и для бесплатных пользователей.
Теперь в основных таблицах есть вторые чередующиеся цвета строк, обновлены значки и даже удален избыточный значок Twitter со ссылкой. В то время как привычное расположение элементов, вкладки и фильтры почти не изменились, меню настроек подверглось капитальному ремонту.
2. Единые настройки
Настройки («Configuration») объединены в единый диалог со ссылками на каждый раздел. Это делает работу с настройками более эффективной, чем открытие и закрытие каждого раздела по отдельности. Имена и расположение элементов настроек должны быть знакомы существующим пользователям, а новым пользователям будет проще ориентироваться.
Было внесено несколько небольших изменений в расположение элементов, таких как сохранение и загрузка профилей настроек, которые теперь отображаются в разделе «Configuration», а не в меню «File».
Системные настройки, такие как изменение интерфейса, языка, режима хранения данных и многое другое, доступны в разделе «File > Settings» в их собственном разделе настроек.
Вы также можете нажать «Cancel» чтобы отменить любые изменения, сделанные с помощью кнопки отмены в диалоговом окне настроек.
3. Сегменты
Теперь вы можете сегментировать сканирование, чтобы лучше выявлять и отслеживать проблемы и возможности из разных шаблонов, типов страниц или приоритетных областей.
Доступ к настройкам сегментации можно получить через меню настроек или вкладку «Segments» в контекстном меню при правом клике мыши. Она позволяет вам сегментировать любые данные, полученные при сканировании, включая данные из API, таких как GA или GSC, или анализ результатов сканирования.
Вы можете настроить сегмент в начале, во время или в конце сканирования. В каждом отчете есть столбец «Segments» с цветными метками.
Когда сегменты настроены, вкладка «Issues» из области справа включает области сегментов, поэтому вы можете быстро понять, где в основном на сайте сосредоточены определенные ошибки.
Затем кликнув по правой мыши вы можете использовать фильтр, чтобы перейти к просмотру данных отдельных сегментов.
Справа появилась и новая вкладка «Segments» с агрегированной сводкой, чтобы быстро увидеть, в каких сегментах какое количество проблем встречается.
Вы можете использовать фильтры данных на вкладке «Segments», чтобы лучше анализировать такие параметры как вложенность страниц по сегментам.
Или можно посмотреть какие типы проблем сколько раз встречаются в каждом из сегментов.
После настройки сегменты можно сохранить вместе с конфигурацией настроек. Поддержка сегментов также полностью интегрирована и в различные другие функции «лягушки».
В визуализациях сканирования теперь можно выбрать раскрашивание по сегментам.
Вы также можете генерировать файлы Sitemap в формате XML с разбивкой по сегментам, и инструмент автоматически сгенерирует индексный файл карты сайта, ссылающийся на каждый файл карты сайта отдельного сегмента.
При экспорте данных в Google Looker Studio для автоматических отчетов о сканировании также будет автоматически создана отдельная страница для каждого созданного сегмента. Это означает, что вы также можете анализировать проблемы по сегментам в отчете о сканировании Looker Studio.
4. Кастомный парсинг содержимого
Кастомный парсинг содержимого страниц — очень мощная функция в «лягушке», но это также довольно непростой в освоении функционал, и многие пользователи не тратят свое время на изучение XPath или CSSPath (по понятным причинам).
Чтобы помочь в этом, теперь вы можете открыть веб-страницу во встроенном браузере и выбрать элементы, которые вы хотите извлечь из страницы, необработанного HTML или отображаемого HTML. Затем инструмент сформирует для вас правильный XPath / CSSPath, а также предоставим некоторые опции.
Просто щелкните по значку интернета (иконка планеты) в правой части в строке извлекаемых данных, чтобы открыть браузер.
Введите URL-адрес, данные с которого вы хотите спарсить, а затем выберите элемент на странице. Затем Screaming Frog SEO Spider выделит область, которую вы хотите извлечь, и создаст для вас регулярное выражение с предварительным просмотром того, что будет извлечено на основе HTML.
Вы можете переключиться в представление страницы «Rendered» или «Source HTML», а также выбрать строку HTML. Например, если вы хотите извлечь «содержимое» тега микроразметки Open Graph:
Затем вы можете выбрать атрибут, который хотите извлечь «Attribute (Optional)», из раскрывающегося списка, и инструмент сформулирует регулярное выражение для вас.
В приведенном ниже случае он будет парсить время публикации, которое отображается полях превью («Rendered HTML Preview» и «Source HTML Preview») после выбора атрибута «content».
Те из вас, кто освоил XPath, CSSPath и RegEx, могут продолжать вводить свои регулярные выражения так же, как и раньше.
На данный момент эта новая функция не помогает извлекать данные из JavaScript, но разработчики планируют добавить и этот функционал.
5. 3D визуализации
Если вы используете визуализаций сканирования, то вам наверняка понравятся трёхмерная схема сканирования и трёхмерная схема вложенности страниц.
Они работают так же, как существующие двухмерные визуализации, но позволяют вам перемещаться по узлам, как будто вы находитесь в пространстве, и «внутри» самой визуализации.
В настоящее время эти визуализации ограничены 100 тысячами URL-адресов для того чтобы существующие компьютеры могли их осилить.
Кстати, вот как выглядит визуализация на 100 тысяч URL-адресов:
Наврядли они помогут вам как-то лучше выявлять новые проблемы, но по крайней мере скрины таких визуализации будут красиво смотреться в отчетах.
6. Новые фильтры и ошибки
На существующих вкладках доступно множество новых фильтров и проблем, которые помогают лучше фильтровать данные или сообщать об обнаруженных проблемах.
Доступны следующие новые фильтры:
- URL > GA Tracking Parameters – URL-адреса, содержащие параметры отслеживания Google Analytics. Помимо генерации технических дублей, использование на сайте таких параметров отслеживания для ссылок может перезаписать исходные данные сеанса пользователя.
- Page Titles > Outside <head> – страницы с тегом Title, который находится за пределами контейнера <head> в HTML. Тег Title страницы должен находиться внутри элемента <head>, иначе поисковые системы могут его проигнорировать. Google часто распознает заголовок страницы даже за пределами контейнера <head>, однако на это не следует полагаться.
- Meta Description > Outside <head> – страницы с мета-тегом Description, который находится за пределами контейнера <head> в HTML. Мета-тег Description должен располагаться внутри элемента <head>, иначе поисковые системы могут его проигнорировать.
- H1 > Alt Text in h1 – страницы с текстом в атрибуте Alt изображения в теге H1. Такой текст может считаться частью основного заголовка страницы. Некоторые шаблоны CMS автоматически помещают логотип в тег H1.
- H1 > Non-sequential – страницы с H1, который не выводится первым среди заголовков H1..H6 на странице. Теги заголовков должны располагаться в логическом последовательно-убывающем порядке. Цель элементов заголовка – показать структуру страницы.
- H2 > Non-sequential – Страницы с H2, который не является вторым среди заголовков H1..H6 на странице.
- Content > Soft 404 Pages – страницы, которые имеют код ответа «200», предполагая, что они существуют, но похожи на страницу ошибки: содержат цифру «404» или фразу «page not found». Несуществующие страницы должны иметь код ответа «404». Текст, используемый для выявления таких страниц, можно настроить в разделе «Config > Spider > Preferences».
- Content > Lorem Ipsum Placeholder – страницы, содержащие текст «Lorem ipsum», который обычно используется в шаблонах страниц сайта для визуальной демонстрации их вида. Такой текст может встречаться на страницах сайтов из-за ошибок, особенно вероятно его наличие при создании нового сайта.
- Images > Missing Size Attributes – теги изображений без размеров (атрибутов «width» и «height»), указанных в HTML. Это может вызвать сдвиги макета при загрузке страницы и вызвать разочарование у пользователей. К тому же это одна из основных причин, которая способствует высокому совокупному смещению макета (CLS), входящему в Core Web Vitals.
- Images > Incorrectly Sized Images – изображения, у которых их реальные размеры (ширина и высота) не соответствуют размерам при отрисовке страницы. Срабатывает если разница в размере файла оценивается в 4 КБ или более. Это может помочь определить изображения слишком большого размера, которые заметно ухудшают скорость загрузки страницы.
- Canonicals > Outside <head> – страницы с тегом link с атрибутом rel=canonical, который находится за пределами контейнера <head> в HTML. Если данный тег находится вне зоны <head>, то поисковые системы его проигнорируют.
- Directives > Outside <head> – страницы с мета-тегом robots, который находится за пределами контейнера <head> в HTML. Мета-тег robots должен находиться внутри элемента <head>, иначе поисковые системы могут его проигнорировать. Google как правило использует мета-тег robots даже если он за пределами контейнера <head>, однако на это не следует полагаться.
- Hreflang > Outside <head> – страницы с тегом link с атрибутом hreflang, который находится за пределами элемента <head> в HTML. Теги link с атрибутом hreflang должны находиться внутри контейнера <head>, иначе поисковые системы их проигнорируют.
- JavaScript > Pages with JavaScript Errors – страницы с ошибками в JavaScript, зафиксированными в журнале консоли Chrome DevTools при отрисовке страницы. Хотя ошибки JavaScript довольно распространены и часто не особо влияют на отрисовку страницы, они все же могут быть создавать проблемы как для пользователей, так и для поисковых роботов. Просмотрите сообщения об ошибках консоли на нижней вкладке «Chrome Console Log», а затем просмотрите как страница отображается на вкладке «Rendered Page», и выполните массовый экспорт таких ошибок с помощью «Bulk Export > JavaScript > Pages With JavaScript Issues».
- Validation > <body> Element Preceding <html> – страницы, у которых есть элемент <body>, предшествующий открывающему контейнеру <html>. Браузеры и Googlebot автоматически принимают тег <body> за начало контента и генерируют перед ним пустой <head>. Это значит, что последующий <head> далее и его мета-теги будут восприниматься как часть отображаемого контента и игнорироваться.
Некоторые новые данные собираются и выводятся вместе с новым фильтром. Например, теперь инструмент собирает атрибуты размеров тегов изображений, отображаемые размеры на странице и их реальные размеры, чтобы было проще вычислять изображения излишне большого размера.
Другие обновления
Версия 19.0 также включает ряд небольших обновлений и исправлений ошибок.
- В разделе «View» в верхнем меню есть новый режим «focus», который автоматически скрывает неиспользуемые вкладки, чтобы уменьшить беспорядок.
- Вы можете включить отчеты об ошибках JavaScript («Config > Spider > Rendering») и просматривать ошибки и предупреждения JS на нижней вкладке «Chrome Console Log».
- Предварительно настроенные User-Agent были обновлены, чтобы включить больше вариантов поискового робота Google, таких как Googlebot Image, News, Google-Inspection Tool и т.д.
- Вкладка со сниппетами была обновлена, чтобы соответствовать последнему дизайну поисковой выдачи Google, включая появление фавиконки.
- Установщик Windows был обновлен с дополнительными опциями, такими как сохранение ярлыка и т. д.
- Обновлен функционал работы с формами авторизации на сайтах с целью поддержки локального хранилища.
- Составлено настраиваемое хранилище доверенных сертификатов, позволяющее пользователям подключаться к GA / GSC через исходящие прокси-серверы.
- Java обновлен до версии 17.0.7, и все используемые технологии обновлены до последних версий.
- Обновлено большое количество функций связанных с расширенными сниппетами Google из-за изменений в проверке микроразметки.
Это все что вошло в текущее обновление «лягушки».
Уже попробовали новую версию инструмента?
Оригинал статьи взят с сайта SEO Rocket
Другие статьи: