Слышали про такой подход? Больше полезного про SEO в Telegram-канале - t.me/heymoneymaker 00:00 - Вступление 00:30 - Выгружаем внешние ссылки 1:16 - Настраиваем Screaming Frog 2:10 - Анализируем результаты 3:00 - Анализ структуры ссылочной массы 3:20 - Экспорт данных 3:30 - Заключение
В парметре "околоссылочное" после слэша, что нужно указать? Можешь подсказать как вытащить эти xpath? А то что- то не подгружается ничего по этим параметрам.
Иван, здравствуйте. Была ли у вас ситуация, что в Response Codes показывается 301 редирект, и дублируется страница дополнением такого же своего адреса через слеш, к примеру images/picture.png со статусом 301, а images/picture.png/ со слешем на конце статус 200, и потом зацикливается images/picture.png/images/picture.png статус 301 и images/picture.png/images/picture.png/ 200. Как можно решить это?
Классный способ. По клиентским сайтам данные снял, для аудита удобно очень. Спасибо!
Слышали про такой подход?
Больше полезного про SEO в Telegram-канале - t.me/heymoneymaker
00:00 - Вступление
00:30 - Выгружаем внешние ссылки
1:16 - Настраиваем Screaming Frog
2:10 - Анализируем результаты
3:00 - Анализ структуры ссылочной массы
3:20 - Экспорт данных
3:30 - Заключение
В парметре "околоссылочное" после слэша, что нужно указать?
Можешь подсказать как вытащить эти xpath? А то что- то не подгружается ничего по этим параметрам.
@@sanchezz.95 Ничего, это готовая конструкция
@@seo_stuff сайт любой из списка можно вставить?
он что-то не подтягивает данные, в чем может быть причина?
Конструкции без ошибок занес
@@sanchezz.95 По видео все делается так же? custom extraction настроен? Откуда ссылки выгружали? Раздел custom extraction открываете или где смотрите?
@@seo_stuff ссылки выгружал из яндекс вебмастера, делал также, custom extraction настроен
Блин я думал, что случилось чудо и стало возможным чекать внешние ссылки любых сайтов при помощи скриминг фрога
Для этого придумали ахрефс)
@@seo_stuff дорого придумали) да еще и русофобы
Достойное использование лягушки! Заслуживает уважения.
Иван, здравствуйте. Была ли у вас ситуация, что в Response Codes показывается 301 редирект, и дублируется страница дополнением такого же своего адреса через слеш, к примеру images/picture.png со статусом 301, а images/picture.png/ со слешем на конце статус 200, и потом зацикливается images/picture.png/images/picture.png статус 301 и images/picture.png/images/picture.png/ 200. Как можно решить это?
Все сделал по инструкции не работает, ссылки выгрузил с миралинкс, custom extraction настроил параметры взял из описания под видео
Заработало, просто не вставил в параметры свой URL адрес. Спасибо за видео!
Подскажи, а почему лягушка не видит ссылки, которые через 301 редирект?)
Не очень понятен вопрос, при сканировании почему не видит?