Физическое удаление ссылок из DOM спасает краулинговый бюджет Стандартные ди... — Affelist

Физическое удаление ссылок из DOM спасает краулинговый бюджет Стандартные ди…

Физическое удаление ссылок из DOM спасает краулинговый бюджет

Стандартные директивы управления краулингом, такие как robots.txt или noindex, не спасают краулинговый бюджет, потому что фаза обнаружения Googlebot выдергивает и ставит в очередь каждый href, присутствующий в HTML-структуре, независимо от последующих правил индексации.

Этот механизм диктует: если ссылка существует в DOM, краулер попытается перейти по ней, эффективно сжигая бюджет на неприоритетные ассеты, заявляет Чарльз Тейлор.

Для жесткой экономии ресурсов на mass-page архитектурах система должна полностью скрыть путь URL от краулера.

Это требует логики динамического рендеринга, которая определяет user-agent Googlebot и физически вырезает внутренние ссылки на малоценные страницы из DOM до отправки ответа, советует https://www.youtube.com/watch?v=4dMm0o57oQ8&t=2542s Тед Кубайтис.

Для небольших сайтов с потолком бюджета около 3,000 страниц эта архитектура не дает пауку тратить циклы на технические страницы или дубли, которые обычно размывают вес.

#CrawlBudget #Rendering #GoogleBot

@MikeBlazerX
🚷 Закрытый канал: @MikeBlazerPRO

Добавить комментарий