Google: как ускорить удаление из индекса большого количества страниц
Сотрудник Google Джон Мюллер поделился советом о том, как ускорить удаление из индекса большого количества страниц.
Вопрос на эту тему был задан на форуме Google Webmaster Central Help. В частности, вебмастер спрашивал, как ускорить деиндексацию большого массива «мусорных» страниц, которые до сих пор присутствуют в Google.
Он рассказал, что бывший SEO-специалист считал хорошей идеей создание миллионов низкокачественных страниц, не имевших никакой ценности для пользователей. В итоге, компания столкнулась со значительным падением трафика.
Для решения этой проблемы было принято решение по-максимуму очистить сайт от мусора и повысить его качество. В рамках этой работы для страниц низкого качества были настроены коды ответа сервера 404 и 410, часть страниц была удалена, а оставшийся контент был переработан и перепрофилирован.
В компании ждали около 7 месяцев, пока Google удалит все «мусорные» страницы из индекса. Поначалу всё шло хорошо, но затем этот процесс замедлился, и Google начал удалять лишь несколько URL в неделю. Поэтому в компании забеспокоились, как бы этот процесс не растянулся на многие месяцы, и начали интересоваться тем, как его ускорить.
Джон Мюллер посоветовал компании использовать для этого временный файл Sitemap:
«Один из способов ускорить этот процесс – отправить временный файл Sitemap, в котором перечислены эти URL с указанием даты последнего изменения (например, когда вы изменили их на 404 или добавили noindex), чтобы мы знали, что их нужно повторно просканировать и обработать».
Как быстро будет деиндексирован этот контент, Мюллер не уточнил.
Временный файл Sitemap нужно хранить максимум несколько месяцев, после чего его желательно удалить.
Также он посоветовал компаниям заказать создание сайта в профессиональной компании, а не заниматься этим самостоятельно, чтобы не допустить ошибок!
Напомним, ранее Джон Мюллер в ответ на вопрос о проблемах с индексацией сайта посоветовал владельцу ресурса закрыть его и создать новый. Причина — низкокачественный контент, для переработки которого нужно большое количество времени.