Ускорение индексации страниц: be or not to be?


Каждый владелец личного ресурса старается постоянно наполнять его уникальным материалом, дабы привлекать новых юзеров и удерживать ту публику, которая уже с радостью просматривает ваши заметки. Однако нередко каждый сталкивается с проблемой, что по каким-то причинам проект слишком медленно индексируется поисковыми системами, особенно, когда сам ресурс еще молодой. Собственно, проблема отчасти в подобных ситуациях в возрасте сайта и заключается: доверие у поисковиков вы еще не завоевали (то есть веса не набрали), хотя бывают траблы и из-за огромного количества багов на CMS, плюс, хостинг моросит. Если проблема касается технической стороны, то тут понятно, нужно работать с кодами и искать первопричину посредством вспомогательных сервисов, однако когда ваш ресурс цел и невредим, а индексация не желает проходить в положенные сроки, многие задумываются об ее ускорении.

Начну с ошибок, которые часто допускают молодые оптимизаторы. Никогда не лезьте в платные сервисы, которые обещают затащить поискового бота на ресурс в мгновение ока. Он итак придет, когда наступит время. Затем не спешите заполнять хваленый robots.txt, как советуют многие авторы, это может усугубить проблему, особенно, если вы что-нибудь не то перекроете вместе с дублями страниц.

Ускорение индексации — не миф, хотя и не является каким-то прямым воздействием на бота. Ко всему прочему, Гугл активнее Яши кушает страницы, поэтому тут не только от вас все зависит. И, тем не менее, постараюсь надавить на самые действенные способы, которые применяю сам:

  • Первым делом линкуем. Про внутреннюю перелинковку писать много не буду, потому что материалов на данном проекте об этом хватает. Скажу одно, что даже стандартных «похожих записей» и подробного открытого архива последних записей часто достаточно.
  • Вторым этапом начинаем пинговать. Особенно этот метод хорош, если у вас блог. К примеру, берем вордпресс, кидаем в него базу пинг-сервисов и продолжаем работать, как раньше. Кстати, в вордпрессе можете добавить целый список в колонку «сервисы обновления». Те, кто не знаком с сервисами, привожу примеры нескольких популярных среди них:
    ping.blogs.yandex.ru/RPC2; wasalive.com/ping/; xping.pubsub.com/ping/; ping.syndic8.com/xmlrpc.php; pinger.blogflux.com/rpc; blogdigger.com/RPC2; ping.feedburner.com; blogstreet.com/xrbin/xmlrpc.cgi; ping.weblogalot.com/rpc.php; topicexchange.com/RPC2.
    Думаю, даже десяти будет достаточно. Сразу замечу, что пинг-сервисы придуманы, чтобы мгновенно оповещать запросами поисковых ботов о новых материалах. Так что метод убедительный и качественный.
  • Третьим этапом запускаем любимый мною RSS-канал. Добавляем свою ленту в яндекс, гугл, рамблер и все такое. Главное, обрежьте полную новость, чтобы, не дай бог, вас не начал перехватывать какой-нибудь граббер.
  • Четвертый этап. Если есть свои другие проекты, ну, или проекты хорошего друга в сети, особенно, когда они схожи тематически, советую, замутить кросспостинг. Ну, если нет, хотя бы оставьте линки в своих профилях в социальных сетях. Плюс, добавьте в этот список социальные закладки с мини-анонсами и будет сразу счастье.
  • Пятый этап. Хотя с этого должен развиваться любой качественный проект, но если вдруг не срослось и вы забыли сделать карту сайта, тогда самое дело замутить ее прямо сейчас. Для бота нужен xml вариант, хотя html не будет лишним, в том числе и для читателей (плюс, это та же перелинковка!).
  • Шестой этап. Добавляйтесь в сервисы веб-мастеров, которые есть и в Яндексе, и в Гугле, и, я уверен, во многих других системах. Тот же Яндекс.Вебмастер не просто помогает следить за всеми ошибками и изменениями, но и хорошо отправляет ботов на индексацию постоянно обновляемого ресурса. Кстати, тут и файл robots.txt, опираясь на ошибки, можно отточить. А в Вебмастере гугла вообще есть вариант сразу страницы, которые желаете проиндексировать, добавить.

Напоследок… Я не стал брать в учет методы, которые основаны на статейном продвижении, покупке линковой массы и все такое, потому что одного постоянно уникального контента и вышеописанных вариантов достаточно.

P.s. 1: если вы не знаете, где проверить количество индексируемых страниц и не можете найти прочую информацию по этому вопросу, тогда юзаем что-то вроде cy-pr.com

P.s. 2: если вышеуказанный сервис и ему подобные не отображают изменения в индексации, например, яши, а гугла показывают, то это не всегда означает, что ее нет. Не лишней будет перепроверка проиндексированных страниц в результатах того же Яндекс.Вебмастера.

3 комментария

avatar
Ну и если эти способы не помогли, тогда заходим на сайт urlopener.com/ и вносим такой список с вашим сайтом:

websitevaluebot.com/www.sait.ru
peekstats.com/www.sait.ru
webworth.info/www.sait.ru
statswebsites.com/www.sait.ru
cash81.com/www.sait.ru
nakedweb.org/www.sait.ru
tatlia.com/www.sait.ru
statout.com/www.sait.ru
georanks.com/www.sait.ru
webrapport.net/www.sait.ru
worthlook.com/www.sait.ru
worth.im/www.sait.ru
www.statbrain.com/www.sait.ru
www.builtwith.com/?www.sait.ru
www.aboutus.org/www.sait.ru
www.cubestat.com/www.sait.ru
whois.tools4noobs.com/info/www.sait.ru
www.alexa.com/siteinfo/www.sait.ru
www.alexa.com/data/details/?url=www.sait.ru
www.siteadvisor.cn/sites/www.sait.ru
whois.domaintools.com/www.sait.ru
www.aboutdomain.org/backlinks/www.sait.ru
www.whoisya.com/www.sait.ru
www.who.is/whois-com/www.sait.ru
www.robtex.com/dns/www.sait.ru
whois.ws/whois-info/ip-address/www.sait.ru
whoisx.co.uk/www.sait.ru
www.quantcast.com/www.sait.ru
www.thegetpr.net/site/www.sait.ru
uptime.netcraft.com/up/graph?site=www.sait.ru
www.pageheat.com/heat/www.sait.ru
www.aboutthedomain.com/www.sait.ru
websiteshadow.com/www.sait.ru
domainsearch101.com/domainsearch/www.sait.ru
page2rss.com/page?url=www.sait.ru
www.surcentro.com/en/info/www.sait.ru
www.quarkbase.com/www.sait.ru
www.esitestats.com/www.sait.ru
websitevaluebot.com/www.sait.ru
Нажимаем на кнопку Submit, после Open all (откроется много вкладок) ждем 1-2 минуты, закрываем окна и ждём индексацию
avatar
Кстати, интересный вариант) +1
avatar
За статью +1 очень информативно