Причины выпадения страниц из индекса

Почему страницы выпадают из индекса поисковых систем

Каждый опытный вебмастер хотя бы раз в своей практике встречается с такой проблемой, что страницы сайта выпадают из индекса поисковых систем. Если вы с этим тоже столкнулись, то в этой статье мы разберем причины возникновения такого явления. Для начала нам нужно собрать все страницы которые были исключены с индекса и поддать их следующему анализу по следующим критериям:

10 основных причин выпадения страниц сайта из индекса Яндекса

Давайте разберем подробно причины выпадения из индекса поисковых систем страниц сайта. Почему это произошло и как поступить в сложившейся ситуации. Анализ можно провести самостоятельно и так же самостоятельно исправить выявленные проблемы.

Некачественный контент

Неуникальность. Конечно, если вы написали сами вполне внятный текст, проверяли на уникальность при публикации, и не постили где-нибудь еще, то тут может быть только одна причина – статью скопировали, разместили на стороннем ресурсе и скорее всего поисковые системы посчитали что первоисточник не вы.

Что делать? Проверьте текст на уникальность. Как это делать вы можете почитать в этой статье. Если вы нашли дубликаты в сети, то советуем проверить, как Яндекс относится к вашему тексту. Выберите один абзац не уникального текста, скопируйте и вставьте в поисковую строку Яндекса, возьмите этот кусочек текста в кавычки. 

Если ваш сайт в выдаче находится первый, то волноваться нечего — ваш текст Яндекс считает первоисточником и ранжирует выше копий.

Если же наоборот – то надо обращаться с жалобой к владельцу сайта и хостинговой компании с просьбой удалить сворованный контент. При составлении письма советуем изучить закон об авторском праве и меры наказания за его нарушение.

Плохое качество контента. Что тут имеется ввиду? Это может быть грубый рерайт, размноженный текст с помощью синонимайзеров и прочих программ. Что делать? Переписать или дописать статью, так как плохой контент по сути никому не интересен.

Переоптимизация контента. Проверьте статью, которая выпала из индекса на количество вхождений ключевых слов. Сделать это можно любым сервисом http://advego.ru/text/seo/ или http://istio.com/rus/text/analyz/. Тут обращайте внимание на максимальный процент по слову.

Он должен быть максимум до 4%, или же ориентируйтесь по ТОПу выдачи, какой процент вхождения используют конкуренты, статьи которых занимают первые позиции. Так же обратите внимание как у вас прописаны метатеги: Title, Disсription, заголовок H1 и другие подзаголовки с тексте.

Возможно вы перестарались и слишком много употребили ключевых слов.

Технические проблемы

Если сайт постоянно недоступен для ботов Яндекса, то поисковая система может посчитать, что данная страница уже не существует и исключить из поисковой выдачи. Иногда такие косяки бывают со стороны хостинга. Если он постоянно подводит, сайт часто становится недоступным, то надо переносить свои сайты на другой более качественный хостинг.

Так же проверьте, закрыта ли страница для индексации (проверьте запрещающие директивы файла  роботс, и наличие атрибута noindex в metarobots. Вы могли не корректно настроить какой-нибудь плагин или CMS и случайно закрыть доступ роботам к индексации данного урл адреса.

За нарушение закона

Контент, размещенный на данной странице может нарушать закон об авторском праве. Или не соответствовать нормам, правилам и действующему законодательству РФ.

Что делать? Изучать более детально закон под действие которого попал ваш сайт. Если есть ошибки со стороны поисковой системы то это стоит решить в частной переписке со службой поддержки, если все по закону то удалить все нарушающие закон материалы и больше так не делать

Много исходящих ссылок с страницы

Проверьте количество исходящих ссылок, обратите внимание так же на количество расположенной рекламы.

За агрессивную продажу ссылок Яндекс может посчитать страницу (или весь сайт) спамным, не соответствующим критериям качественного сайта.

Что делать? Убрать максимально возможное количество внешних ссылок, ведущие на сторонние ресурсы или закрыть их от индексации атрибутом rel=nofollow.

Дубли страниц внутри сайта

Очень частая мера при нахождении роботом в индексе страниц дублей это удаление лишних на усмотрение робота, и не редко бывает что удаляются совсем не те страницы которые нужно.

Что делать? Если у вас в индексе 24000 страниц а уникального контента всего 300 страниц, то будьте готовы к внезапному удалению 23500-23600 страниц или же, если лишние страницы не приносят вам трафик, пропишите корректные правила индексации в файле robots.

txt и закройте все страницы не имеющие полезного уникального содержания.

Плохое качество сайта

У вас может быть изумительный контент, но если он будет подан на сломанной верстке или на совсем не естественной цветовой гамме то среднестатический пользователь вряд ли будет ее читать а скорее всего перейдет к конкурентам. Накопление статистики плохих поведенческих факторов может привести к наложению фильтра на ваш сайт.

Санкции в поисковых системах

Не стоит упускать такой момент, как фильтры поисковых систем. Как правило они накладываются уже за очень грубое и систематическое нарушение описанных здесь причин и если вы получили АГС или Бан тогда вам стоит пересмотреть все предыдущие пункты и найти конкретную причину за который вы получили санкции.

Глюк Яндекса

Если вы все проверили, но грубых нарушений не обнаружили, то это может быть обычный глюк Яндекса. Такое периодически бывает, и как правило восстанавливается в следующие 1-2 апдейта.

Рейтинг статьи:(5,00 из 5 на основе 1 оценок)Tweet

Источник: http://seooki.ua/blog/stranicy-vypadayut-iz-indeksa/

По каким причинам страницы сайтов выпадают из индекса

Очень часто бывает так, что хорошо проиндексированный сайт вдруг начинает «проседать» и  в выдаче какой-нибудь поисковой системы, то есть его страницы начинают не просто терять свои позиции в топах, а вообще страницы сайтов выпадают из индекса.

Ну, профессионалы прекрасно знают причины такого поведения поисковой системы, будь то Яндекс или Гугл, и часто им быстро удаётся исправить положение, хотя вообще-то они до такого состояния свои сайты не доводят. А вот новичкам часто невдомек, за что поисковая система «наказала» сайт.

А не имея возможности найти причину выкидывания страниц из индекса, они могут наделать кучу ошибок, которые ещё больше «утопят» сайт, а то и вообще его погубят.

Так в чем же причина выпадения страниц из индекса поисковых систем? Как ее определить в конкретных случаях и как исправить?

Одна из главных причин – некачественный контент. Но некачественность контента, которую определяют поисковые системы, можно разделить на несколько основных категорий. 1). Контент, который сгенерирован автоматически. Такой контент характерен для таких сайтов, как дорвеи и сплоги, и сегодня встречается крайне редко.

Читайте также:  Стратегия rsg

Им увлекаются только профессионалы, которые прекрасно знают, как обмануть поисковые системы, подсунув им вместо нормальных текстов всякую «генеренку» и продвинуть сайт в топы надолго. Но рано или поздно даже сайты профессионалов «попадают под раздачу» и вылетают из индекса.

Обратите внимание

На нормальных сайтах такие тексты не встречаются, так как они не читабельны, и поэтому заинтересовать посетителей не могут никак. 2). Тексты синонимизированные. Такие тексты также производятся автоматически, однако при этом они вполне читабельны, хотя и не очень.

Суть синонимайзинга заключается в том, что программа, которая обрабатывает текст, вместо одних слов вставляет другие, подходящие по смыслу, то есть синонимы. Программы-синонимайзеры бывают разного качества, и делятся на две категории – бесплатные и платные.

Оба типа синонимайзеров делают тексты очень уникальными – от 90 до 100%, хотя бесплатные не в состоянии произвести эту работу качественно, и такие тексты хоть и читабельны, то есть смысл изложенного понять можно, но использовать такие тексты для получения информации – настоящая пытка.

Платные синонимайзеры «гонят» более качественный контент, но любой человек все равно распознает его автоматическую природу. Поисковые системы не имеют инструментов, способных распознать качественный синонимайзинг, и потому «синонимизированные» сайты попадают под санкции редко.

Однако они всё же под них попадают, и особенно те, при создании которых использовались бесплатные синонимайзеры. 3). Тексты типа рерайт. Рерайт – это статья, переписанная с уникального источника, только другими словами. Еще недавно рерайтинг так же хорошо индексировался поисковыми системами, как и уникальные статьи, то есть копирайт.

Однако с развитием алгоритмов поисковых систем рерайт все чаще и чаще стал распознаваться как «частично дублированный контент», и, соответственно, статьи с таким ярлыком индексируются гораздо хуже. Известны случаи, когда сайты, сделанные целиком на рерайтинге теряли все свои позиции и никогда уже не восстанавливались. 4). Копипаст – полностью не уникальный контент.

Было время, когда копипаст ранжировался поисковыми системами не хуже, чем «уник».

В принципе, даже сегодня можно увидеть множество сайтов, сделанных исключительно на копипасте, которые занимают хорошие места в выдаче по самым разным запросам, но это положение основано исключительно на мощной ссылочной массе таких сайтов, а менее удачливые их «коллеги» очень часто вылетают из топов без права на восстановление. Положение усугубляется еще и тем, что все «копипастеры» грабят контент с чужих сайтов в автоматическом режиме, причем со всеми недостатками таких статей – с ошибками, встроенными в тексты ссылками, синонимайзингом и «генеренкой». Это все ухудшает «награбленные» тексты и сказывается на ранжировании содержащих их сайтов. Единственный плюс такого метода – это успеть сграбить уникальную статью с какого-то сайта ещё до того, как она будет проиндексирована поисковыми системами. Но такие «финты» доступны только супер-профессионалам, а новичок, ступивший на этот путь, в большинстве случаев рискует тем, что его сайт вылетит из выдачи вообще.

Кроме некачественного контента существуют еще некоторые достаточно веские причины, по которым сайт может выпасть из индекса. Наиболее значительные из них – агрессивная продажа ссылок, ошибки на сайте, проблемы с хостингом, да и глюки самих поисковых систем не следует сбрасывать со счетов.

Продажа ссылок

Профессионалы уже давно научились продавать ссылки так, что поисковые системы их сайты вычислить совершенно не в состоянии. Но вот не совсем опытные вебмастера, умудрившиеся хоть как-то раскрутить свой новый сайт, частенько изъявляют желание заняться продажей ссылок с него.

Кто-то знаком с негласными правилами размещения «продажных» ссылок, и тот страдает меньше, а кто-то вообще не знает, как правильно продавать ссылки, и такие неудачники теряют свои сайты – они выпадают из индекса надолго, а то и навсегда.

Важно

Как правило, новички пытаются продавать ссылки так называемым «агрессивным» методом, то есть каждый день на разных страницах сайта размещают сразу по нескольку ссылок. Однако алгоритмы поисковых систем на подобные действия реагируют очень оперативно.

Если проблема произошла, то вернуть страницы в индекс поможет только экстренное удаление всех внешних ссылок с сайта.

Ошибки на сайте

Что означает это определение? Да что угодно, умещающееся в одну фразу: сайт сделан очень плохо.

Могут быть фатальные ошибки в коде, могут быть ссылки битые, то есть не работающие, могут присутствовать какие-то неправильные или плохо прописанные теги, или наоборот, сайт слишком переоптимизирован, на нем замечен «ключевой спам» — перенасыщение его страниц ключевыми фразами или однотипными кусками текстов.

Также движок сайта может работать очень плохо и путать ботов поисковых систем – всего не перечесть. Поэтому перед тем, как запускать сайт «в работу», следует его очень хорошо проверить. Не умеете проверять сами – воспользуйтесь услугами специализированных сервисов.

Проблемы с хостингом

Как правило, такие проблемы возникают у тех, кто пользуется дешевым хостингом. Такие хостинги работают очень плохо, часто сайты по нескольку раз в день «падают», а поисковым системам не нравится, когда большую часть времени поисковые боты не могут найти «легший» сайт.

Хоть поисковики и не люди, а машины, но и им тоже часто надоедает такое положение дел, и наступает момент, когда «мерцающий» сайт вылетает из индекса. Также следует сказать о том, что у самих поисковых систем также могут иметься свои собственные глюки.

Глюки могут быть самые разные, и вдаваться в их сущность не имеет никакого смысла. Если вы полностью уверены в своем сайте и хостинге, и причину выпадения страниц самостоятельно определить не можете, то имеет смысл написать в саппорт (техподдержку) Яндекса или Гугла.

Из Яндекса ответят быстро, ответа Гугла придется подождать подольше, но ответ придет всё равно. Саппорт обязательно разберется, и если проблема произошла по вине поисковой системы, то ее решат обязательно.

Однако тут следует предупредить – если ваш сайт из разряда ГС («дерьмосайт»), то можно никуда не писать, потому что, скорее всего, причина выпадения страниц не в поисковой системе, а именно в вашем сайте.

Существует еще множество причин выпадения страниц сайтов из индекса поисковых систем, но они, как правило, довольно редки, и если их рассматривать, то надо создавать отдельную тему.

Читайте также:  Пример создание простой html страницы

Источник: https://owlweb.ru/po-kakim-prichinam-stranicy-sajtov-vypadayut-iz-indeksa/

5 причин и способов борьбы с выпадением страниц из поискового индекса

Вряд ли можно назвать плохим ваш сайт: рекламой не перегружен, и вообще, по всем признакам должен поисковой системе нравиться. Однако из индекса он выпал. В чем причина? Что приводит к медленному, но уверенному выпадению страничек из индекса поисковика?

Быть уверенным в точной причине удаления страниц из индекса можно, лишь зная всю «историю болезни». Тем не менее, к заболеванию приводят те же причины. Будем более конкретны.

1. Причины технические

Проблемы с хостингом, неверный ответ сервера, «заскоки» движка сайта и т.п. – это может служить причиной выпадения страниц с индекса.

Чтобы разобраться, происходит ли выпадение страниц из индекса по этой причине, следует в Яндекс вебмастер добавить свой сайт, а затем изучить раздел «ошибки». В случае если робот не может попасть на сайт, тогда в «ошибках» вам сообщат про это.

2. Внутренние дубли страниц

Присутствие идентичных страниц под разными именами способно привести к выпадению даже целых разделов. Часто, разные URL с аналогичным по содержанию страниц CMS сайта автоматически генерируются. Об их существовании вебмастер может и не знать.

Есть два пути решения сей проблемы: обратиться к файлу robots.txt, чтобы ограничить дубли, либо поработать с движком для решения проблемы генерирования дублей.

3. Не имеющие контента страницы

В случае, если существенная часть большинства страниц, благодаря своему объёму, сквозным блокам уступает — имеется высокая вероятность удаления таких страниц из системы поиска. Следует привести пример, для пущей наглядности: значительная часть страницы наполнена различными изображениями, либо 1-2 предложениями текста, или шапкой – каталогом, имеющей навигацию на сотню разделов.

Судя по всему, поисковик посчитает подобные страницы малоинформативными и абсолютно бесполезными для пользователей. Посему из индекса он их выбрасывает.

Чтобы не вляпаться в столь пагубные неприятности, нужно следить, чтобы каждая страничка содержала уникальный, качественный контент. Увлекаться раздуванием навигации и иных сквозных блоков не стоит.

4. Исходящие ссылки

Мы не беремся утверждать, что присутствие исходящих ссылок ведет к выпадению страниц из поискового индекса.

Но было замечено, что Яндекс убирает из своей базы такие директории сайта, где имеются страницы со ссылками.

При этом, подобное может случаться с вполне качественными сайтами, которые нормально, до этого, поисковыми системами индексировались, не учитывая некоторые директории, содержащие продажные статьи.

5. Низкая уникальность текста

Выпадать из индекса могут страницы, наполненные неуникальным контентом. Бывали случаи, когда приличный сайт (СДЛ) на тему поиска роботы «уходил» из индекса потому, что на нем находился текст из КЗОТа.

Если вам необходимо, чтобы такая страница присутствовала в индексе, тогда следует неуникальный контент заменить на уникальный. В случае, если текст, в силу содержания, уникальным не сделать, тогда добавьте на страницу уникального контента.

Источник: https://allforjoomla.ru/info/516-5-prichin-i-sposobov-borby-s-vypadeniem-stranic-iz-poiskovogo-indeksa

Причины выпадения сайта из индекса

Отсутствие страниц сайта в индексах поисковых машин равносильно ситуации, когда магазин на складе имеет много всего разного, а на витринах ассортимент маленький. Люди не находят нужного продукта и разочарованные уходят.

Что дальше? Человек идет искать другой магазин с ассортиментом побогаче. В результате торговая точка теряет не только текущую прибыль, но и будущую. Зачем бы покупатель стал возвращаться в магазин, где ничего нельзя приобрести? Нынче потребитель избалован изобилием.

Совет

Еще одна неприятность выпадения страниц из индекса – когда пропадают страницы на сторонних площадках с размещенной рекламой. Деньги за рекламную кампанию снимаются регулярно, а показов-то и не было.

Поэтому полезно наладить мониторинг наличия сайта в индексе и наметить профилактические мероприятия.

Нестабильный хостинг

Не гонялся бы ты, поп, за дешевизной. Стремление сэкономить на хостинг-тарифе – плохая идея для бизнеса. Особенно что касается интернет-магазинов. Происходит примерно так. Поисковый робот в назначенный срок приходит просканировать сайт на предмет изменений и дополнений.

Робот видит, что некоторых страниц нет и делает вывод, что веб-мастер их удалил с сайта за ненадобностью. И тогда бессмысленный компьютерный алгоритм делает аналогичную операцию с индексом – удаляет отсутствующие страницы.

Когда еще страницы вновь станут доступны и сколько времени пройдет до следующей индексации?

Ошибочные настройки доступа

Порядок и сроки обхода сайта поисковыми роботами подробно прописываются в файлах robots.txt. В процессе редактирования или оптимизации веб-мастер может случайно или ошибочно указать неверные параметры. Настроить слишком редкую индексацию. Или совсем запретить индексировать полезные элементы сайта.

Поисковый робот – всего лишь алгоритм и строго выполняет только то, что и записано в командном файле.

Некоторые горе-системы управления сайтами автоматически генерируют запреты на индексацию посадочных страниц сайта или ссылок.

Дублирования разного рода

Одна из задач поисковой машины – оптимизация расхода аппаратных ресурсов.

Поэтому при обнаружении одинакового контента, одинаковых страниц и том подобных вещей дубли склеиваются и произвольно назначается канонический образец.

Часто основной становится совсем не та страница, что требуется веб-мастеру. При необходимости в сохранении дублей необходимо обозначать HTML-тегами каноническую страницу.

Поисковые фильтры

Сегодня имеется очень много причин, за что поисковый компьютер может посчитать сайт недостойным к показу пользователям.

Все эти причины частично зафиксированы в фильтрующих алгоритмах, частично определяются человеческим фактором асессоров поисковой компании. Достоверно об этих причинах наложения поискового пенальти ничего не известно, потому что и не сообщается.

Из практического опыта оптимизации можно сделать некоторые выводы о причинах исключения веб-страницы из индекса.

  • Низкая уникальность контента. 
  • Синонимизированный текст. 
  • Низкая информационная полезность содержания страницы. Как это определяет компьютер? Простым сравнением с эталонными образцами качества в базах поисковой машины. 
  • Недостаточное количество текстового контента на странице. Это фактор скорее относится к сайтам информационных тематик. Поскольку трудно ожидать много текста на страницах интернет-магазина или сайта фотогалереи, видеоканала. 
  • Отсутствие четкой структуры и форматирования текста, включая сопровождение графическими и медиа элементами контента.

Относительно новая причина выбрасывания сайта из индекса – плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице. плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице.

Читайте также:  Биткоин краны

Плохие ПФ – это скорее следствие других недоработок на сайте.

  1. Сайт неудобен для пользователя – слабое юзабилити. 
  2. Слишком много навязчивой рекламы, особенно всплывающих окон, которые почти всегда приводят к уходу пользователя с сайта. 
  3. Непонятная навигация и структура сайта. 
  4. Неправильный дизайн шаблона страницы. 
  5. Неграмотная внутренняя перелинковка.

Все это вместе делает сайт непригодным для комфортного использования, поэтому пользователи вынуждены уходить, даже при наличии качественного содержания.

Злоумышленные действия, DDoS и хакерские атаки

Теперь факторы внешнего воздействия. Это могут быть происки конкурентов, вирусное заражение, даже случайные вещи. Сайт может быть взломан и в страницы внедрен вредоносный код. Поисковая машина своими антивирусами отслеживает такие угрозы и запрещает сайт к показу.

DDoS приводит к обрушению сервера и поисковые роботы не могут опять же попасть на сайт, как и никто не может.

Иногда конкуренты, чтобы выбить соперника из поисковой гонки, взламываются движок и публикуют на страницах тысячи ссылок самого негодного качества. Естественно, поисковая машина немедленно на это отреагирует фильтрацией.

Источник: https://xdan.ru/prichiny-vypadeniya-sajta-iz-indeksa.html

Причины выпадения страниц из индекса

Выпадение страниц из индекса поисковой системы. С такой проблемой может столкнуться абсолютно любой web-мастер. Поэтому каждому владельцу личного проекта необходимо знать о тех причинах, которые могут спровоцировать выпадение некоторых страниц ресурса из выдачи одного или нескольких поисковых сервисов.

Фильтры поисковика.

Наложение фильтра поисковой системы на сайт – это основная причина выпадения его страниц из индекса. Стоит отметить, что данная мера борьбы с некачественными сайтами является наиболее серьезной у поисковых систем. Поэтому вернуть страницы, попавшие под фильтры, в поисковую выдачу достаточно тяжело.

Независимо от того, сколько страниц сайта попало под фильтры поискового сервиса, вернуть их в индекс можно при помощи одного единственного метода, суть которого заключается в устранении тех причин, которые повлекли за собой наложение фильтра.

Это может быть перенасыщение web-документа ключевыми словами, закупка слишком большого количества ссылок для определенной страницы сайта, использование неуникального контента и так далее.

В некоторых случаях сайт может попасть в бан поискового сервиса, который предполагает его полное исключение из индекса.

Причинами бана могут быть методы поискового спама, применяемые с целью продвижения ресурса в поисковой выдаче, наличие на сайте большого количества не уникального контента, а также исходящих ссылок.

Как правило, вернуть ресурс в индекс в такой ситуации невозможно.

Что бы избежать этого тут вы можете заказать продвижение сайта и тогда не нужно будет беспокоиться о грамотной SEO оптимизации и позициях сайта.

Низкое качество контента.

Обратите внимание

Сегодня все крупные поисковые системы имеют в своем распоряжении, так называемый, сервис дополнительной выдачи. В дополнительный индекс помещаются те web-документы, которые, по мнению алгоритмов поисковой системы, не могут быть полезны ее пользователям.

Что же касается технической причины попадания web-документа в дополнительный индекс, то ею является недостаточная оптимизация основного текста web-документа.

Поэтому web-мастерам стоит наполнять страницы интернет-проектов только качественными статьями, наполненными ключевыми словами и фразами.

Таким образом, можно сделать вывод, что 100% индексацию страниц интернет-проекта можно обеспечить только в том случае, если он будет наполняться качественным контентом, а также продвигаться при помощи разрешенных методов оптимизации.

Раскрутка сайта бесплатно

Источник: http://www.stef33.ru/sajtobzor/prichiny-vypadenija-stranits-iz-indeksa

Проблемы с индексацией: основные виды лишних страниц в индексе, причины и пути решения

Всем привет! Давно не писал в блог, причиной тому является завершающий этап разработки сайта студии. Совсем скоро он будет доделан и я его всем покажуНо вернемся к теме нашего разговора, а он очень важен. Сегодня мы поговорим о мусорных страницах в индексе.

Мусор сильно препятствует активному росту позиций и посещаемости сайта, что особенно актуально для старых сайтов, которые давно продвигаются. Сразу скажу, что в таких случаях чистка мусора и доведение индексации до идеала само по себе позволяет увеличить посещаемость.

Иногда на 20%, иногда в несколько раз, но в любом случае результат всегда очень и очень значительный. Вот вам живой пример.

Еще один интересный случай — тысячи мусорных страниц после XSS атак, с которыми сталкиваются многие и даже один из моих сайтов недавно попал под атаку. Особенно примечательно тут, что даже после детальной чистки Яндекс может держать такие страницы в индексе месяцами, а Гугл годами и это становится серьезнейшей проблемой при продвижении.

Сегодня мы в подробностях разберем причины возникновения мусора и дисбаланса в индексации, а так же поговорим о путях решения этих проблем!

Чем грозят проблемы с индексацией сайта

Наиболее подвержены появлению лишних страниц в индексе именно интернет магазины и зачастую число ненужных страниц значительно превышает число уникальных и полезных, ввиду чего сайт в глазах поисковой системы является откровенной помойкой и ни о каком росте посещаемости тут и говорить не приходится и не важно, какие качественные ссылки вы покупаете, какой дополнительный маркетинг проводите — сайт не будет расти по сео, пока вы не наведете порядок.

Так же стоит  заметить еще один важнейший аспект — плавность индексации, когда число страниц в индексе Яндекс и Гугл имеют близкие значения (стоит отметить тот факт, что данный параметр является очень важным и при выборе донора для размещения внешних ссылок). Наиболее частая картина, когда в Яндекс все замечательно, а вот Гугл наелся мусора до отвала  и причина не ясна, ведь все вроде бы закрыто в роботс. Но проблема тут именно в самом роботс для Гугла. Данный вопрос я поднимал в статье.

На данном этапе важно понять — если у сайта есть проблемы с индексацией — его продвижение крайне затруднено и требует повышенных бюджетов!

Находим лишние страницы в индексе

Прежде всего необходимо определить сколько же у сайта реально существует страниц. Для этого необходимо использовать выгрузку сайта при помощи Xenu.

После того, как мы примерно представляем реальное число страниц сайта — необходимо обратиться к поисковой выдаче Яндекс и Гугл, чтобы увидеть число страниц в индексе (ВАЖНО: не стоит смотреть индексацию в Яндекс Вебмастер — он всегда пишет не актуальное значение). Только непосредственные запросы к поисковой системе!

Для Яндекс:

url:www.домен/* | url:домен/* | url:домен | url:www.домен

Источник: https://www.markintalk.ru/problemy-s-indeksaciej-osnovnye-vidy-lishnix-stranic-v-indekse-prichiny-i-puti-resheniya.html

Ссылка на основную публикацию