+7(499) 517-91-53
 

Санкции Google

Supplemental Index

Дополнительный индекс Google. В этот индекс попадает не весь сайт, а лишь частично его страницы, которые Google счет малоэффективными. Страницы из Supplemental Index не имеют Trust Rank и Page Rank, и поэтому не имеют никакого значения для внутренней перелинковки. Эти страницы появляются в индексе лишь в том случае, если поисковая система сочтет, что основного индекса мало для полного раскрытия темы запроса.

Как бороться: покупка ссылок на страницу, снижение количества текста, использование только уникального текста.

 

Google Sandbox

Аналогично Песочнице Яндекса, Sandbox является сдерживающим фактором для резкого роста молодых доменов. Иными словами, защитой от сайтов-однодневок. Так же как и в Яндексе, Sanbox не накладывается на сайт до тех пор, пока сайт не начал слишком агрессивно набирать ссылочную массу и вес. В Google есть понятие Trust Rank, то есть индекса доверия. Если ссылочная масса растет быстрее, чем Trust Rank, сайт попадает под действие Sandbox.

Как бороться: повышать Trust Rank, покупать трастовые ссылки, даже если это дорого, не делать резких движений.

 

-30

Насильственное понижение позиций сайта по данным запросам на 30 позиций вниз. Санкция накладывается за слишком активное использование платных ссылок на сайт.

Как бороться: снять часть платных ссылок и ждать апа, а после исправления ситуации, объяснить Клиенту, что слишком форсированные сроки продвижения ведут к рискам.

 

Bombing

Данный вид фильтра накладывается за использование одинаковых анкоров при покупке ссылок. Обычно, такой фильтр возникает вследствие лени или некомпетености SEO-оптимизатора, который не удосужился правильно прописать анкор-лист.

Как бороться: делать разбавляющий анкор-лист, а если уже фильтр наложен, иногда решает вопрос покаянная переписка с службой поддержки Google.

 

CO-citation Linking Filter

Поскольку Google учитывает не только веса ссылок, но и их тематику, он может наложить фильтр за использование ссылок из нетематических ресурсов. Особенно это касается ссылок, касающихся «сайтов для взрослых».

Как бороться: не использовать автоматическую закупку ссылок (в том числе агрегаторы), проверять все покупаемые ссылки вручную.

 

Too many links at once Filter

Фильтр за слишком быстрый нарост ссылочной массы. У всех поисковых систем существует внутренние нормы естественного нароста ссылочной массы. Если прирост ссылочной массы превышает значения, принятые в поисковой системе для данной тематики, происходит санкция.

Как бороться: снять часть ссылок и признать свои ошибки в Службе поддержки.

 

Too many pages at once Filter

Фильтр за слишком быстрый прирост количества страниц. Слабый фильтр, логика которого заключается в том, что сайт не может слишком быстро развиваться без явных причин. В этом случае, Google предполагает «насильственную» оптимизацию, и накладывает фильтр.

Как бороться: не увеличивать количество страниц на сайте более, чем 30%. И более, чем на 500 в месяц.

 

Broken Link Filter

«Битая» внутренняя перелинковка. Методы индексации сайта поисковыми роботами заключается в том, что поисковых робот переходит по ссылками. В случае, если часть ссылок «битые», т.е. нерабочие, возникает проблема для поисковой системы.

Как бороться: создать sitemap, карту сайта. Желательно в виде XML.

 

Google Duplicate Content Filter

Фильтр, накладываемый за неуникальный контент. Ворованный контент абсолютно во всех случаях негативно влияет на продвижение сайта. Во всех поисковых сервисах в мире неуникальный контент накладывает пенальти на сайт. Причем это пенальти наиболее неприятное и сложно снимаемое.

Как бороться: переписать весь контент и дождаться корректной индексации.

 

Link Farming Filter

Линкоферма, или линкопоймойка. Идея в зафильтровывании сайтов, на которых размещено большое количество ссылок. Google подозревает, что сайты, на которых размещено слишком большое количество ссылок является сайтом, созданным с целью манипулирования поисковой выдачей.

Как бороться: Не продавайте на своих сайтах ссылок.

 

Page Load Time Filter

Слишком долгая загрузка страниц. У всех поисковых роботов есть определенный таймаут, который робот готов ждать до загрузки страницы. Если таймаут исчерпан, робот не станет ждать ответа от страницы и пойдет дальше, а страница сайта не будет проиндексирована.

Как бороться: снизить вес страниц, оптимизировать код, поменять CMS если она медленно отдает страницы, поменять хостинг, если дело в хостинге.

 

Over Optimization Filter

Переоптимизация. Фильтр накладываемый за перенасыщение сайта ключевыми словами, тегами выделения.

Как бороться: избегать переоптимизации. Снизить количество ключевых слов на странице.

 

6