Ребят, ну объясните почему, не могу понять совершенно.
Для одного из проектов - Яндекс съел все 1000 страниц уникального контента. Люди, живые, приходят с поиска (Яндекса etc, то есть со всех), а у гугла в индексе 50 страниц!
Ну что за хрень, текст уникальный, перелинковка внутренних, все title и теги, sitemap с robots.txt, всё в WM.
И переходы качественные (вижу в админке - на запрос и наш в тему ответ).
Что ему ещё надо? Почему из 1000 он набрал только 50 страниц? Повторяюсь: текст уникальный, на "очень похожие страницы" он ссылаться не мог.
UPD Я вижу в своей админке, что бот гугла просканировал все страницы (1000), и уже по несколько раз. Но в индексе держится "50 в индексе".