Дело вот в чем. В гугл ВМ показывает что страниц в индексе 2000. На сайте пр-цай ру показывает что в гугле проендексировано 700 страниц... Не пойму кто прав, кто виноват... Если кто в курсе, обьясните, где правда :confused:
Вид для печати
Дело вот в чем. В гугл ВМ показывает что страниц в индексе 2000. На сайте пр-цай ру показывает что в гугле проендексировано 700 страниц... Не пойму кто прав, кто виноват... Если кто в курсе, обьясните, где правда :confused:
Да понятно что Гугл ВМ прав, у него же индексация, а не у прцая))
Comm , не верю я этому сервису ... проверил 3 своих сайта. Первый копипастный наполовину показал 21% , два совершенно уникальных показали 1% и 13% ...
Comm
59% ... хорошо однако ;) .
Да, в отношении 100% уникального контента показываемый Гуглом результат в %% совершенно неадекватен.
Ustas
И какой Вы сайт считаете со "100%-й уникальностью" ;) ?
Что-то у меня система на 2 площадках перестала видеть индексацию в Гугле, хотя сайт там есть. и по SITE: все видно
Вы первых, поставьте защиту от взлома текстов, чтобы можно было не окпировать. И еще такой момент. Если тексты на вашем сайте проиндексирвались, пусть берут и что? Все равно они проиндексированы и тексты сайта поискових не отнесет в плагиату, они останутся такими же уникальными..
Гуггл прав конечно. А что касается уникальности текстов то лучшге отрерайтить все тексты. ПЛюс еще будет польза от динамики на сайте.
еще чуть-чуть и в гугл встроят OCR
Сегодня для Гугл роботс - это скорее приманка, все что в роботс индексирует и еще ругается. что в роботс важные страницы запрещены к индексации. Может у него новый алгоритм куда-то сбился?