WP Total Hacks
WP Total Hacks это плагин-сборник двух десятков различных хаков для WordPress. С помощью этого плагина вы легко можете удалить лишние заголовки в блоге...
Понравился пост? Подпишись на обновления по RSS или Twitter !
Плагины, хаки, уроки и многое другое для WordPress.
WP Total Hacks это плагин-сборник двух десятков различных хаков для WordPress. С помощью этого плагина вы легко можете удалить лишние заголовки в блоге...
Понравился пост? Подпишись на обновления по RSS или Twitter !
#1,
Интересный плагин. Спасибо! А что значит убрать уведомления по обновлению? Зачем ее нужно убирать? Это что обновляться плагины больше не будут?
#2,
если регистрация разрешена в блоге, то зарегистрированные пользователи не будут видеть в админке сообщения о том, что надо обновиться - по умолчанию это сообщение показывается всем юзерам в блоге. скрываются только сообщения - больше ничего не меняется.
#3,
А есть такой плагин, который убирает все ошибки из-за которых сайт попадает под фильтр Яндекса? Я, например, не лезу в кода, ничего не настраиваю. Мало в этом понимаю. Мне проще активировать плагин, который мог бы сам контролировать и исправлять ошибки.
#4,
это какие такие ошибки, из-за которых яндекс накладывает фильтр?
#5,
Точно не скажу, но в поиске у меня всего 5 страниц. А 5 разделов показывает, - Документ не является каноническим.
#6,
а сколько по яндекс.вебмастер у вас загруженных страниц? боюсь тут у вас может быть дело не в мифических канонических урлах (оно просто помогает избежать дублей в индексе), а в фильтре на сайт - может и АГС. точнее сказать не могу, может просто сайт еще молодой и не вошел в индекс. в любом случае у вас в robots.txt не закрыты дубли страниц тегов, архивов по авторам, по дате и тд.
#7,
Страниц в поиске - 5
Внешних ссылок на страницы сайта - 4160
Дата последнего посещения сайта роботом 20.05.2012
Загружено роботом - 93
Исключено роботом - 5
#8,
боюсь это симптом АГС - избавляйтесь от неуникального текста на сайте, убирайте дубли страниц и тд.
#9,
Да всё пишу сам. Может где цитирую священные писания. Дублей страниц вроде нет.
#10,
ну как нет - в гугле смотрел у вас архивы страниц по тегам (/tag/), по дате (/2012/) и тд. с точки зрения яндекса это дубли.
а вообще, если у вас уникальный текст - советую купить где-нибудь на gogetlinks несколько трастовых ссылок на сайт, может поможет.
#11,
Да как они вообще появляются? И можно ли их убрать? Вот это #more что ли? А про ссылки подумаю.
#12,
нет, это не то. вы создаете метки в записях - они тоже являются ссылками на архивы по меткам и тд. смотреть надо, примерный robots.txt будет:
а вообще robots.txt индивидуален для каждого сайта и зависит от структуру постоянных ссылок на сайте.
#13,
Значит, проблема в robots.txt ?
#14,
да кто же его знает?
яндекс не отсчитывается что как и почему.
но дубли всегда вредны для сайта.
#15,
Скажите, а если запретить в роботсе индексирование вообще, кроме указанных урлов, а после написания очередной статьи вносить её урл в список исключенных?
#16,
в robots.txt нет директивы разрешить - только директива запретить. отсюда и многие проблемы. да и как вы будете отслеживать и разрешать урлы главной страницы, рубрик и тд?
#17,
на сколько я понял в роботсе есть команда "запретить к индексации все, кроме" и далее шаблоны урлов. Так вот я и думаю, если запретить все кроме постоянных ссылок на статьи. ? или я ошибаюсь?
#18,
ошибаетесь - в роботсе только запреты, никаких кроме там нет.
#19,
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'
Взято с яндекса
т.е. если тут я вместо яндекса поставлю звезду
а за командой AlloW укажу жесткую ссылку, то не будет работать?)
простите за нубский вопрос )
#20,
allow это чисто яндексовская директива, она не будет работать с другими поисковиками, а в частности с гуглом. поэтому бессмысленно настраивать роботс, если он будет работать только с одним поисковиком.