WordPress Meta Robots
WordPress Meta Robots это маленький SEO-плагин, дополняющий функционал больших SEO-плагинов. Он позволяет устанавливать тег "meta robots" для любой страницы или записи в блоге. Таким образом, вы всегда можете запретить поисковикам...
Понравился пост? Подпишись на обновления по RSS или Twitter !
#1,
Много полезной информации, все подробно прописано, понятно даже для не очень продвинутых. Сделала для себя закладку. Спасибо!!!
#2,
Подскажите а какой плагин лучше: WP-NoRef или WordPress Meta Robots, заранее спасибо.
#3,
спасибо большое за статью, всё очень подробно расписано, будем ставить на свои блоги этот плагин...
#4,
Очень полезное дополнение для блога. Идеального robots.txt - не существует. А этот плагинчик ,думаю, будет оптимальным выбором по соотношению время/результат.Спасибо.
#5,
Давно искал плаги запрещающий именно отдельную статью. А то приходилось из-за одной статьи полностью страницу исключать. Спасибо.
#6,
2Вячеслав Вообще эти плагины делают разные вещи, 1 скрывает ссылки, а другой закрывает нужные вам страницы.
А вообще плагин мега полезный, только жаль что на английском, и разобраться пока трудновато.
#7,
Спасибо! Как раз нужен был плагин, решающий эти задачи!
#8,
Плагин действительно полезный для владельцов блога, спасибо.
#9,
Спасибо. Как раз то, что искал.
#10,
Полезная вещица. Иногда действительно встречаются записи, которые совсем не обязательно индексировать поисковикам. Сюда бы ещё для комплекта плагин, позволяющий скрывать отдельные посты, не заморачиваясь подолгу с настройками прав перед таким постом.
#11,
index, follow - безсмысленные теги, они ничего не дают.
если нофоллов и ноиндекс закрывают от индексации, тогда без ничего (без нофоллов, ноиндекс, фоллов, индекс) будет все индексироватся. а если поставить фоллов и индекс ничего не изменится.. думаю доступно объяснил.
#12,
половина других meta-тегов тоже не дает видимого эффекта, так что теперь их удалять на фиг?
индекс, фоллоу нужен хотя бы для самого веб-мастера, чтобы четко видеть, что у него разрешено индексировать, а что нет.
#13,
Здравствуйте! Подскажите пожалуйста, что делать с ссылками в виде page? У меня они есть в индексе, стоит ли их закрыть и как лучше это сделать? Использую ЧПУ.
#14,
а зачем их закрывать?
#15,
Выдает ошибку Database Errors
ALTER TABLE wp_posts ADD COLUMN meta_robots varchar(20)
Duplicate column name 'meta_robots'
Не могу понять, в каком файле, но точно не в header.php
#16,
а фиг его знает, что там не так. смоделировать баг мне не удалось - самое простое, это надо зайти в phpmyadmin и удалить эту 'meta_robots', а сам плагин деактивировать и заново активировать.
точнее сказать не могу - он у меня четко встает и без всяких ошибок.
#17,
ошибку видно только в DEBUG-е (у меня установлен такой плагин). А так он ведет себя внешне нормально - не ругается и позволяет вводить параметры index, follow и т.д. Если плагин DEBUG не установлен, то ошибку не видно
#18,
а стоит ли доверять этому плагину? :)
ошибки надо искать реальные, а не выдуманные :)
#19,
Похоже, если на него не обращать внимание, то все в базу пишется корректно, а удалять таблицу нельзя, потому что сам WP по умолчанию туда вносил записи для комментариев к постам. Спасибо!
#20,
Очень полезно, просто закрываешь все в ноиндекс что не нужно для индексации и все, не будет никакого хлама в пс.
#21,
уффф, ну наконец-то что-то дельное по этому вопросу. спасибо. может автор плагина за это время что-то изменил, но у меня получилось, что Главная, Комментарии и Ленты rss - index, follow. Ну Главная - ладно, пусть, там все же не полное дублирование с записями. А вот комменты и фиды, хотелось бы прикрыть. И тогда возникает вопрос: кто старше для ПС этот замечательный плагин или robots.txt? Надо ли убирать запреты из robots.txt на рубрики, метки и архивы, чтобы не получилось конфликта? А если я сниму эти запреты в robots.txt, чью команду будет выполнять поисковик?
пс: в рекомендациях Гугла вообще написано, чтобы все было открыто для сканирования в роботс.тхт, иначе он не сможет определять дублируется или нет контент, и будет все дубли считать за уникальные страницы. А чтобы ограничение для индексации задать, они рекомендуют прописывать каноническую ссылку в коды всех дублирующих страниц - но это же ужас какая морока. И этот плагин прямо спасение!
#22,
robots.txt будет важнее.
вернее не так - запретительная директива будет всегда важнее.
если в meta прописано index, а в robots.txt запрет - будет использоваться запрет. использовать запретительные директивы можно и там и там - они друг другу не мешают.
#23,
Спасибо! Мне сообщение о Вашем ответе пришло только сегодня. Уж не знаю, в чем тут дело, но такой забавный факт. За это время я решила поставить All In One SEO Pack, а этот плагин пришлось убрать, чтобы не дублировалось и не тормозилось. Вроде бы так тоже не плохо..
#24,
Вообще то хоть немножко разобралась благодаря вам... Тяжело живется чайнкам... А то трафик упал конкретно, может от того, что у меня очень много звуковых файлов, у меня аудио уроки английского. Может папку аудио тоже закрыть?
#25,
а смысл? поисковики аудио пока что не индексируют.
#26,
Спасибо, теперь буду знать.
#27,
А не проще будет создать доп.поля в functions.php и не использовать плагин....?
#28,
каждый второй плагин можно запихнуть в functions.php и пользоваться им напрямую, только какое от этого удобство то?
#29,
Приветствую.
Как влияет запрет отдельных страницы на общую индексацию, к примеру Яндекс не понизит тиц из за большого количества закрытых отдельных статей (если я собираюсь лепить чужие статьи к себе на сайт в большом количестве)?
#30,
закрытые к индексации страницы поисковиками вообще не учитываются. у вас может 50 уникальных статей и 50 тысяч копипастных и ничего вам не будет, если последние закрыты для индексации.
но в любом случае - АГС может настигнуть не только за копипаст, а за поведенческие - поэтому к копипасту надо относиться осторожно, брать только то, что будут читать и переходить на другие страницы сайта.
#31,
Спасибо!