Здравствуйте! Прошу совета.
В robots.txt вставлено
User-agent: Googlebot
Disallow: /cart
Гугль сообщает:
Заблокировано в файле robots.txt. Указанные ниже страницы не индексируются Google и не появляются в результатах поиска.
Примеры страниц:
/cart?variant=208
/cart?variant=305
Поможет ли закрыть Cart от сканирования если в robots.txt сделать такую запись:
Disallow: /cart?variant=
Думаем, что не поможет.
Гугль советует:
Если вы действительно хотите запретить индексирование страницы, не применяйте для этого файл robots.txt.
Удалите из него инструкции, запрещающие сканирование, а на саму страницу добавьте в ее раздел <head> следующий метатег:
<meta name="robots" content="noindex">
Как вставить данный метатег?
В файл catr.tpl, но там head нет
Или лучше в index.tpl.
Но какой синтаксис будет у этого метатега? Ведь надо указать адрес страницы.
Может так:
<meta name="robots" https://forum.okay-cms.com ="noindex">