И где там мета-тег как закрыть memberlist?владимир1983 писал(а): https://yandex.ru/support/webmaster/con ... t/html.xml
robots.txt для 3.x
Правила форума
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение
).
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение

-
- phpBB 2.0.2
- Сообщения: 318
- Стаж: 12 лет 10 месяцев
- Откуда: Киев Украина
- Благодарил (а): 56 раз
- Поблагодарили: 9 раз
- Забанен: Бессрочно
Re: robots.txt для 3.1
http://staiki.net/index.php Форум Компьютерная Помощь
-
- phpBB 3.2.6
- Сообщения: 5954
- Стаж: 15 лет
- Откуда: Сергиев Посад
- Благодарил (а): 295 раз
- Поблагодарили: 287 раз
Re: robots.txt для 3.1
Тебе скорее всего требуется условие для показа на определенной группе страниц определенного мета тега при условии что боты имеют доступ на эти определенные страницы.
За ваши деньги решу ваши проблемы. Стучи в ЛС.
Нет человека - нет проблемы. (c)
Нет человека - нет проблемы. (c)
-
- phpBB 2.0.2
- Сообщения: 318
- Стаж: 12 лет 10 месяцев
- Откуда: Киев Украина
- Благодарил (а): 56 раз
- Поблагодарили: 9 раз
- Забанен: Бессрочно
Re: robots.txt для 3.1
Ну то я и спросил у человека, который говорит что проще запретить мета-тегами чем роботсом. Например - Вход • Регистрация, иногда в индексе было "кто онлайн" и куча ботов. Не думаю что мета-тегом можно всё запретить и проще использовать роботс.
http://staiki.net/index.php Форум Компьютерная Помощь
-
- phpBB 1.4.4
- Сообщения: 114
- Стаж: 12 лет 2 месяца
- Благодарил (а): 2 раза
- Поблагодарили: 9 раз
Re: robots.txt для 3.1
staiki, я реализовывал это довольно кустарно, не через расширение, а правкой кода. Такое решение не совсем в духе идеологии 3.1, поэтому я скорее просто подтвердил, что такой подход работает, а реализовать можно и получше
Роботы заглядывать будут, просто не будут вносить в индекс.
Впрочем, тема-то про роботс и дубли, для них по моему опыту полностью достаточно каноникал, ни метатеги, ни роботс вообще не требуются, а роботс скорее наоборот может замедлить индексацию, так как закрытую в роботс ссылку поисковик не анализирует вообще, а открытую и имеющую тег каноникал - анализирует и правильно индексирует.

Впрочем, тема-то про роботс и дубли, для них по моему опыту полностью достаточно каноникал, ни метатеги, ни роботс вообще не требуются, а роботс скорее наоборот может замедлить индексацию, так как закрытую в роботс ссылку поисковик не анализирует вообще, а открытую и имеющую тег каноникал - анализирует и правильно индексирует.
-
- phpBB 1.4.2
- Сообщения: 65
- Стаж: 10 лет 9 месяцев
- Благодарил (а): 1 раз
Re: robots.txt для 3.1
Google проиндексировал mysait/viewtopic.php?f=4&t=1 и mysait/viewtopic.php?t=1
mysait/viewtopic.php?f=4&t=2 и mysait/viewtopic.php?t=2 т.е. идет дублирование. Как устранить дублирование.
mysait/viewtopic.php?f=4&t=2 и mysait/viewtopic.php?t=2 т.е. идет дублирование. Как устранить дублирование.
-
- phpBB 1.4.3
- Сообщения: 89
- Стаж: 9 лет 3 месяца
- Откуда: Калининград
- Благодарил (а): 6 раз
Re: robots.txt для 3.1
а если форум расположен сразу , forumklgd.ru/index.php то убрать везде строку /forum ? типа так писать Disallow: /go.php ??
и где размещать фаил ?
Калининградский форум phpBB 3.2
-
- Former team member
- Сообщения: 1965
- Стаж: 15 лет 1 месяц
- Благодарил (а): 57 раз
- Поблагодарили: 622 раза
Re: robots.txt для 3.1
robots.txt всегда размещается в корне не зависимо от используемого движка.
Не пишите вопросы лично, если можете задать их на форуме!
Спецзаказы не интересуют!
Спецзаказы не интересуют!
-
- phpBB 1.4.3
- Сообщения: 89
- Стаж: 9 лет 3 месяца
- Откуда: Калининград
- Благодарил (а): 6 раз
Re: robots.txt для 3.1
А зачем в 2-м посте дублируются такие вещи:
для * и для Yandex?
Анализатор яндекса пишет, что это дубли. Они же уже прописаны для *
Отправлено спустя 7 минут 58 секунд:
а гугль наоборот ругается на sid в разделе *
в чем тут смысл так делать?
Код: Выделить всё
Sitemap: ***
Clean-param: sid /forum/index.php
Clean-param: sid /forum/viewforum.php
Clean-param: sid /forum/viewtopic.php
Анализатор яндекса пишет, что это дубли. Они же уже прописаны для *
Отправлено спустя 7 минут 58 секунд:
а гугль наоборот ругается на sid в разделе *
в чем тут смысл так делать?
-
- phpBB 2.0.18
- Сообщения: 1167
- Стаж: 10 лет 1 месяц
- Благодарил (а): 44 раза
- Поблагодарили: 293 раза
Re: robots.txt для 3.1
Clean-param гугл вообще не признаёт, а для яндекса если уж и ставить (зачем если он и так в ботах) то правельней
Clean-param: sid
Вообще убирает дубли с сидом из поиска, чтоб бот создавал меньше нагрузку индексированием
Clean-param: sid
Вообще убирает дубли с сидом из поиска, чтоб бот создавал меньше нагрузку индексированием
-
- Former team member
- Сообщения: 1965
- Стаж: 15 лет 1 месяц
- Благодарил (а): 57 раз
- Поблагодарили: 622 раза
Re: robots.txt для 3.1
Да там вообще много лишнего.
Нет необходимости и в этих запретах:
Нет необходимости и в этих запретах:
Код: Выделить всё
Disallow: /forum/adm/*
Disallow: /forum/download/*
Disallow: /forum/mcp.php
Disallow: /forum/viewtopic.php?f=*&t=*&start=0$
Disallow: /forum/viewtopic.php?f=*&t=*&view=next
Disallow: /forum/viewtopic.php?f=*&t=*&view=previous
Не пишите вопросы лично, если можете задать их на форуме!
Спецзаказы не интересуют!
Спецзаказы не интересуют!
Re: robots.txt для 3.1
а почему такие вещи не убирают? или вы каналы выключаете?
Disallow: /forum/viewtopic.php?f=*&view=print
это печать
Disallow: /forum/viewtopic.php?f=*&p=*
это переход на номер поста
Disallow: /forum/viewtopic.php?p=*
это переход на номер поста
Disallow: /forum/viewtopic.php?t=*
это тоже дубль какой то
т.е. всякие
viewtopic.php?f=11&p=21
viewtopic.php?f=11&t=10&p=21
выкинуть
а доступ оставить для viewtopic.php?f=2&t=8&start=10
viewtopic.php?f=11&t=10
или я не правильно понимаю?
Вот такие маски нормально будут?

или вот ещеfeed.php
feed.php@f=10
feed.php@f=11
feed.php@f=11&t=10
feed.php@f=4
feed.php@f=4&t=10
feed.php@f=6
Disallow: /forum/viewtopic.php?f=*&view=print
это печать
Disallow: /forum/viewtopic.php?f=*&p=*
это переход на номер поста
Disallow: /forum/viewtopic.php?p=*
это переход на номер поста
Disallow: /forum/viewtopic.php?t=*
это тоже дубль какой то
т.е. всякие
viewtopic.php?f=11&p=21
viewtopic.php?f=11&t=10&p=21
выкинуть
а доступ оставить для viewtopic.php?f=2&t=8&start=10
viewtopic.php?f=11&t=10
или я не правильно понимаю?
Вот такие маски нормально будут?
Код: Выделить всё
Disallow: /forum/adm/*
Disallow: /forum/app.php/rules
Disallow: /forum/app.php/news
Disallow: /forum/cache/
Disallow: /forum/config/
Disallow: /forum/docs/
Disallow: /forum/download/*
Disallow: /forum/faq.php
Disallow: /forum/feed.php
Disallow: /forum/includes/
Disallow: /forum/language/
Disallow: /forum/mcp.php
Disallow: /forum/memberlist.php
Disallow: /forum/posting.php
Disallow: /forum/report.php
Disallow: /forum/search.php
Disallow: /forum/ucp.php
Disallow: /forum/viewonline.php
Disallow: /forum/viewtopic.php?f=*&view=print
Disallow: /forum/viewtopic.php?f=*&p=*
Disallow: /forum/viewtopic.php?p=*
Disallow: /forum/viewtopic.php?t=*
в смысле вообще убрать 3 строчки, и оставить только эту без
-
- phpBB 2.0.18
- Сообщения: 1167
- Стаж: 10 лет 1 месяц
- Благодарил (а): 44 раза
- Поблагодарили: 293 раза
Re: robots.txt для 3.1
User-agent: Yandex
Crawl-delay: 3
Disallow:
Clean-param: p /viewtopic.php
Clean-param: mode /download/file.php
Clean-param: sid
Я в данный момент когда решаю с яндексом проблему ддоса сайта ими. сделал такие правила для робота чтоб уменьшить нагрузку, пока они выполняют то что обещали у себя исправить. После планирую убрать вовсе, имхо пока поисковики не сильно влияют на Вашу нагрузку все настройки лишнии, чем меньше их, тем меньше глюков и лучше. Но это моё имхо.
Отправлено спустя 11 минут 41 секунду:
mike2003, более подробно про Clean-param: от самого Яндекса
Crawl-delay: 3
Disallow:
Clean-param: p /viewtopic.php
Clean-param: mode /download/file.php
Clean-param: sid
Я в данный момент когда решаю с яндексом проблему ддоса сайта ими. сделал такие правила для робота чтоб уменьшить нагрузку, пока они выполняют то что обещали у себя исправить. После планирую убрать вовсе, имхо пока поисковики не сильно влияют на Вашу нагрузку все настройки лишнии, чем меньше их, тем меньше глюков и лучше. Но это моё имхо.
Отправлено спустя 11 минут 41 секунду:
mike2003, более подробно про Clean-param: от самого Яндекса
-
- phpBB 2.0.16
- Сообщения: 1086
- Стаж: 9 лет 9 месяцев
- Благодарил (а): 203 раза
- Поблагодарили: 91 раз
Re: robots.txt для 3.1
Я себе сделал файл вида
всё.. нафиг эти заморочки с запрещениями, пусть робот всё индексирует
не жалко
Код: Выделить всё
Sitemap: http://www.site.ru/sitemap.xml
Host: http://www.site.ru
не жалко
Ещё один тупой вопрос и будете забанены. К гуру надо приходить подготовленными, а не как Вы. Вчера создали форум с парой постов, а сегодня уже 20 вопросов )))