Уважаемые пользователи!
C 7 ноября 2020 года phpBB Group прекратила выпуск обновлений и завершила дальнейшее развитие phpBB версии 3.2.
С 1 августа 2024 года phpBB Group прекращает поддержку phpBB 3.2 на официальном сайте.
Сайт официальной русской поддержки phpBB Guru продолжит поддержку phpBB 3.2 до 31 декабря 2024 года.
С учетом этого, настоятельно рекомендуется обновить конференции до версии 3.3.

robots.txt для 3.x

Вопросы без привязки к версии. Установлена авточистка (2 года).
Правила форума
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения

Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение ;) ).
sasa85
phpBB 1.4.4
Сообщения: 171
Стаж: 13 лет 4 месяца
Благодарил (а): 14 раз
Поблагодарили: 1 раз

Re: robots.txt для 3.1

Сообщение sasa85 »

Добавил в роботс тхт вот такое:
Disallow: /forum/viewtopic.php?f=*&t=*&p=*

Гугл сразу забил тревогу, что у сайта серьезные проблемы. Убрать такую строку или оставить?
Аватара пользователя
COB16
phpBB 2.0.15
Сообщения: 1011
Стаж: 9 лет 6 месяцев
Откуда: Беларусь
Благодарил (а): 298 раз
Поблагодарили: 57 раз

Re: robots.txt для 3.1

Сообщение COB16 »

sasa85, Ты же запретил индексацию всех тем и разделов
Аватара пользователя
Alecto
phpBB 3.0.12
Сообщения: 2857
Стаж: 14 лет 4 месяца
Откуда: Украина! Харьков
Благодарил (а): 68 раз
Поблагодарили: 241 раз

Re: robots.txt для 3.1

Сообщение Alecto »

ничего подобного, только там, где есть ссылки на посты, а они нафиг гуглу не нужны, поскольку дубли.
чтобы не было сомнений - надо взять ссылку и проверить в консоли гугл для своего роботс.тхт

Отправлено спустя 4 минуты 58 секунд:
добавил себе, проверил.
ссылки вида viewtopic.php?f=35&t=5263&p=82675#p82675 блокируются
viewtopic.php?f=35&t=5263 - проходят, так что все в порядке.
sasa85
phpBB 1.4.4
Сообщения: 171
Стаж: 13 лет 4 месяца
Благодарил (а): 14 раз
Поблагодарили: 1 раз

Re: robots.txt для 3.1

Сообщение sasa85 »

Вот я тоже все проверил, но у меня в индексе у гугла много страниц типа viewtopic.php?f=35&t=5263&p=82675#p82675
Может и поэтому он забил тревогу, понаблюдаю в общем.
Аватара пользователя
Sumanai
phpBB 3.0.0 RC5
Сообщения: 1668
Стаж: 9 лет 6 месяцев
Благодарил (а): 257 раз
Поблагодарили: 195 раз

Re: robots.txt для 3.1

Сообщение Sumanai »

sasa85 писал(а): Вот я тоже все проверил, но у меня в индексе у гугла много страниц типа
Они должны были исчезнуть после перехода на 3.1 благодаря Canonical URL.
Аватара пользователя
Alecto
phpBB 3.0.12
Сообщения: 2857
Стаж: 14 лет 4 месяца
Откуда: Украина! Харьков
Благодарил (а): 68 раз
Поблагодарили: 241 раз

Re: robots.txt для 3.1

Сообщение Alecto »

Sumanai писал(а): Они должны были
ага, щяс, хотелось бы.
гугл тащит все ссылки, что находит на сайте, во всех их вариациях.
у меня этих дублей было больше 100 000 в 3.0, в 3.1 уменьшил до 8700, но тут скорее помогла настройка роботс.тхт, чем смена движка.
Аватара пользователя
Sumanai
phpBB 3.0.0 RC5
Сообщения: 1668
Стаж: 9 лет 6 месяцев
Благодарил (а): 257 раз
Поблагодарили: 195 раз

Re: robots.txt для 3.1

Сообщение Sumanai »

Alecto писал(а): гугл тащит все ссылки, что находит на сайте, во всех их вариациях.
И склеивает дубликаты.
Аватара пользователя
Alecto
phpBB 3.0.12
Сообщения: 2857
Стаж: 14 лет 4 месяца
Откуда: Украина! Харьков
Благодарил (а): 68 раз
Поблагодарили: 241 раз

Re: robots.txt для 3.1

Сообщение Alecto »

Sumanai, спорить можно долго и безрезультатно.
вот ссылка Re: Карта сайта для ботов (phpBB3 SEO Sitemap) (Пост Alecto #472554) что было С ДУБЛЯМИ и что стало ПОСЛЕ.
для меня это очень показательно и очевидно, вы же в своем праве как считать и что делать :)
Аватара пользователя
Sumanai
phpBB 3.0.0 RC5
Сообщения: 1668
Стаж: 9 лет 6 месяцев
Благодарил (а): 257 раз
Поблагодарили: 195 раз

Re: robots.txt для 3.1

Сообщение Sumanai »

Alecto писал(а): что было С ДУБЛЯМИ и что стало ПОСЛЕ
Это не относится к дублям.
Аватара пользователя
Alecto
phpBB 3.0.12
Сообщения: 2857
Стаж: 14 лет 4 месяца
Откуда: Украина! Харьков
Благодарил (а): 68 раз
Поблагодарили: 241 раз

Re: robots.txt для 3.1

Сообщение Alecto »

еще и как относится.
Аватара пользователя
COB16
phpBB 2.0.15
Сообщения: 1011
Стаж: 9 лет 6 месяцев
Откуда: Беларусь
Благодарил (а): 298 раз
Поблагодарили: 57 раз

Re: robots.txt для 3.1

Сообщение COB16 »

Alecto писал(а): где есть ссылки на посты
иногда как раз нужный ответ содержится в посте, а не во всей теме и получается что при переходе пользователь будет рыть всю тему вместо чтения ответа :)
Аватара пользователя
Alecto
phpBB 3.0.12
Сообщения: 2857
Стаж: 14 лет 4 месяца
Откуда: Украина! Харьков
Благодарил (а): 68 раз
Поблагодарили: 241 раз

Re: robots.txt для 3.1

Сообщение Alecto »

strelok-by писал(а): иногда как раз нужный ответ содержится в посте
вот только гугл об этом не знает.
Аватара пользователя
SashaMinsky
phpBB 1.4.4
Сообщения: 114
Стаж: 11 лет 2 месяца
Благодарил (а): 2 раза
Поблагодарили: 9 раз

Re: robots.txt для 3.1

Сообщение SashaMinsky »

Поднималась ли мысль, что дубли в роботс лучше не запрещать? Склейки по canonical достаточно, и поисковики с этим прекрасно справляются. А в случае запрета в роботс они страницу считают проиндексированной, когда выводят общее число проиндексированных, но содержимое ее не читают и ни с чем не склеивают. То есть, встречая такую ссылку, робот свою поисковую базу не пополняет реальным содержимым, только увеличивает счетчик страниц, а вот если страница открыта и имеет каноникал, то читает и понимает как надо с правильным адресом.

Мой опыт говорит, что дубли можно не запрещать - в вебмастере и яндекса, и гугла все в порядке. В роботсе запрещены только cgi-bin и feed.php. А ненужные поисковикам страницы ucp, memberlist и прочие закрыты в мета-тегах.
Аватара пользователя
staiki
phpBB 2.0.2
Сообщения: 318
Стаж: 11 лет 10 месяцев
Откуда: Киев Украина
Благодарил (а): 56 раз
Поблагодарили: 9 раз
Забанен: Бессрочно

Re: robots.txt для 3.1

Сообщение staiki »

SashaMinsky писал(а): А ненужные поисковикам страницы ucp, memberlist и прочие закрыты в мета-тегах.
А дайте пример как те страницы запретить мета-тегами. Потому как закрывал ucp, memberlist только в роботсе.
http://staiki.net/index.php Форум Компьютерная Помощь
Аватара пользователя
владимир1983
phpBB 3.2.6
Сообщения: 5954
Стаж: 14 лет
Откуда: Сергиев Посад
Благодарил (а): 306 раз
Поблагодарили: 296 раз

Re: robots.txt для 3.1

Сообщение владимир1983 »

За ваши деньги решу ваши проблемы. Стучи в ЛС.
Нет человека - нет проблемы. (c)

Вернуться в «phpBB-пространство»