robots.txt для 3.x
Правила форума
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение
).
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение

Re: robots.txt для 3.1
Добавил в роботс тхт вот такое:
Disallow: /forum/viewtopic.php?f=*&t=*&p=*
Гугл сразу забил тревогу, что у сайта серьезные проблемы. Убрать такую строку или оставить?
Disallow: /forum/viewtopic.php?f=*&t=*&p=*
Гугл сразу забил тревогу, что у сайта серьезные проблемы. Убрать такую строку или оставить?
-
- phpBB 3.0.12
- Сообщения: 2857
- Стаж: 15 лет 4 месяца
- Откуда: Украина! Харьков
- Благодарил (а): 68 раз
- Поблагодарили: 240 раз
Re: robots.txt для 3.1
ничего подобного, только там, где есть ссылки на посты, а они нафиг гуглу не нужны, поскольку дубли.
чтобы не было сомнений - надо взять ссылку и проверить в консоли гугл для своего роботс.тхт
Отправлено спустя 4 минуты 58 секунд:
добавил себе, проверил.
ссылки вида
чтобы не было сомнений - надо взять ссылку и проверить в консоли гугл для своего роботс.тхт
Отправлено спустя 4 минуты 58 секунд:
добавил себе, проверил.
ссылки вида
viewtopic.php?f=35&t=5263&p=82675#p82675
блокируютсяviewtopic.php?f=35&t=5263
- проходят, так что все в порядке.Re: robots.txt для 3.1
Вот я тоже все проверил, но у меня в индексе у гугла много страниц типа
Может и поэтому он забил тревогу, понаблюдаю в общем.
viewtopic.php?f=35&t=5263&p=82675#p82675
Может и поэтому он забил тревогу, понаблюдаю в общем.
-
- phpBB 3.0.0 RC5
- Сообщения: 1668
- Стаж: 10 лет 5 месяцев
- Благодарил (а): 235 раз
- Поблагодарили: 173 раза
-
- phpBB 3.0.12
- Сообщения: 2857
- Стаж: 15 лет 4 месяца
- Откуда: Украина! Харьков
- Благодарил (а): 68 раз
- Поблагодарили: 240 раз
Re: robots.txt для 3.1
ага, щяс, хотелось бы.
гугл тащит все ссылки, что находит на сайте, во всех их вариациях.
у меня этих дублей было больше 100 000 в 3.0, в 3.1 уменьшил до 8700, но тут скорее помогла настройка роботс.тхт, чем смена движка.
-
- phpBB 3.0.0 RC5
- Сообщения: 1668
- Стаж: 10 лет 5 месяцев
- Благодарил (а): 235 раз
- Поблагодарили: 173 раза
-
- phpBB 3.0.12
- Сообщения: 2857
- Стаж: 15 лет 4 месяца
- Откуда: Украина! Харьков
- Благодарил (а): 68 раз
- Поблагодарили: 240 раз
Re: robots.txt для 3.1
Sumanai, спорить можно долго и безрезультатно.
вот ссылка Re: Карта сайта для ботов (phpBB3 SEO Sitemap) (Пост Alecto #472554) что было С ДУБЛЯМИ и что стало ПОСЛЕ.
для меня это очень показательно и очевидно, вы же в своем праве как считать и что делать
вот ссылка Re: Карта сайта для ботов (phpBB3 SEO Sitemap) (Пост Alecto #472554) что было С ДУБЛЯМИ и что стало ПОСЛЕ.
для меня это очень показательно и очевидно, вы же в своем праве как считать и что делать

-
- phpBB 2.0.15
- Сообщения: 1011
- Стаж: 10 лет 6 месяцев
- Откуда: Беларусь
- Благодарил (а): 264 раза
- Поблагодарили: 47 раз
Re: robots.txt для 3.1
иногда как раз нужный ответ содержится в посте, а не во всей теме и получается что при переходе пользователь будет рыть всю тему вместо чтения ответа

-
- phpBB 3.0.12
- Сообщения: 2857
- Стаж: 15 лет 4 месяца
- Откуда: Украина! Харьков
- Благодарил (а): 68 раз
- Поблагодарили: 240 раз
-
- phpBB 1.4.4
- Сообщения: 114
- Стаж: 12 лет 2 месяца
- Благодарил (а): 2 раза
- Поблагодарили: 9 раз
Re: robots.txt для 3.1
Поднималась ли мысль, что дубли в роботс лучше не запрещать? Склейки по canonical достаточно, и поисковики с этим прекрасно справляются. А в случае запрета в роботс они страницу считают проиндексированной, когда выводят общее число проиндексированных, но содержимое ее не читают и ни с чем не склеивают. То есть, встречая такую ссылку, робот свою поисковую базу не пополняет реальным содержимым, только увеличивает счетчик страниц, а вот если страница открыта и имеет каноникал, то читает и понимает как надо с правильным адресом.
Мой опыт говорит, что дубли можно не запрещать - в вебмастере и яндекса, и гугла все в порядке. В роботсе запрещены только cgi-bin и feed.php. А ненужные поисковикам страницы ucp, memberlist и прочие закрыты в мета-тегах.
Мой опыт говорит, что дубли можно не запрещать - в вебмастере и яндекса, и гугла все в порядке. В роботсе запрещены только cgi-bin и feed.php. А ненужные поисковикам страницы ucp, memberlist и прочие закрыты в мета-тегах.
-
- phpBB 2.0.2
- Сообщения: 318
- Стаж: 12 лет 10 месяцев
- Откуда: Киев Украина
- Благодарил (а): 56 раз
- Поблагодарили: 9 раз
- Забанен: Бессрочно
Re: robots.txt для 3.1
А дайте пример как те страницы запретить мета-тегами. Потому как закрывал ucp, memberlist только в роботсе.
http://staiki.net/index.php Форум Компьютерная Помощь
-
- phpBB 3.2.6
- Сообщения: 5954
- Стаж: 15 лет
- Откуда: Сергиев Посад
- Благодарил (а): 295 раз
- Поблагодарили: 287 раз
Re: robots.txt для 3.1
За ваши деньги решу ваши проблемы. Стучи в ЛС.
Нет человека - нет проблемы. (c)
Нет человека - нет проблемы. (c)