robots.txt для 3.x
Правила форума
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение
).
Местная Конституция | Шаблон запроса | Документация (phpBB3) | Переход на 3.0.6 и выше | FAQ | Как задавать вопросы | Как устанавливать расширения
Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение

-
- phpBB 2.0.4
- Сообщения: 445
- Стаж: 7 лет 8 месяцев
- Благодарил (а): 92 раза
- Поблагодарили: 27 раз
Re: robots.txt и версия 3.2
Попробую Вашу конструкцию. &e а что это такое, ни разу не видел. Как бы ещё /index.php?sid запихнуть.
-
- phpBB 1.4.4
- Сообщения: 166
- Стаж: 8 лет 11 месяцев
- Откуда: Караганда
- Благодарил (а): 15 раз
- Поблагодарили: 14 раз
Re: robots.txt и версия 3.2
e=1 - это приходит в письмах на e-mail с уведомлениями о новых сообщениях в теме. Конкретно вот сейчас пришло на эту тему:
Я перешёл по этой ссылке в Chrome (Яндекс.Браузер) - Яндекс запомнил её для себя и пошёл по ней посмотреть, что там такое интересное, на котором я уже 5 минут зависаю.
А некоторые пользователи копируют ссылку прямо из письма и вставляют в свои соцсети, например.
https://www.phpbbguru.net/community/viewtopic.php?f=42&t=47609&e=1&view=unread#unread
Я перешёл по этой ссылке в Chrome (Яндекс.Браузер) - Яндекс запомнил её для себя и пошёл по ней посмотреть, что там такое интересное, на котором я уже 5 минут зависаю.
А некоторые пользователи копируют ссылку прямо из письма и вставляют в свои соцсети, например.
-
- phpBB 1.4.4
- Сообщения: 166
- Стаж: 8 лет 11 месяцев
- Откуда: Караганда
- Благодарил (а): 15 раз
- Поблагодарили: 14 раз
Re: robots.txt и версия 3.2
В очередной раз решил "оптимизировать" свой robots.txt. И дооптимизировался до того, что инструмент проверки Google показывает, что форум индексироваться не будет. А Яндекс-вебмастер говорит, что всё нормально - подлежит индексации. Что не нравится Гуглу?
(в примере оставил только User-agent и Diallow, чтоб не отвлекать внимание на остальное)
(в примере оставил только User-agent и Diallow, чтоб не отвлекать внимание на остальное)
Код: Выделить всё
User-agent: *
Disallow: /
User-agent: Google
User-agent: Yandex
User-agent: Bing
Disallow: /adm
Disallow: /mcp
Disallow: /ucp
Disallow: /posting
Disallow: /report
Disallow: /app.php
Disallow: /search
Disallow: /google
Disallow: /viewonline
Disallow: /faq
Disallow: /help
-
- Поддержка
- Сообщения: 5426
- Стаж: 20 лет 3 месяца
- Откуда: Питер
- Благодарил (а): 177 раз
- Поблагодарили: 749 раз
Re: robots.txt и версия 3.2
Сама строка эта точно верная? Не Googlebot ли там надо прописывать?
P.S.
https://developers.google.com/search/do ... lers?hl=ru
Еще одно нарушение правил и будете забанены. © Mr. Anderson
Ты очистил кеш? © Sheer
https://siava.ru (phpbb2.0.x 3.5.x)
Ты очистил кеш? © Sheer
https://siava.ru (phpbb
-
- phpBB 1.4.4
- Сообщения: 166
- Стаж: 8 лет 11 месяцев
- Откуда: Караганда
- Благодарил (а): 15 раз
- Поблагодарили: 14 раз
Re: robots.txt и версия 3.2
Да, точно, поменял на Googlebot - всё заработало. Спасибо.
А вообще идея была такая:
А вообще идея была такая:
Заблокировал всех ботов, кроме Google, Яндекс, bing. Получилось вполне лапидарно.Siava писал(а): 03.10.2020 14:06 ещё заблокируйте мусорных ботов (Ahrefs, Semrush) и будет полное счастье
-
- phpBB 1.0.0
- Сообщения: 3
- Стаж: 3 года 10 месяцев
-
- Модератор
- Сообщения: 979
- Стаж: 7 лет 3 месяца
- Откуда: Таллин ,Эстония
- Благодарил (а): 164 раза
- Поблагодарили: 162 раза
Re: robots.txt, sitemap.xml как сделать на форуме?
forumchik,
что касается
то что в этом теме будут ответы
Карта сайта для ботов (phpBB3 SEO Sitemap)
robots.txt
нужно создать самому и затем расположить в корне форумачто касается
sitemap.xml
то что в этом теме будут ответы
Карта сайта для ботов (phpBB3 SEO Sitemap)
Если ты не видишь проблем на форуме , но это не значить что их там нет
-
- phpBB 1.0.0
- Сообщения: 3
- Стаж: 3 года 10 месяцев
Re: robots.txt, sitemap.xml как сделать на форуме?
файл создать понятно .. но что открывать и закрывать?
что по карте сайта как ее создать?
Отправлено спустя 23 минуты 49 секунд:
https://www.phpbb.com/customise/db/exte ... o_sitemap/
Это расширение пойдет?
что по карте сайта как ее создать?
Отправлено спустя 23 минуты 49 секунд:
https://www.phpbb.com/customise/db/exte ... o_sitemap/
Это расширение пойдет?
-
- Former team member
- Сообщения: 12113
- Стаж: 18 лет 2 месяца
- Откуда: Калининград не Кенигсберг
- Благодарил (а): 36 раз
- Поблагодарили: 1526 раз
Re: robots.txt, sitemap.xml как сделать на форуме?
Поиск по конференции: robots.txt
Общие ошибки новичков (07.11.2005) & Как задавать вопросы
Мини FAQ
Если ничто другое не помогает, прочтите, наконец, инструкцию!
"Никакая инструкция не может перечислить всех обязанностей должностного лица, предусмотреть все отдельные случаи и дать вперёд соответствующие указания, а поэтому господа инженеры должны проявить инициативу и, руководствуясь знаниями своей специальности и пользой дела, принять все усилия для оправдания своего назначения".
Циркуляр Морского технического комитета №15 от 29.11.1910 г.
-
- phpBB 1.0.0
- Сообщения: 8
- Стаж: 4 года 10 месяцев
Robots.txt для phpbb 3.3.4
Подскажите пожалуйста правильный robots.txt для версии 3.3.4. Движок чистый, без сторонних дополнений. Поиск дал устаревшую информацию.
phpbb 3.3.4 только изучаю
-
- Поддержка
- Сообщения: 5426
- Стаж: 20 лет 3 месяца
- Откуда: Питер
- Благодарил (а): 177 раз
- Поблагодарили: 749 раз
Re: Robots.txt для phpbb 3.3.4
Давайте для каждого релиза новую тему создавать? Ничего не изменилось с тех пор.
Еще одно нарушение правил и будете забанены. © Mr. Anderson
Ты очистил кеш? © Sheer
https://siava.ru (phpbb2.0.x 3.5.x)
Ты очистил кеш? © Sheer
https://siava.ru (phpbb
-
- phpBB 1.0.0
- Сообщения: 8
- Стаж: 4 года 10 месяцев
Re: Robots.txt для phpbb 3.3.4
Не у каждого чистый движок. Мне надо именно для чистогоSiava писал(а): 26.07.2021 10:00 Давайте для каждого релиза новую тему создавать? Ничего не изменилось с тех пор.
phpbb 3.3.4 только изучаю
-
- phpBB 1.4.1
- Сообщения: 43
- Стаж: 14 лет 2 месяца
- Откуда: Шарья 44 регион
- Благодарил (а): 8 раз
Найдены страницы-дубли с GET-параметрами
Добрый день.
Подскажите пожалуйста, что можно сделать в моем случае ?
Форум на phpbb3 3.2.7
В Яндекс Вебмастере появилось критическое предупреждение:
Найдены страницы-дубли с GET-параметрами
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров).
Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary.
Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.
Если я допишу в robots.txt эти параметры, этого будет достаточно ?
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php
Подскажите пожалуйста, что можно сделать в моем случае ?
Форум на phpbb3 3.2.7
В Яндекс Вебмастере появилось критическое предупреждение:
Найдены страницы-дубли с GET-параметрами
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров).
Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary.
Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.
Если я допишу в robots.txt эти параметры, этого будет достаточно ?
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php
-
- phpBB 1.4.4
- Сообщения: 140
- Стаж: 6 лет 5 месяцев
- Благодарил (а): 27 раз
Re: Найдены страницы-дубли с GET-параметрами
Аналогичная ситуация и аналогичный вопрос. Что прописать в робортсе, чтобы индексирующая система не "спотыкалась" о подобные дубли?
-
- phpBB 1.0.0
- Сообщения: 7
- Стаж: 3 года 8 месяцев
Re: robots.txt для 3.x
Привет, подскажите пожалуйста как мне отредактировать файл robots.txt точнее в каком пункте, что то я вообще не могу найти этот пункт или может через FTP надо зайти и там отредактировать. Огромное спасибо