animusha писал(а): 03.09.2022 2:44
установить Sitemap достаточно
Еще robots.txt надо создать в корне сайта правильный, и закрыть все эти дубли от индексации. На форуме есть подсказки как создать robots.
animusha писал(а): 03.09.2022 2:44
а почему вообще так движок написан чтоб кучу дублей было?
А вы хоть 1 движок покажите, где не будет дублей, они везде есть, даже пользуюсь xenforo и там они пресутсвуют, просто надо создать роботс и закрыть все что не надо индексировать это первое, а второе, поисковик сам решит какую страницу добавить в поиск, а какие исключить из поиска, так что за дубли можно не переживать, 10 страниц одинаковых у вас не будет в поиске.