Пропишу директиву Clean-param в robots.txt
Кворк необходим, если в Яндекс. Вебмастере возникла критическая ошибка "Найдены страницы-дубли с GET-параметрами", рекомендуется применить директиву Clean-param в robots.txt
В вебмастере проверю корректность закрытия ссылок. После выполнения мною задачи, Вам необходимо необходимо отправить на проверку, длительностью около 14 дней.
В зависимости от объема страниц, процесс исправления может продолжаться несколько недель (это зависит от поисковой системы).
Сдача и приемка заказа происходит не дожидаясь окончания процесса замены ссылок в индексе.
Внимание! Для 100% результата (чтобы страница выпала из индекса и директива сработала, нужно сделать страницу неканонической (та что без ? oid, например).
Нужно для заказа:
Адрес сайта
Доступ в Яндекс. Вебмастер для пользователя int-net-partner. ru@yandex. ru
Доступ к метрике для вышеуказанной почты.
Доступ к файлам сайта FTP или через файловый менеджер хостинга.