Операционный мини-сайт по внедрению SEO-улучшений для `rp9.ru` (по аудитам, гайдам и текущей проверке).
План и задачи (единая вкладка)
План этапа 1 и рабочий чеклист объединены в одном разделе.
Операционный дашборд (день)
Отправлено
300
Мониторинг
75
Следующая отправка
Только дельта
Техриск
5XX ~ 0
Порядок
TOP20 → IMPORTANT100 → RECRAWL
SEO-метрики (компактно):
база 6.3/10 • цель 8.0-8.3/10 • отправлено/мониторинг 300 / 75 • задач 45 • текущая 6.5/10 (+3.9%) • прогресс до цели 13%.
План этапа 1: детальный порядок работ (раскрыть/свернуть)
Шаг 1: контроль /sitemap.xml и /robots.txt (HTTP 200), проверка 3-5 URL из sitemap. Шаг 2: проверка head-SEO (canonical, meta description, OG, Twitter, JSON-LD) на главной и типовых страницах. Шаг 3: GSC + Яндекс.Вебмастер (sitemap/status/исключения), запуск переобхода приоритетных URL. Шаг 4: контроль скорости home и стабильности (4XX/5XX, legacy 301/410). Шаг 5: фиксация результата и отметка выполненных пунктов прямо в чеклисте ниже.
Явный чеклист: отмечай задачи галочками по мере выполнения.
Срочно: переход Дзена на новые IP (проверить allowlist)
Что сделать: добавить новые IP Дзена в доверенные списки сайта, WAF и DDoS-защиты, чтобы не остановилась индексация. IPv4: 217.174.191.100, 217.174.191.102, 217.174.191.103, 217.174.191.96, 90.156.236.16, 90.156.236.20, 90.156.236.22, 90.156.236.23, 95.163.34.64, 95.163.34.68, 95.163.34.70, 95.163.34.71. IPv6: 2a00:b4c0:1c1:0:0:0:2296::, 2a00:b4c0:1c1:0:0:0:182::, 2a00:b4c0:1c1:0:0:0:183::, 2a00:b4c0:3c1:0:0:0:2dc::, 2a00:b4c0:3c1:0:0:0:383d::, 2a00:b4c0:3c1:0:0:0:383e::, 2a00:b4c0:8c1:0:0:0:9e::, 2a00:b4c0:8c1:0:0:0:abc::, 2a00:b4c0:8c1:0:0:0:abe::, 2a00:b4c0:1c1:0:0:0:9fd::, 2a00:b4c0:3c1:0:0:0:2034::, 2a00:b4c0:8c1:0:0:0:4eb::. Контроль после внесения: 72 часа мониторить 403/429/5xx в логах и убедиться, что всплеска ошибок нет.
Всего задач
0
Выполнено
0
В работе
0
Не выполнено
0
Готовность
0%
Дополнительные действия (экспорт/печать/массовое раскрытие)
Справка и контроль
Минимум теории, максимум контроля.
Статус качества sitemap/robots
sitemap.xml: ~8.5/10 — практически готов к продакшену.
robots.txt: ~9/10 — почти идеален для shared-хостинга.
Чтобы считать оба файла production-grade: закрываем финальный 15-минутный чек (10 автопроверок), особенно по canonical/indexable URL и HTTP-статусам.
Факты
Проверка
Что зафиксировано
Какой вывод для бизнеса
Meta Description
На проверенных страницах отсутствует системно.
Теряем CTR из выдачи.
Canonical
Не везде внедрен/отсутствует.
Риск дублей и размывания релевантности.
Schema.org
Нет цельного слоя разметки сущностей.
Поиск/AI хуже понимают контент.
Open Graph / Twitter
Недостаточное покрытие.
Слабое превью и потери кликов из соцсетей.
robots/sitemap
База есть, но нужна настройка качества.
Можно ускорить индексацию и очистить мусорные URL.
Показать roadmap / каналы / Q&A
Roadmap 7/14/30
7 дней: закрыть базу meta/canonical/schema/OG + контроль sitemap/robots.
14 дней: добить category/post/search, редиректы и качество индексации.
30 дней: закрепить результат по скорости, перелинковке и SEO-QA регламенту.
Каналы
Яндекс/Google: индекс, ошибки, сниппеты, schema.
AI: сущности и машиночитаемая структура.
Соцсети/Дзен: OG/Twitter, стабильный обход и репаблишинг.
Q&A
ТОП-1? Не обещаем позиции, отвечаем за процесс и KPI.
Этап 1? Базовый SEO-фундамент.
Как меряем эффект? До/после + вебмастера + CTR/индекс.
Инструкции в панели (shared)
Да, логика верная: на shared мы в основном меняем файлы через файловый менеджер панели
(или FTP/SFTP) и проверяем результат в браузере + GSC/Яндекс.
Быстрый путь: 1) Sitemap -> 2) robots.txt -> 3) отправка в GSC/ЯВ -> 4) фиксация в журнале.
Плюс: безопасная индексация + меньше мусорных URL в обходе.
Критерии приоритета в sitemap (обоснование)
Сигнал
Что видим в HTML/разделе
Решение для sitemap
Пример URL
Почему так
Ключевой хаб
Раздел верхнего уровня, свежие публикации, много внутренних ссылок
priority 0.9, changefreq daily
/novosti, /nedvizhimost
Максимальная ценность для обхода и перелинковки
Активная подрубрика
Публикации есть, но темп ниже хабов
priority 0.7-0.8, daily/weekly
/analitika, /ipoteka
Нужен регулярный краул, но ниже главных разделов
Стабильный evergreen
Контент полезный, обновляется эпизодически
priority 0.6, monthly
/krovlya, /okna
Поддерживаем индекс без лишней нагрузки
Старая/архивная рубрика
Очень старый lastmod, низкая деловая ценность
priority 0.2-0.3, yearly
/balkon, /gostinnaya
Не конкурирует с актуальными страницами за crawl budget
Смешанный/технический поток
Широкая «сборная» рубрика без четкого интента
priority 0.2-0.4, weekly/monthly
/raznoe, /bez-rubriki
Снижаем переобход шумных страниц
Правило качества: priority — относительный вес URL внутри сайта (не «гарантия позиции»). Важно выдерживать иерархию:
хабы выше, архив и размытые рубрики ниже.
6 шагов
1) Sitemap
Где: корень сайта (public_html/www)
Что: заменить sitemap.xml из rp9-sitemap-ideal.xml
Проверка: /sitemap.xml = 200, отправлен в GSC/ЯВ
2) robots.txt
Где: корень сайта
Что: robots.txt из rp9-robots-shared.txt
Проверка: /robots.txt = 200, важные разделы не закрыты
4) Контентная структура
Где: шаблоны + редактор контента
Что: 1 H1, логичные H2/H3, осмысленные alt
Проверка: вручную 10 приоритетных URL
5) Лог изменений
Где: rp9-shared-hosting-seo-improvements.md
Что: дата, файл, URL проверки, статус, замечания
Проверка: запись есть после каждого релиза
6) Командный handoff
SEO: ведет план
Dev: заливает файлы + шаблоны
QA: фиксирует проверки и результат
[ ] Проверить текущий ответ home (ориентир 1.0–2.0s).
[ ] Проверить, что нет всплеска 5XX и массовых новых 4XX.
[ ] Подтвердить, что legacy /*.html обрабатываются по модели 301/410.
Шаг 5: фиксация результата этапа 1
[ ] Обновить отчет “что сделано / что в работе / что осталось”.
[ ] Отметить галочками выполненные задачи в чеклисте панели.
[ ] Зафиксировать план контроля на 7 и 14 день (индексация/ошибки/скорость).
Чек закрытия этапа 1 (15 минут, 10 проверок)
Если все 10 пунктов “ОК”, этап 1 можно считать закрытым и переходить к этапу 2.
#
Проверка
Критерий “ОК”
Статус
1
/sitemap.xml доступен
HTTP 200
[ ]
2
XML валидность sitemap
Нет синтаксических ошибок
[ ]
3
URL из sitemap живые
Нет 4xx/5xx
[ ]
4
Только indexable URL
Нет noindex в sitemap
[ ]
5
Только canonical URL
Нет дублей/параметрических URL
[ ]
6
lastmod релевантен
Соответствует фактическим обновлениям
[ ]
7
/robots.txt доступен
HTTP 200
[ ]
8
Sitemap в robots актуален
Sitemap: https://rp9.ru/sitemap.xml
[ ]
9
Robots-тестер (GSC + ЯВ)
5-10 ключевых URL не блокируются
[ ]
10
Пост-выкатный контроль
Нет всплеска исключений/ошибок индекса
[ ]
Дополнительно (опционально)
Release gate: мини-гейт перед каждым SEO-релизом.
Rollback plan: готовый сценарий отката.
Owner map: закрепить владельца за каждым блоком.
Подробный отчет по выполненным SEO и техническим работам
Дата отчета: 26.04.2026 • Формат: расширенный отчет для передачи заказчику/руководителю •
Цель: зафиксировать выполненные улучшения, текущий статус, эффект и дальнейшие действия.
Home response time: улучшение порядка ~5x (~6793ms -> ~1359ms).
Sitemap health:sitemap.xml = 200, секционные карты доступны, robots указывает на актуальный sitemap.
Crawl stability: критичных 5XX не наблюдается; основной хвост — исторические 4XX.
Metadata baseline: для home подтвержден набор title/description/canonical/robots/OG/Twitter/JSON-LD.
4) RCA
Исторические 404 связаны со старой URL-структурой /*.html и внешними ссылками.
Высокий latency home (до правок): неоптимальные выборки, шаблонные дубли, тяжелый HTML.
Низкий quality signal в sitemap (до правок): слабые категории, неоднородные slug, архивный шум.
5) Приоритизация следующего этапа
P0 (сделано/контроль): dynamic sitemap, фильтрация URL, кеш sitemap/home, legacy handler 301/410; открытый пункт — контроль отсутствия перекрытия Django-роута статическим /sitemap.xml.
P1: оптимизация show_category/show_post/search_results, точечные redirect rules по top legacy hits, зачистка устаревшей внутренней линковки.
P2: weekly snapshot crawl budget, post-deploy smoke-check, расширенный structured data per template type.
6) Риски и mitigations
Ложная интерпретация исторических 404 как текущей деградации -> анализ тренда 7/14/30 дней.
Индексация: без немотивированных просадок >20% на 2-недельном окне.
8) Операционно в Яндекс Вебмастере
Подтвержден основной sitemap: https://rp9.ru/sitemap.xml.
Выполнены проверки страниц под основным роботом.
Организована загрузка URL в переобход под квоту.
Подготовлен и заполнен пул важных страниц для мониторинга.
9) Деплой и артефакты
Подготовлен технический чеклист выкладки.
Подготовлены отчетные материалы (подробный и бизнес-контур).
Сформированы файлы URL для переобхода и трекинга важных страниц.
10) Вывод для техлида
Критичный минимум закрыт: сайт приведен к рабочей и масштабируемой схеме индексации, home существенно ускорен,
legacy-ошибки переведены в управляемый режим, качество sitemap улучшено.
Дальнейшая отдача по SEO зависит от P1-этапа (оптимизация внутренних страниц + точечные redirect maps + контроль трендов в Вебмастере).
1) Техническое резюме
Индексационный контур переведен в корректную модель: индекс sitemap -> секционные sitemap.
Состав sitemap улучшен: фильтрация слабых рубрик, дедупликация URL, архивное ограничение по давности, динамические priority/changefreq.
Ускорен home-рендер: снижены N+1 и включено кэширование.
Старые (legacy) URL формата /*.html переведены в управляемый сценарий: 301 -> canonical или 410.
Подтвержден прирост времени ответа home: ~6793ms -> 1359ms.
2) Что реализовано (архитектурно и в коде)
Блок
Что сделано
Эффект
Sitemap / Индексация
django.contrib.sitemaps, маршруты /sitemap.xml и /sitemap-<section>.xml, cache_page(30m), фильтрация и дедупликация URL.
Меньше мусорных URL, выше полезный сигнал для поискового робота.
Политика URL / Slug
Нормализация slug, ограничение длины, контроль хвостов, снижение хаотичных числовых суффиксов.
Снижение дублей и рост консистентности URL-структуры.
Производительность home
Оптимизация home, сокращение N+1, only(...), очистка дублей в шаблонах, cache_page(10m).
Существенное снижение TTFB и объема шумного HTML.
Обработка legacy URL
Маршрут /<slug>.html: если найден контент — 301, если нет — 410 Gone.
Исторические URL перестали быть неуправляемым пулом 404.
3) Подтвержденные результаты
Скорость home: улучшение порядка ~5x (~6793ms -> ~1359ms).
Состояние sitemap:sitemap.xml отдается с кодом 200, секционные карты доступны.
Стабильность обхода: критичных 5XX в текущем срезе нет; основной хвост — исторические 4XX.
Базовые метаданные: на home подтверждены title/description/canonical/robots/OG/Twitter/JSON-LD.
4) Причины проблем до правок (RCA)
Исторические 404: наследие старой URL-структуры /*.html.
Высокая задержка home: неоптимальные выборки, шаблонные дубли, тяжелый HTML.
Низкое качество сигнала в sitemap: слабые категории, архивный шум, неоднородные slug.
Оптимизировать show_category, show_post, search_results; точечные правила редиректов по самым частым legacy URL; зачистка устаревшей внутренней линковки.
P2
Плановый этап
Еженедельный срез crawl budget, post-deploy smoke-проверки, расширенный structured data по типам шаблонов.
6) Что сделано в Яндекс Вебмастере
Подтвержден основной sitemap: https://rp9.ru/sitemap.xml.
Выполнены проверки страниц под основным роботом.
Организована загрузка URL в переобход под квоту.
Подготовлен пул важных страниц для постоянного мониторинга статуса.
7) План контроля на 14 дней
Период
Контрольные действия
Ожидаемый результат
День 1-3
Переподать sitemap, отправить приоритетные URL в переобход, проверить home/category/post.
Стабильные 200, корректная обработка в вебмастерах.
День 4-7
Проверить динамику 4XX/5XX, отследить статус “Страницы в поиске”.
Нет новых массовых ошибок, видна первичная стабилизация.
День 8-14
Сверить тренд индексации и важных URL, собрать бэклог этапа 2.
Подтверждение эффекта и приоритизация следующей волны работ.
8) KPI и пороговые ориентиры
Скорость home (для робота): целевой диапазон 1.0–2.0s.
5XX: целевой уровень ~0.
4XX: устойчивый нисходящий тренд по legacy-пулу.
Sitemap: парсинг OK, без ошибок обработки.
Индексация: без немотивированных просадок >20% на 2-недельном окне.
9) Финальный вывод для руководителя
Критичный минимум закрыт: сайт переведен в рабочую и масштабируемую схему индексации, home заметно ускорен,
legacy-ошибки переведены в управляемый режим, качество sitemap улучшено. Следующая отдача по SEO зависит от P1-этапа:
оптимизация внутренних страниц + точечные redirect maps + контроль трендов в Вебмастере.
10) Зафиксированные достигнутые результаты (факт)
Скорость home: до ~6793ms, после ~1359ms (порядка ~5x).
Индексационный контур: robots + sitemap index + секционные карты доступны и отдаются корректно.
Критические ошибки: в текущих проверках 5XX отсутствуют/близки к нулю.
Legacy URL: старые /*.html переведены в управляемый сценарий 301/410.
11) Что сделано в Яндекс Вебмастере
Подтвержден и используется основной sitemap: https://rp9.ru/sitemap.xml.
Построена схема суточного переобхода по приоритетным URL и квотным пакетам.
Подготовлен отдельный набор “важных страниц” для постоянного мониторинга статуса.
Проверки выполнялись под Основным роботом Яндекса: 200 OK, корректные мета-сигналы, рабочая индексационная инфраструктура.
Список 2: YANDEX_RECRAWL_PRIORITY_2026-04-26 (расширенный)
Расширенный список включает базовый приоритетный набор + дополнительные рубрики: /analitika, /arhitektura, /biznes, /finansy, /interer и расширенный пул статей для квотного переобхода.
Этот порядок обязателен для всех запусков команды, чтобы не расходовать квоту на менее приоритетные URL раньше времени.
16) Деплой: полный список изменений (26.04.2026)
Выполнять строго по файлу:
/site_unpack/from_zip/rp9.ru/DEPLOY_ALL_CHANGES_2026-04-26.md.
Залить измененные файлы из White_Helmet/main/... и robots.txt.
Проверить, что статический /sitemap.xml не перекрывает Django sitemap route.
Перезапустить Passenger через /tmp/restart.txt.
Проверить после рестарта: home, /sitemap.xml, /sitemap-news.xml, /sitemap-categories.xml.
Проверить, что в sitemap-news.xml нет мусорных slug и что хвост не старше окна 90 дней.
17) Обязательные шаблоны для выкладки (SEO-микропатч)
White_Helmet/main/templates/main/layout.html
White_Helmet/main/templates/main/home.html
White_Helmet/main/templates/main/category.html
White_Helmet/main/templates/main/post.html
После деплоя проверить в исходном коде страниц: og:image:width, og:image:height, twitter:image:alt, JSON-LD SearchAction, BreadcrumbList (на внутренних URL).
Критичный следующий шаг: дочистить обрезанные slug в контентных витринах (например, URL вида ...-vyros-na), чтобы слабые URL не попадали в главную/рубрики.
Правило публикации: слабые и обрезанные slug — либо исправлять в БД/админке, либо исключать из home/category выборок (и оставлять исключенными из sitemap).