Микроразметка — это специальный код, который «объясняет» поисковым системам, о чем ваша страница. Например, если у вас интернет‑магазин, микроразметка подскажет, что это товар, укажет его цену, рейтинг и наличие.
Подробнее про микроразметку рассказали в статье: «Микроразметка сайта: зачем нужна, виды, как сделать и проверить». Ниже повторяем самое главное.
Преимущества микроразметки:
- Улучшает видимость в поиске — появляются «расширенные сниппеты» с рейтингом, ценой, фото.
- Повышает кликабельность — пользователи видят больше информации до перехода на сайт.
- Помогает поисковикам точнее понимать контент, что может улучшить ранжирование.
Микроразметка оформляется с помощью стандартизированных тегов schema.org. Ее можно добавить вручную в HTML или через плагины. Например для WordPress через Yoast SEO, All in One Schema Rich Snippets.
Самые популярные типы микроразметки это:
- Organization — данные о компании (название, логотип, контакты);
- LocalBusiness — информация о локальном бизнесе (адрес, часы работы, телефон);
- Article — для статей (заголовок, автор, дата публикации);
- Product — для товаров (название, цена, описание, рейтинг);
- Breadcrumb — цепочка навигации («Главная > Категория > Товар»), помогает поисковикам понимать структуру сайта.
Файлы Robots.txt и Sitemap.xml: создание и настройка
Robots.txt — это файл, который указывает поисковым роботам, какие страницы сайта можно индексировать, а какие — нет. Он размещается в корне сайта (seo-performance.ru/robots.txt).
Главное назначение файла robots.txt:
- запретить индексацию служебных страниц (админка, корзины, фильтры);
- ограничить доступ к дублирующему контенту;
- указать путь к файлу sitemap.xml.
Пример содержимого файла robots.txt:
# Разрешаем всем роботам индексировать весь сайт
User-agent: *
Disallow:
# Запрещаем доступ к определённой папке
User-agent: *
Disallow: /private/
# Запрещаем доступ к конкретному файлу
User-agent: *
Disallow: /secret-page.html
# Разрешаем доступ к определённой папке для конкретного робота
User-agent: Googlebot
Allow: /public/
# Запрещаем доступ всем роботам к папке с изображениями
User-agent: *
Disallow: /images/
В этом примере все поисковые роботы могут индексировать весь сайт, кроме папки /private/ и файла /secret-page.html. Роботу Googlebot разрешен доступ к папке /public/. А также все поисковые роботы не могут индексировать папку /images/.
Вы можете настроить файл robots.txt в зависимости от ваших нужд и структуры сайта.
Sitemap.xml
Sitemap.xml — это карта сайта для поисковых систем. Она содержит список всех важных страниц, их приоритет и частоту обновления. Sitemap.xml помогает роботам быстрее находить и индексировать контент.
Мы хотим выделить следующие рекомендации по настройке:
- включите в sitemap только индексируемые страницы (без 404, дублей, закрытых в robots.txt);
- обновите файл после добавления новых страниц;
- загрузите sitemap.xml в корень сайта и укажите его путь в robots.txt и панелях вебмастеров.
Для генерации sitemap воспользуйтесь онлайн‑сервисами, например, XML‑Sitemaps.com или плагинами CMS (в WordPress — Yoast SEO автоматически создает sitemap).