Robots.txt и sitemap.xml: создание и настройка по всем правилам
Кое-что еще
Я настрою 2 очень важных файла для каждого сайта на любой CMS - robots.txt и sitemap.xml. Это даст возможность запустить свой сайт на самый верх!
На что предназначены эти файлы?
Robots.txt - директива, которая определяет правила индексации сайта для разных поисковых роботов (какие разделы и страницы должны быть индексированы, а какие нет).
Sitemap - карта сайта, в которой собраны и структурированы ссылки на все имеющиеся html-страницы сайта, чтобы поисковым роботам было легче понять структуру и сканировать сайт.
Установка robots.txt:
1. В правилах User-agent для всех ключевых поисковых роботов (Yandex, Google, общее правило и др)
2. Сохраню нерабочий параметр Host
3. Укажите путь к карте сайта
4. Буду закрывать скрипты и CSS-стили для Яндекса
5. Не буду закроем 404 ошибки и битые страницы
6. Проверю всё на валидность
В каталоге.xml:
1. Правильно настрою карту сайта только с теми страницами, которые нужны.
2. Задаю правильные приоритеты для всех страниц
3. Проверю на валидность
Я работаю на всех платформах, включая WordPress, OpenCart / OcStore, Joomla, PrestaShop, Shop Scipt и Simpla. Работаю со всеми CMS: WordPress WebAsyst DLE, DLE, ModX, UMI. CMS, Netcat, Host CMS,InSales, Tilda и другие.
Посмотрите другие, похожие на этот гиг услуги