Оптимизация под Гугл. robots.txt
Данный файл является руководством для поисковых систем, которое может подсказать поисковому роботу, какие каталоги и страницы сайта не нуждаются в индексации. Такая ситуация может возникнуть в то время, когда какая-то часть сайта только наполняется контентом, и не совсем закончена. В данном случае, что бы не пускать сырой материал в индекс поисковых машин, эти каталоги специальным образом прописываются в фале robots.txt, и поисковая машина их игнорирует.
Файл robots.txt помещается в корневой каталог сайта, но будьте внимательны, если у вас есть поддомен, то для этого поддомена необходим свой отдельный файл. Так же файл удобен тем, что с его помощью можно ограничить доступ к определенным местам сайта. Но данный способ не особо эффективен, и более-менее продвинутые пользователи без проблем смогут просмотреть то, что вы спрятали при помощи robot.txt, но как временная мера этот способ очень хорош.
PS: Намечается встреча с иностранными сотрудниками? Тогда наверняка Вам понадобится технический перевод, так как не каждый переводчик сможет Вам помочь в определенной сфере деятельности.
Пожалуйста, оставьте свой комментарий
Рекомендуемые к прочтению статьи:
- Планшеты могут вытеснить ПК
- С вирусами можно бороться и самостоятельно
- Создание css файла, часть 2
- PHP и HTML. Подробности, часть 17
- Что такое доходность инвестиций
- Раскрутить сайт самостоятельно. Часть 8
- Ипотека — реальный способ приобрести собственное жилье
- Что такое мониторинг серверов и для чего он нужен?
- Выбор спортивных солнезащитных очков
- Удаленный менеджмент в строительстве