Оптимизация под Гугл. robots.txt

Данный файл является руководством для поисковых систем, которое может подсказать поисковому роботу, какие каталоги и страницы сайта не нуждаются в индексации. Такая ситуация может возникнуть в то время, когда какая-то часть сайта только наполняется контентом, и не совсем закончена. В данном случае, что бы не пускать сырой материал в индекс поисковых машин, эти каталоги специальным образом прописываются в фале robots.txt, и поисковая машина их игнорирует.

Файл robots.txt помещается в корневой каталог сайта, но будьте внимательны, если у вас есть поддомен, то для этого поддомена необходим свой отдельный файл. Так же файл удобен тем, что с его помощью можно ограничить доступ к определенным местам сайта. Но данный способ не особо эффективен, и более-менее продвинутые пользователи без проблем смогут просмотреть то, что вы спрятали при помощи robot.txt, но как временная мера этот способ очень хорош.

PS: Намечается встреча с иностранными сотрудниками? Тогда наверняка Вам понадобится технический перевод, так как не каждый переводчик сможет Вам помочь в определенной сфере деятельности.

Тэги: