Оптимизация под Гугл. robots.txt
Данный файл является руководством для поисковых систем, которое может подсказать поисковому роботу, какие каталоги и страницы сайта не нуждаются в индексации. Такая ситуация может возникнуть в то время, когда какая-то часть сайта только наполняется контентом, и не совсем закончена. В данном случае, что бы не пускать сырой материал в индекс поисковых машин, эти каталоги специальным образом прописываются в фале robots.txt, и поисковая машина их игнорирует.
Файл robots.txt помещается в корневой каталог сайта, но будьте внимательны, если у вас есть поддомен, то для этого поддомена необходим свой отдельный файл. Так же файл удобен тем, что с его помощью можно ограничить доступ к определенным местам сайта. Но данный способ не особо эффективен, и более-менее продвинутые пользователи без проблем смогут просмотреть то, что вы спрятали при помощи robot.txt, но как временная мера этот способ очень хорош.
PS: Намечается встреча с иностранными сотрудниками? Тогда наверняка Вам понадобится технический перевод, так как не каждый переводчик сможет Вам помочь в определенной сфере деятельности.
Пожалуйста, оставьте свой комментарий
Рекомендуемые к прочтению статьи:
- Блоггинг. Часть 1
- Яндекс.Директ — несколько слов. Часть 4
- Цена раскрутки. Часть 2
- Использование адреса в раскрутке. Часть 4
- Гора советов или как совершить меньше ошибок. Совет 6
- Алибаба и 100 сотрудников
- Триколор ТВ — лидер отечественного телевидения
- У кого осуществлить заказ сайта?
- Как арендовать виртуальный сервер для торговли на Форекс
- Обмен ссылками, продажа.