Что хотел спросить web-мастер про robots.txt, да стеснялся спросить.


      Поисковые роботы (wanderers, spiders) - это программы, которые индексируют веб-страницы в сети Internet.


      В 1993 и 1994 годах выяснилось, что индексирование роботами серверов порой происходит против желания владельцев этих серверов. В частности, иногда работа роботов затрудняет работу с сервером обычных пользователей, иногда одни и те же файлы индексируются несколько раз. В других случаях роботы индексируют не то, что надо, например, очень "глубокие" виртуальные директории, временную информацию или CGI-скрипты. Этот стандарт призван решить подобные проблемы.

 

Проверка тИЦ и PR online! PR CY счетчик
Hosted by uCoz