Что хотел
спросить web-мастер про robots.txt, да стеснялся спросить. |
|
|
Поисковые роботы (wanderers,
spiders) - это программы, которые индексируют веб-страницы
в сети Internet.
В 1993 и 1994 годах выяснилось,
что индексирование роботами серверов порой происходит против
желания владельцев этих серверов. В частности, иногда работа
роботов затрудняет работу с сервером обычных пользователей,
иногда одни и те же файлы индексируются несколько раз. В других
случаях роботы индексируют не то, что надо, например, очень
"глубокие" виртуальные директории, временную информацию
или CGI-скрипты. Этот стандарт призван решить подобные проблемы.
|
|
|