«Robots.txt – это лишь рекомендация и часто краулеры ПС могут игнорировать этот файл.»
User-agent: * #Закрываем весь сайт от всех роботов
Disallow: /
User-Agent: Yandex #Закрываем от роботов Яндекс
Disallow: /
User-agent: GoogleBot #Закрываем от роботов Гугл
Disallow: /
«Закрытие сайта только в robots.txt помогает лишь на 30%, поэтому для полноценного закрытия сайта используйте дополнительно методы ниже!»
Options +FollowSymLinks
RewriteEngine On
RewriteBase /
# Закрываем сайт от всех поисковых роботов
SetEnvIfNoCase User-Agent .*googlebot.* search_robot
SetEnvIfNoCase User-Agent .*yandex.* search_robot
SetEnvIfNoCase User-Agent .*mail.* search_robot
SetEnvIfNoCase User-Agent .*bingbot.* search_robot
SetEnvIfNoCase User-Agent .*baiduspider.* search_robot
SetEnvIfNoCase User-Agent .*yahoo.* search_robot
SetEnvIfNoCase User-Agent .*parser.* search_robot
Deny from env=search_robot