通过robots.txt文件屏蔽搜索引擎蜘蛛
通过robots.txt文件屏蔽搜索引擎蜘蛛针对特定搜索引擎
User-agent: Baiduspider
Disallow: /
User-agent: 360Spider
Disallow: /
User-agent: YisouSpider
Disallow: /屏蔽全部蜘蛛
User-agent: *
Disallow: /
前排留名,哈哈哈 分享、互助 让互联网精神温暖你我 鼓励转贴优秀软件安全工具和文档! 懂技术并乐意极积无私分享的人越来越少。珍惜
页:
[1]