乱一色一一区二区三区-露脸国产精品自产在线播-陆贞传奇第58集在线观看-鲁一鲁噜噜噜-鲁大师成人精品视频-噜噜在线

虛擬主機被搜索引擎爬蟲訪問耗費大量流量解決方法

日期:2016/8/3 / 人氣:

問題場景:客戶使用虛擬主機,網站被搜索引擎爬蟲訪問耗費大量流量和帶寬,如何處理

解決方法:可以通過在站點根目錄下創建Robots.txt,Robots.txt文件是網站的一個文件,搜索引擎蜘蛛抓取網站首先就是抓取這個文件,根據里面的內容來決定對網站文件訪問的范圍。它能夠保護我們的一些文件不暴露在搜索引擎之下,從而有效的控制蜘蛛的爬取路徑。

1、首先,先了解一下目前搜索引擎和其對應的User-Agent,如下:

搜索引擎         User-Agent
AltaVista        Scooter
baidu            Baiduspider
Infoseek         Infoseek
Hotbot           Slurp
AOL Search       Slurp
Excite           ArchitextSpider
Google           Googlebot
Goto             Slurp
Lycos            Lycos
MSN              Slurp
Netscape         Googlebot
NorthernLight    Gulliver
WebCrawler       ArchitextSpider
Iwon             Slurp
Fast             Fast
DirectHit        Grabber
Yahoo Web Pages  Googlebot
LooksmartWebPages Slurp
2、Robots.txt樣例代碼:

例1. 禁止所有搜索引擎訪問網站的任何部分
User-agent: *
Disallow: /
例2. 允許所有的搜索引擎訪問網站的任何部分
User-agent: *
Disallow:
例3. 僅禁止Baiduspider訪問您的網站
User-agent: Baiduspider
Disallow: /
例4. 僅允許Baiduspider訪問您的網站
User-agent: Baiduspider
Disallow:
例5. 禁止spider訪問特定目錄
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/
注意事項:1)三個目錄要分別寫。
2)請注意最后要帶斜杠。
3)帶斜杠與不帶斜杠的區別。
例6. 允許訪問特定目錄中的部分url
實現a目錄下只有b.htm允許訪問
User-agent: *
Allow: /a/b.htm
Disallow: /a/

 

作者:朋友圈科技


Go To Top 回頂部
主站蜘蛛池模板: 强插美女 | 亚洲高清视频在线观看 | 视频一区二区 村上凉子 | 香蕉久久一区二区三区 | 涩涩五月天 | 欧美日韩一级视频 | 日本黄色网页 | 欧美午夜精品久久久久久黑人 | 视频在线观看高清免费 | 骚虎最新网址 | 韩国理论片最新第一页 | 我的年轻漂亮继坶三级 | 羞羞答答免费人成黄页在线观看国产 | 亚洲精品久久久久AV无码 | aⅴ导航站 | 日韩精品 欧美 | 日本久本草精品 | 俄罗斯三级在线观看级 | 天天做天天玩天天爽天天 | 亚洲国产成人久久精品影视 | 丝袜足控免费网站xx动漫漫画 | 好湿好紧太硬了我太爽了网站 | 国内视频一区二区 | 亚洲精品视| 深夜福利入口 | 国产精品久久久久jk制服 | 亚洲日日做天天做日日谢 | 九九热只有精品 | 亚洲AV蜜桃永久无码精品红樱桃 | 久久无码AV亚洲精品色午夜麻豆 | 黄色a视频 | 亚飞与亚基高清国语在线观看 | 久久视频在线视频观看精品15 | free性日本 | 国产成人免费片在线视频观看 | 欧美一级专区免费大片俄罗斯 | 久久99热成人精品国产 | 啊啊啊好爽在线观看 | 女色在线观看免费视频 | 成年人免费看的视频 | 调教女帝|