回 ACSite.NET 首頁
回 ACSite.NET 首頁 客服系統 帳務系統 英文首頁
nav_seperator
nav_seperator
nav_seperator
nav_seperator
 

頁: [1]
  列印  
作者 主題: 阻擋大陸搜尋引擎的蜘蛛機器人 (spider)  (閱讀 10009 次)
ifmax
客戶
*
離線 離線

文章: 32



« 於: 五月 26, 2008, 10:54:15 am »

最近被大陸的蜘蛛爬的流量狂失血,於是被動地在.htaccess裡寫下如下的規則
SetEnvIf User-Agent ^Baiduspider badrobot
<Files *>
Order allow,deny
Allow from all
Deny from env=badrobot
</Files>

SetEnvIf User-Agent ^sogou sogourobot
<Files *>
Order allow,deny
Allow from all
Deny from env=sogourobot
</Files>
不過效果並不是很好,請問有別的方法可以解決嗎?
已記錄
acsite
管理員
Hero Member
*****
離線 離線

文章: 4,027


個人網站
« 回覆文章 #1 於: 五月 26, 2008, 02:37:59 pm »

還請提供有此問題的網域
以便為您檢查
謝謝 微笑
已記錄
acsite
管理員
Hero Member
*****
離線 離線

文章: 4,027


個人網站
« 回覆文章 #2 於: 五月 27, 2008, 04:49:15 pm »

如果其他用戶有相同的困擾的話
請試試看將以下規則加入 .htaccess

程式碼:
SetEnvIfNoCase User-Agent "baidu*" bad_bot
SetEnvIfNoCase User-Agent "sogou*" bad_bot
SetEnvIfNoCase User-Agent "soso*" bad_bot
<Files *>
Order allow,deny
Allow from all
Deny from env=bad_bot
</Files>

[edit] 更改標題
« 最後編輯時間: 六月 30, 2013, 07:46:04 pm 由 acsite » 已記錄
頁: [1]
  列印  
 
前往:  



 
 
bottom
Copyright © 2002 - 2017 ACSite.NET All Rights Reserved.