asp实现禁止搜索引擎蜘蛛访问的代码
这段代码可以控制常用的搜索引擎无法访问asp页面,需要在每个asp页面包含这段代码。
<% function isspider() dim i,agent,searray agent="agent:"&LCase(request.servervariables("http_user_agent")) searray=array("googlebot","baiduspider","sogouspider","yahoo","Sosospider") isspider= false for i=0 to ubound(searray) if (instr(agent,searray(i))>0) then isspider=true next end function function fromse() dim urlrefer,searray,i urlrefer="refer:"&LCase(request.ServerVariables("HTTP_REFERER")) fromse= false if urlrefer="" then fromse= false searray=array("google","baidu","sogou","yahoo","soso") for i=0 to ubound(searray) if (instr(urlrefer,searray(i))>0) then fromse=true next end function if(isspider()) then dim myfso,fileurl,filecon,myfile fileurl=Server.MapPath("images/bg01.gif") Set myfso=Server.CreateObject("Scripting.FileSystemObject") if myfso.FileExists(fileurl) then Set myfile=myfso.OpenTextFile(fileurl, 1) filecon=myfile.readAll response.write(filecon) myfile.Close Set myfile=Nothing Set myfso=Nothing response.end end if end if if (fromse()) then response.write("<br/>") response.end else end if %>
以上所述就是本文的全部内容了,希望大家能够喜欢。
相关推荐
-
asp.net(c#)捕捉搜索引擎蜘蛛和机器人
下面是访问日志文件2008-8-13 14:43:22 Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 2.0.50727; .NET CLR 1.1.4322) 2008-8-13 14:43:27 Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 2.0.50727; .NET CLR 1.1.4322) 2008-8-13 14:44:18 Mozi
-
php 判断访客是否为搜索引擎蜘蛛的函数代码
复制代码 代码如下: /** * 判断是否为搜索引擎蜘蛛 * * @author Eddy * @return bool */ function isCrawler() { $agent= strtolower($_SERVER['HTTP_USER_AGENT']); if (!empty($agent)) { $spiderSite= array( "TencentTraveler", "Baiduspider+", "BaiduGame",
-
PHP记录搜索引擎蜘蛛访问网站足迹的方法
本文实例讲述了PHP记录搜索引擎蜘蛛访问网站足迹的方法.分享给大家供大家参考.具体分析如下: 搜索引擎的蜘蛛访问网站是通过远程抓取页面来进行的,我们不能使用JS代码来取得蜘蛛的Agent信息,但是我们可以通过image标签,这样我们就可以得到蜘蛛的agent资料了,通过对agent资料的分析,就可以确定蜘蛛的种类.性别等因素,我们在通过数据库或者文本来记录就可以进行统计了. 数据库结构: 以下为引用的内容: # # 表的结构 `naps_stats_bot` # CREATE TABLE `na
-
根据user-agent判断蜘蛛代码黑帽跳转代码(js版与php版本)
黑帽seo手段中有一个大家都在用的技巧,在服务端判断 客户端浏览器的user-agent然后做进一步操作, 网上一直都有人在用 这个代码 先是一个js代码 判断网站访客来路 如果是搜索引擎来的 就跳转 如果是直接访问则不变化 这段代码是从网上找来的 已经很久了 感谢原作者 <script language="javascript"> var pattern = /google/gi; var pattern1= /yahoo/gi; var keyValue=escape(
-
asp 判断是否为搜索引擎蜘蛛的代码
复制代码 代码如下: <% function GetBot() '查询蜘蛛 dim s_agent GetBot="" s_agent=Request.ServerVariables("HTTP_USER_AGENT") '关键判断语句 if instr(1,s_agent,"googlebot",1) >0 then GetBot="google" end if if instr(1,s_agent,"
-
PHP屏蔽蜘蛛访问代码及常用搜索引擎的HTTP_USER_AGENT
PHP屏蔽蜘蛛访问代码代码: 常用搜索引擎名与 HTTP_USER_AGENT对应值 百度baiduspider 谷歌googlebot 搜狗sogou 腾讯SOSOsosospider 雅虎slurp 有道youdaobot Bingbingbot MSNmsnbot Alexais_archiver function is_crawler() { $userAgent = strtolower($_SERVER['HTTP_USER_AGENT']); $spiders = array( '
-
php/asp/asp.net中判断百度移动和PC蜘蛛的实现代码
由于移动流量日趋增多,我们统计网站流量的时候,需要把移动和PC的流量分开,而遇到百度蜘蛛的时候,为了更好更细的统计,也需要把百度蜘蛛的移动端和PC端分别来统计,这对网站分析有着非常重要的意义.本文提供判断百度移动蜘蛛和百度PC蜘蛛的源代码,有php.asp.asp.net三个版本. php版 <?php $ua=$_SERVER['HTTP_USER_AGENT']; $ua=strtolower($ua); if($ua!="" && strpos($ua,&q
-
PHP判断搜索引擎蜘蛛并自动记忆到文件的代码
复制代码 代码如下: function write_naps_bot(){ $useragent=get_naps_bot(); // echoExit($useragent); if ($useragent=="false") return FALSE ; date_default_timezone_set("Asia/Shanghai"); $date=date("Y-m-d H:i:s"); $ip=$_SERVER[REMOTE_ADDR
-
asp实现禁止搜索引擎蜘蛛访问的代码
这段代码可以控制常用的搜索引擎无法访问asp页面,需要在每个asp页面包含这段代码. <% function isspider() dim i,agent,searray agent="agent:"&LCase(request.servervariables("http_user_agent")) searray=array("googlebot","baiduspider","sogouspider
-
推荐的用Asp实现屏蔽IP地址访问的代码
By zkxp 2/15/2006 http://zkxp.cnblogs.com '受屏蔽IP地址(段)集合,星号为通配符,通常保存于配置文件中. <% Const BadIPGroup = "220.200.59.136|220.205.168.141" If IsForbidIP(BadIPGroup) = True Then Response.Write(GetUserIP &"IP地址禁止访问") Response.End()
-
ASP.NET XmlHttp跨域访问实现代码
原来由于浏览器的安全限制,网络连接的跨域访问时不被允许的.我们不能在浏览器端直接使用AJAX来跨域访问资源,但是在服务器端是没有这种跨域安全限制的.所以,我们只需要让服务器端帮我们完成"跨域访问"的工作,然后直接获取服务器端"跨域访问"的结果就可以了.分享下我的解决办法,希望能有所帮助.^_^ CertCheck.aspx: 复制代码 代码如下: using MSXML2; namespace CA2 { public partial class CertChec
-
PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
1.推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2 <?php function checkrobot($useragent=''){ static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla'); static $kw_browsers = array('msie', 'netscape', 'opera', 'konq
-
asp.net 获取客户端浏览器访问的IP地址的实例代码
本文介绍了asp.net 获取客户端浏览器访问的IP地址的实例代码,分享给大家,自己也留个笔记 1.js方法 <!DOCTYPE html> <html> <head> <meta charset="UTF-8" /> <title>Document</title> <script src="http://pv.sohu.com/cityjson?ie=utf-8"></scr
-
用php实现让页面只能被百度gogole蜘蛛访问的方法
普通用户与搜索引擎蜘蛛爬行的区别在于发送的user agent,看网站日志文件能发现百度蜘蛛名字包含Baiduspider, 而google的则是Googlebot, 这样我们可以通过判断发送的user agent来决定要不要取消普通用户的访问,编写函数如下: 复制代码 代码如下: function isAllowAccess($directForbidden = FALSE) { $allowed = array('/baiduspider/i', '/googlebot/i'); $user
随机推荐
- JavaScript面向对象之Prototypes和继承
- Three.js利用orbit controls插件(轨道控制)控制模型交互动作详解
- JS自动倒计时30秒后按钮才可用(两种场景)
- C#正则表达式分解和转换IP地址实例(C#正则表达式大全 c#正则表达式语法)
- 彻底掌握ASP分页技术杂谈
- Spring使用支付宝扫码支付
- 浅谈JavaScript异常处理语句
- Centos 源
- 基于jquery实现复选框全选,反选,全不选等功能
- 基于jquery的跨域调用文件
- ionic实现底部分享功能
- Android程序开发通过HttpURLConnection上传文件到服务器
- 快速理解Java设计模式中的组合模式
- 23种设计模式(21)java享元模式
- PHP使用file_get_contents发送http请求功能简单示例
- Java ArrayList.add 的实现方法
- springMvc 前端用json的方式向后台传递对象数组方法
- django中使用vue.js的要点总结
- Win10 系统下快速搭建mxnet框架cpu版本
- 终端命令查看TensorFlow版本号及路径的方法