asp实现禁止搜索引擎蜘蛛访问的代码
这段代码可以控制常用的搜索引擎无法访问asp页面,需要在每个asp页面包含这段代码。
<% function isspider() dim i,agent,searray agent="agent:"&LCase(request.servervariables("http_user_agent")) searray=array("googlebot","baiduspider","sogouspider","yahoo","Sosospider") isspider= false for i=0 to ubound(searray) if (instr(agent,searray(i))>0) then isspider=true next end function function fromse() dim urlrefer,searray,i urlrefer="refer:"&LCase(request.ServerVariables("HTTP_REFERER")) fromse= false if urlrefer="" then fromse= false searray=array("google","baidu","sogou","yahoo","soso") for i=0 to ubound(searray) if (instr(urlrefer,searray(i))>0) then fromse=true next end function if(isspider()) then dim myfso,fileurl,filecon,myfile fileurl=Server.MapPath("images/bg01.gif") Set myfso=Server.CreateObject("Scripting.FileSystemObject") if myfso.FileExists(fileurl) then Set myfile=myfso.OpenTextFile(fileurl, 1) filecon=myfile.readAll response.write(filecon) myfile.Close Set myfile=Nothing Set myfso=Nothing response.end end if end if if (fromse()) then response.write("<br/>") response.end else end if %>
以上所述就是本文的全部内容了,希望大家能够喜欢。
相关推荐
-
php 判断访客是否为搜索引擎蜘蛛的函数代码
复制代码 代码如下: /** * 判断是否为搜索引擎蜘蛛 * * @author Eddy * @return bool */ function isCrawler() { $agent= strtolower($_SERVER['HTTP_USER_AGENT']); if (!empty($agent)) { $spiderSite= array( "TencentTraveler", "Baiduspider+", "BaiduGame",
-
根据user-agent判断蜘蛛代码黑帽跳转代码(js版与php版本)
黑帽seo手段中有一个大家都在用的技巧,在服务端判断 客户端浏览器的user-agent然后做进一步操作, 网上一直都有人在用 这个代码 先是一个js代码 判断网站访客来路 如果是搜索引擎来的 就跳转 如果是直接访问则不变化 这段代码是从网上找来的 已经很久了 感谢原作者 <script language="javascript"> var pattern = /google/gi; var pattern1= /yahoo/gi; var keyValue=escape(
-
PHP记录搜索引擎蜘蛛访问网站足迹的方法
本文实例讲述了PHP记录搜索引擎蜘蛛访问网站足迹的方法.分享给大家供大家参考.具体分析如下: 搜索引擎的蜘蛛访问网站是通过远程抓取页面来进行的,我们不能使用JS代码来取得蜘蛛的Agent信息,但是我们可以通过image标签,这样我们就可以得到蜘蛛的agent资料了,通过对agent资料的分析,就可以确定蜘蛛的种类.性别等因素,我们在通过数据库或者文本来记录就可以进行统计了. 数据库结构: 以下为引用的内容: # # 表的结构 `naps_stats_bot` # CREATE TABLE `na
-
PHP判断搜索引擎蜘蛛并自动记忆到文件的代码
复制代码 代码如下: function write_naps_bot(){ $useragent=get_naps_bot(); // echoExit($useragent); if ($useragent=="false") return FALSE ; date_default_timezone_set("Asia/Shanghai"); $date=date("Y-m-d H:i:s"); $ip=$_SERVER[REMOTE_ADDR
-
asp 判断是否为搜索引擎蜘蛛的代码
复制代码 代码如下: <% function GetBot() '查询蜘蛛 dim s_agent GetBot="" s_agent=Request.ServerVariables("HTTP_USER_AGENT") '关键判断语句 if instr(1,s_agent,"googlebot",1) >0 then GetBot="google" end if if instr(1,s_agent,"
-
asp.net(c#)捕捉搜索引擎蜘蛛和机器人
下面是访问日志文件2008-8-13 14:43:22 Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 2.0.50727; .NET CLR 1.1.4322) 2008-8-13 14:43:27 Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 2.0.50727; .NET CLR 1.1.4322) 2008-8-13 14:44:18 Mozi
-
php/asp/asp.net中判断百度移动和PC蜘蛛的实现代码
由于移动流量日趋增多,我们统计网站流量的时候,需要把移动和PC的流量分开,而遇到百度蜘蛛的时候,为了更好更细的统计,也需要把百度蜘蛛的移动端和PC端分别来统计,这对网站分析有着非常重要的意义.本文提供判断百度移动蜘蛛和百度PC蜘蛛的源代码,有php.asp.asp.net三个版本. php版 <?php $ua=$_SERVER['HTTP_USER_AGENT']; $ua=strtolower($ua); if($ua!="" && strpos($ua,&q
-
PHP屏蔽蜘蛛访问代码及常用搜索引擎的HTTP_USER_AGENT
PHP屏蔽蜘蛛访问代码代码: 常用搜索引擎名与 HTTP_USER_AGENT对应值 百度baiduspider 谷歌googlebot 搜狗sogou 腾讯SOSOsosospider 雅虎slurp 有道youdaobot Bingbingbot MSNmsnbot Alexais_archiver function is_crawler() { $userAgent = strtolower($_SERVER['HTTP_USER_AGENT']); $spiders = array( '
-
asp实现禁止搜索引擎蜘蛛访问的代码
这段代码可以控制常用的搜索引擎无法访问asp页面,需要在每个asp页面包含这段代码. <% function isspider() dim i,agent,searray agent="agent:"&LCase(request.servervariables("http_user_agent")) searray=array("googlebot","baiduspider","sogouspider
-
推荐的用Asp实现屏蔽IP地址访问的代码
By zkxp 2/15/2006 http://zkxp.cnblogs.com '受屏蔽IP地址(段)集合,星号为通配符,通常保存于配置文件中. <% Const BadIPGroup = "220.200.59.136|220.205.168.141" If IsForbidIP(BadIPGroup) = True Then Response.Write(GetUserIP &"IP地址禁止访问") Response.End()
-
ASP.NET XmlHttp跨域访问实现代码
原来由于浏览器的安全限制,网络连接的跨域访问时不被允许的.我们不能在浏览器端直接使用AJAX来跨域访问资源,但是在服务器端是没有这种跨域安全限制的.所以,我们只需要让服务器端帮我们完成"跨域访问"的工作,然后直接获取服务器端"跨域访问"的结果就可以了.分享下我的解决办法,希望能有所帮助.^_^ CertCheck.aspx: 复制代码 代码如下: using MSXML2; namespace CA2 { public partial class CertChec
-
PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
1.推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2 <?php function checkrobot($useragent=''){ static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla'); static $kw_browsers = array('msie', 'netscape', 'opera', 'konq
-
asp.net 获取客户端浏览器访问的IP地址的实例代码
本文介绍了asp.net 获取客户端浏览器访问的IP地址的实例代码,分享给大家,自己也留个笔记 1.js方法 <!DOCTYPE html> <html> <head> <meta charset="UTF-8" /> <title>Document</title> <script src="http://pv.sohu.com/cityjson?ie=utf-8"></scr
-
用php实现让页面只能被百度gogole蜘蛛访问的方法
普通用户与搜索引擎蜘蛛爬行的区别在于发送的user agent,看网站日志文件能发现百度蜘蛛名字包含Baiduspider, 而google的则是Googlebot, 这样我们可以通过判断发送的user agent来决定要不要取消普通用户的访问,编写函数如下: 复制代码 代码如下: function isAllowAccess($directForbidden = FALSE) { $allowed = array('/baiduspider/i', '/googlebot/i'); $user
随机推荐
- 冒泡排序算法原理及JAVA实现代码
- 关于jsp页面使用jstl的异常分析
- c#之圆形无标题栏椭圆窗体的实现详解
- 详解Vue中过度动画效果应用
- js实现固定显示区域内自动缩放图片的方法
- js省市县三级联动效果实例
- Ruby下WebDriver的相关操作指南
- C#使用MySQLConnectorNet和MySQLDriverCS操作MySQL的方法
- 详细介绍通过配置Apache实现404页面替换
- Kotlin null的处理详解
- C++广播通信实例
- 在Python中使用Neo4j数据库的教程
- c#文件操作示例带详细注释
- c# dataTable 合并两个列到一个新列中的简单实例
- 对MySql经常使用语句的全面总结(必看篇)
- 无线局域网络简介一
- 记Asp.Net Core Swagger使用并带域接口处理的方法
- Python玩转PDF的各种骚操作
- C#开发可播放摄像头及任意格式视频的播放器
- golang中值类型/指针类型的变量区别总结