WordPress添加搜索引擎蜘蛛爬行记录功能

2021-12-01 0 59 百度已收录

核心代码

// 记录蜘蛛访问记录    
    function get_naps_bot(){  
    $useragent = strtolower($_SERVER['HTTP_USER_AGENT']);  
    if (strpos($useragent, 'googlebot') !== false){  
    return 'Googlebot';  
    }  
    if (strpos($useragent, 'bingbot') !== false){  
    return 'Bingbot';  
    }  
    if (strpos($useragent, 'slurp') !== false){  
    return 'Yahoobot';  
    }  
    if (strpos($useragent, 'baiduspider') !== false){  
    return 'Baiduspider';  
    }  
    if (strpos($useragent, 'sogou web spider') !== false){  
    return 'Sogouspider';  
    }  
    if (strpos($useragent, 'haosouspider') !== false){  
    return 'HaosouSpider';  
    }  
    if (strpos($useragent, 'yodaobot') !== false){  
    return 'YodaoBot';  
    }  
    return false;  
    }  
    function nowtime(){  
    date_default_timezone_set('Asia/Shanghai');  
    $date=date("Y-m-d G:i:s");  
    return $date;  
    }  
    $searchbot = get_naps_bot(); 
    if ($searchbot) {  
    $tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);  
    $url=$_SERVER['HTTP_REFERER']; 
    $addr=$_SERVER['REMOTE_ADDR']; 
    $file="robotslogs.txt";  //根目录下记录蜘蛛访问的文件
    $time=nowtime();  
    $data=fopen($file,"a");  
    $PR="$_SERVER[REQUEST_URI]";  
    fwrite($data,"[$time] - $addr - $PR - $searchbot $tlc_thispage \r\n");  
    fclose($data);  
    }

操作方法

  1. 将以上代码插入 funtion.php 文件,并在网站根目录下创建一个名为 robotslogs.txt 的文件即可,文件名可自定义。
  2. 注意需为 robotslogs.txt 设置可写权限,最好是 777 权限,755 权限某些主机配置下可能存在无法写入的情况。
  3. 以上代码能记录搜索蜘蛛的基本抓取信息,完成以后,一般 24 小时候,就可以看到你“robotslogs.txt”当中已经满是数据的了。
收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

1、本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!

2、分享目的仅供大家学习和交流,请不要用于商业用途!

3、本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!

4、如有链接无法下载、失效或广告,请联系管理员处理!

5、本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!

潍坊网络公司 SEO教程 WordPress添加搜索引擎蜘蛛爬行记录功能 http://www.sdwfseo.com/413.html

常见问题
  • 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。
查看详情
  • 最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议换个浏览器下载
查看详情

相关文章

评论
暂无评论