实现WordPress博客蜘蛛爬行记录统计教程

使用WordPress蜘蛛记录来生成这个功能。在对网站优化的研究中,清楚地了解蜘蛛的爬行规律也非常重要,这样才能了解蜘蛛的爬行规律。按照这个规则,我们会重新写文章,这符合蜘蛛的胃口,非常有利于优化。今天分享一下实现WordPress博客蜘蛛爬行记录统计教程。

实现WordPress博客蜘蛛爬行记录统计教程 (https://www.wpzt.net/) WordPress开发教程 第1张

将下方代码放入function.php文件

function get_naps_bot(){

$useragent = strtolower($_SERVER[‘HTTP_USER_AGENT’]);

if (strpos($useragent, ‘googlebot’) !== false){

return ‘Googlebot’;

}

if (strpos($useragent, ‘msnbot’) !== false){

return ‘MSNbot’;

}

if (strpos($useragent, ‘slurp’) !== false){

return ‘Yahoobot’;

}

if (strpos($useragent, ‘baiduspider’) !== false){

return ‘Baiduspider’;

}

if (strpos($useragent, ‘sohu-search’) !== false){

return ‘Sohubot’;

}

if (strpos($useragent, ‘lycos’) !== false){

return ‘Lycos’;

}

if (strpos($useragent, ‘robozilla’) !== false){

return ‘Robozilla’;

}

return false;

}

function ***time(){

date_default_timezone_set(‘Asia/Shanghai’);

$date=date(“Y-m-d.G:i:s”);

return $date;

}

$searchbot = get_naps_bot();

if ($searchbot) {

$tlc_thispage = addslashes($_SERVER[‘HTTP_USER_AGENT’]);

$url=$_SERVER[‘HTTP_REFERER’];

$file=”robotslogs.txt”;

$time=***time();

$data=fopen($file,”a”);

$PR=”$_SERVER[REQUEST_URI]”;

fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispage\n page:$PR\r\n”);

fclose($data);

}

然后在网站根目录创建 robotslogs.txt 并且给他777权限,查看统计的方式就是这样 https://域名/robotslogs.txt

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容