网站运营
位置:首页>> 网站运营>> 5条Linux命令分析搜索引擎蜘蛛的爬行行为

5条Linux命令分析搜索引擎蜘蛛的爬行行为

 来源:asp之家 发布时间:2009-09-20 20:15:00 

标签:命令,linux,搜索引擎,蜘蛛

百度和google是站长们的衣食父母,而做好搜索引擎优化的第一步就是蜘蛛的抓取,以下5条简单的Linux命令可以让你清楚的了解蜘蛛的爬行情况做到有的放矢。

请首先看看日志文件的大小,如果特别大的话(比如:超过50MB)建议不要用这些命令分析,因为这些命令较消耗CPU,或者抓下来放到分析机上执行,以免影响网站的速度。如果是Dreamhost等共享主机的话,分析大日志很消耗CPU,进程很容易被Kill掉。

这些命令都是Linux下的shell命令,在Windows主机下无法执行。

一 百度蜘蛛爬行的次数

cat access.log.2009-04-18 | grep Baiduspider+ | wc



这代表百度蜘蛛一共爬行了173次

二 百度蜘蛛的详细记录(如果记录很长不想看了可以Ctrl+C终止)

cat access.log.2009-04-18 | grep Baiduspider+

你也可以用如下命令:

cat access.log.2009-04-18 | grep Baiduspider+ | tail -n 100

cat access.log.2009-04-18 | grep Baiduspider+ | head -n 100

只看最后100条或者最前100条


0
投稿

猜你喜欢

手机版 网站运营 asp之家 www.aspxhome.com