详解如何使用Spark和Scala分析Apache访问日志

作者:解道JDON 时间:2023-08-04 23:24:07 

安装

首先需要安装好Java和Scala,然后下载Spark安装,确保PATH 和JAVA_HOME 已经设置,然后需要使用Scala的SBT 构建Spark如下:


$ sbt/sbt assembly

构建时间比较长。构建完成后,通过运行下面命令确证安装成功:


$ ./bin/spark-shell

scala> val textFile = sc.textFile("README.md") // 创建一个指向 README.md 引用
scala> textFile.count // 对这个文件内容行数进行计数
scala> textFile.first // 打印出第一行

Apache访问日志分析器

首先我们需要使用Scala编写一个对Apache访问日志的分析器,所幸已经有人编写完成,下载Apache logfile parser code。使用SBT进行编译打包:


sbt compile
sbt test
sbt package

打包名称假设为AlsApacheLogParser.jar。
然后在Linux命令行启动Spark:


// this works
$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell

对于Spark 0.9,有些方式并不起效:


// does not work
$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell
// does not work
spark> :cp AlsApacheLogParser.jar

上传成功后,在Spark REPL创建AccessLogParser 实例:


import com.alvinalexander.accesslogparser._
val p = new AccessLogParser

现在就可以像之前读取readme.cmd一样读取apache访问日志accesslog.small:


scala> val log = sc.textFile("accesslog.small")
14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062
14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)
log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15
scala> log.count
(a lot of output here)
res0: Long = 100000

分析Apache日志

我们可以分析Apache日志中404有多少个,创建方法如下:


def getStatusCode(line: Option[AccessLogRecord]) = {
line match {
 case Some(l) => l.httpStatusCode
 case None => "0"
}
}

其中Option[AccessLogRecord]是分析器的返回值。

然后在Spark命令行使用如下:


log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count

这个统计将返回httpStatusCode是404的行数。

深入挖掘

下面如果我们想知道哪些URL是有问题的,比如URL中有一个空格等导致404错误,显然需要下面步骤:

  1. 过滤出所有 404 记录

  2. 从每个404记录得到request字段(分析器请求的URL字符串是否有空格等)

  3. 不要返回重复的记录

创建下面方法:


// get the `request` field from an access log record
def getRequest(rawAccessLogString: String): Option[String] = {
val accessLogRecordOption = p.parseRecord(rawAccessLogString)
accessLogRecordOption match {
 case Some(rec) => Some(rec.request)
 case None => None
}
}

将这些代码贴入Spark REPL,再运行如下代码:


log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).count
val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_))
val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinct
distinctRecs.foreach(println)

总结

对于访问日志简单分析当然是要grep比较好,但是更复杂的查询就需要Spark了。很难判断 Spark在单个系统上的性能。这是因为Spark是针对分布式系统大文件。

来源:https://www.jdon.com/bigdata/analyzing-apache-access-logs-files-spark-scala.html

标签:Spark,Scala,Apache,日志
0
投稿

猜你喜欢

  • inux下gettimeofday函数windows替换方法(详解)

    2023-06-11 23:19:57
  • 用tar包配置高可用性vsftp(上)

    2007-08-27 13:59:00
  • Marvell年芯片出货10亿颗 推ARMADA处理器

    2009-10-28 08:29:00
  • linux memcache安装配置方法

    2021-04-22 17:46:13
  • 一目了然的搜索引擎优化方程式 五个因素

    2008-12-11 11:28:00
  • linux中ssh免密通信的实现

    2023-08-25 23:11:15
  • WordPress支付宝集成思路及实现(非插件)

    2011-06-20 18:27:07
  • BSD上Apache性能的调整

    2010-05-11 18:17:00
  • CentOS 7 搭建ntp时钟服务器的步骤详解

    2021-11-28 04:23:24
  • ubuntu vps安装docker报错:Cannot connect to the Docker daemon at unix:///var/run/docker.sock.问题解决

    2022-11-06 13:27:46
  • 美国主机ixwebhosting添加新域名图文教程

    2010-03-28 09:28:00
  • Linux命令搜索命令whereis与which的区别

    2023-08-06 03:42:59
  • 基础教程 外部链接优化操作的概念与分析

    2008-11-28 10:16:00
  • IT写手,你了解多少?

    2009-11-02 10:16:00
  • Linux操作系统下解决Gftp出现乱码的问题

    2009-12-10 18:58:00
  • Linux学习之CentOS(二十九)--Linux网卡高级命令、IP别名及多网卡绑定的方法

    2023-01-09 16:43:19
  • 谷歌发布网页浏览器安全手册

    2008-12-12 12:05:00
  • Linux如何使用 MyCat 实现 MySQL 主从读写分离

    2023-08-19 11:10:21
  • 影响网站排名的五大因素

    2008-01-15 12:07:00
  • 深度剖析百度定位广告 广告只给需要的人

    2009-02-11 13:05:00
  • asp之家 网站运营 m.aspxhome.com