详解如何使用Spark和Scala分析Apache访问日志
作者:解道JDON 发布时间:2023-08-04 23:24:07
安装
首先需要安装好Java和Scala,然后下载Spark安装,确保PATH 和JAVA_HOME 已经设置,然后需要使用Scala的SBT 构建Spark如下:
$ sbt/sbt assembly
构建时间比较长。构建完成后,通过运行下面命令确证安装成功:
$ ./bin/spark-shell
scala> val textFile = sc.textFile("README.md") // 创建一个指向 README.md 引用
scala> textFile.count // 对这个文件内容行数进行计数
scala> textFile.first // 打印出第一行
Apache访问日志分析器
首先我们需要使用Scala编写一个对Apache访问日志的分析器,所幸已经有人编写完成,下载Apache logfile parser code。使用SBT进行编译打包:
sbt compile
sbt test
sbt package
打包名称假设为AlsApacheLogParser.jar。
然后在Linux命令行启动Spark:
// this works
$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell
对于Spark 0.9,有些方式并不起效:
// does not work
$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell
// does not work
spark> :cp AlsApacheLogParser.jar
上传成功后,在Spark REPL创建AccessLogParser 实例:
import com.alvinalexander.accesslogparser._
val p = new AccessLogParser
现在就可以像之前读取readme.cmd一样读取apache访问日志accesslog.small:
scala> val log = sc.textFile("accesslog.small")
14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062
14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)
log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15
scala> log.count
(a lot of output here)
res0: Long = 100000
分析Apache日志
我们可以分析Apache日志中404有多少个,创建方法如下:
def getStatusCode(line: Option[AccessLogRecord]) = {
line match {
case Some(l) => l.httpStatusCode
case None => "0"
}
}
其中Option[AccessLogRecord]是分析器的返回值。
然后在Spark命令行使用如下:
log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count
这个统计将返回httpStatusCode是404的行数。
深入挖掘
下面如果我们想知道哪些URL是有问题的,比如URL中有一个空格等导致404错误,显然需要下面步骤:
过滤出所有 404 记录
从每个404记录得到request字段(分析器请求的URL字符串是否有空格等)
不要返回重复的记录
创建下面方法:
// get the `request` field from an access log record
def getRequest(rawAccessLogString: String): Option[String] = {
val accessLogRecordOption = p.parseRecord(rawAccessLogString)
accessLogRecordOption match {
case Some(rec) => Some(rec.request)
case None => None
}
}
将这些代码贴入Spark REPL,再运行如下代码:
log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).count
val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_))
val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinct
distinctRecs.foreach(println)
总结
对于访问日志简单分析当然是要grep比较好,但是更复杂的查询就需要Spark了。很难判断 Spark在单个系统上的性能。这是因为Spark是针对分布式系统大文件。
来源:https://www.jdon.com/bigdata/analyzing-apache-access-logs-files-spark-scala.html


猜你喜欢
- 假如你觉得你的网站需要额外的空间,你可以升级你当前的主机帐户。那么如何升级GoDaddy主机帐户呢?我们一起来看下吧,步骤如下:首先.登陆
- WIN2003 IIS --> 右键 --> 所有任务 --> 备份/还原配置 备份后文件会保存在 %WINDIR%\sy
- 引子最近发现有ARM版Docker,hub.docker.com上也有ARM版本的镜像,但是ARM版本的Docker镜像构建是个问题。嵌入式
- Linux作为开放式的操作系统受到很多程序员的喜爱,很多高级程序员都喜欢编写Linux操作系统的相关软件。这使得Linux操作系统有着丰富的
- 由于产品的需要,最近在配置apache的负载均衡功能,但是在配置虚拟主机的访问权限的时候我们遇到了一些问题。主要问题是deny和allow的
- 前一段利用Wordpress构建了一个有声资源博客——有声盒子,在获得了一些朋友赞许的同时,也感觉到了原有的模板样式并不太适合于此类型站点的
- 一在web2.0几个标志性特征之中,用户是第一位的:一切以用户为中心。不过,web2.0中的用户虽然是第一位的,但不是终极目的,终极目的大部
- iptables是Linux上常用的防火墙软件,下面vps侦探给大家说一下iptables的安装、清除iptables规则、iptables
- 11月26日 360安全浏览器推出一年来迅速赢得了网民的认可,而安全无疑是这款浏览器最显著的特色。360总裁齐向东表示,90%的
- 仍旧新手教程类,适合新手及才接触VPS的朋友们看一下,主要是关于VPS安全方面相关内容的,陆续更新:禁止ROOT登陆 保证安全性;使用DDo
- 一、序言现在很多网站对用户的访问权限进行了严格的限制,用户在访问某些资源时需要给出“用户名/口令"来确认自己的身份。目前,使用最多
- 提示需要输入密钥,选择【我没有密钥】选择有桌面体验的自定义新建C盘 100G选择100G的主分区,下一步PS:未分配的空间,先不理,安装完系
- 三、“www.bbc.com”的设置1、新建一个Web站点:选“wy&r
- 首先,出现错误不要急于重试,重试也没用处,只会让网站封你的ip地址。要根据提示,找出原因,选择正确的方法,解决问题。其次,确认网络可以使用,
- 我在很多帖子里一直大力提倡运行自己的电子商务网站。也许有的人会误解,网站赚钱靠广告不行。其实广告是网站盈利模式的其中一个方法,不是不行,而是
- 对于网站的站长来说,安全应该怎么做呢?目前很多人都采用动网、LEADBBS、动易系统等程序做网站,由于源码公开,因此程序漏洞暴露明显,很容易
- Win2K操作系统的一个主要特色就是将IIS融入其内核之中,并提供一些用来配置和维护软件的向导工具,使构建一个Internet网站轻松易得。
- 5、配置作用域接着要为新建的应用程序IIS6URL授权配置作用域。右键点击“IIS6URL授权”选项
- 到底谁是真正的“开心网”?这个问题现在只能交由法律来最终裁定。昨日上午,北京市二中院开庭审理北京开心人信息技术有限公司(kaixin001.
- 明天就是教师节,在此,我再为大家讲解如何利用教师节进行网站推广。首先,我们来分析一下教师节的特点。教师节虽然从意义上来讲是教师的节日,但对于