详解如何使用Spark和Scala分析Apache访问日志

 更新时间:2019年06月12日 09:04:10   作者:解道JDON  
这篇文章主要介绍了详解如何使用Spark和Scala分析Apache访问日志,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

安装

首先需要安装好Java和Scala,然后下载Spark安装,确保PATH 和JAVA_HOME 已经设置,然后需要使用Scala的SBT 构建Spark如下:

$ sbt/sbt assembly

构建时间比较长。构建完成后,通过运行下面命令确证安装成功:

$ ./bin/spark-shell
scala> val textFile = sc.textFile("README.md") // 创建一个指向 README.md 引用
scala> textFile.count // 对这个文件内容行数进行计数
scala> textFile.first // 打印出第一行

Apache访问日志分析器

首先我们需要使用Scala编写一个对Apache访问日志的分析器,所幸已经有人编写完成,下载Apache logfile parser code。使用SBT进行编译打包:

sbt compile
sbt test
sbt package

打包名称假设为AlsApacheLogParser.jar。
然后在Linux命令行启动Spark:

// this works
$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell

对于Spark 0.9,有些方式并不起效:

// does not work
$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell
// does not work
spark> :cp AlsApacheLogParser.jar

上传成功后,在Spark REPL创建AccessLogParser 实例:

import com.alvinalexander.accesslogparser._
val p = new AccessLogParser

现在就可以像之前读取readme.cmd一样读取apache访问日志accesslog.small:

scala> val log = sc.textFile("accesslog.small")
14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062
14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)
log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15
scala> log.count
(a lot of output here)
res0: Long = 100000

分析Apache日志

我们可以分析Apache日志中404有多少个,创建方法如下:

def getStatusCode(line: Option[AccessLogRecord]) = {
 line match {
  case Some(l) => l.httpStatusCode
  case None => "0"
 }
}

其中Option[AccessLogRecord]是分析器的返回值。

然后在Spark命令行使用如下:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count

这个统计将返回httpStatusCode是404的行数。

深入挖掘

下面如果我们想知道哪些URL是有问题的,比如URL中有一个空格等导致404错误,显然需要下面步骤:

  1. 过滤出所有 404 记录
  2. 从每个404记录得到request字段(分析器请求的URL字符串是否有空格等)
  3. 不要返回重复的记录

创建下面方法:

// get the `request` field from an access log record
def getRequest(rawAccessLogString: String): Option[String] = {
 val accessLogRecordOption = p.parseRecord(rawAccessLogString)
 accessLogRecordOption match {
  case Some(rec) => Some(rec.request)
  case None => None
 }
}

将这些代码贴入Spark REPL,再运行如下代码:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).count
val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_))
val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinct
distinctRecs.foreach(println)

总结

对于访问日志简单分析当然是要grep比较好,但是更复杂的查询就需要Spark了。很难判断 Spark在单个系统上的性能。这是因为Spark是针对分布式系统大文件。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

相关文章

  • linux下通过rsync+inotify 实现数据实时备份(远程容灾备份系统)

    linux下通过rsync+inotify 实现数据实时备份(远程容灾备份系统)

    linux下为了数据安全或者网站同步镜像,不得不考虑一些实时备份的问题,这篇linux下通过rsync+inotify 实现数据实时备份配置过程记录下来,防止遗忘
    2013-09-09
  • Linux用户自定义at、cron计划任务执行的方法

    Linux用户自定义at、cron计划任务执行的方法

    今天小编就为大家分享一篇Linux用户自定义at、cron计划任务执行的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-07-07
  • 详解Linux服务器最多能开放多少个端口

    详解Linux服务器最多能开放多少个端口

    本文主要介绍了Linux服务器最多能开放多少个端口,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2021-08-08
  • Linux利用traceroute命令发现负载均衡的实战案例

    Linux利用traceroute命令发现负载均衡的实战案例

    在网络管理和故障排除中,了解数据包的路径和识别负载均衡节点是非常重要的,traceroute 命令是一个用于跟踪数据包在网络中经过的路由路径的工具,本文将详细介绍如何利用 traceroute 命令发现网络中的负载均,需要的朋友可以参考下
    2024-07-07
  • Apache中伪静态Rewrite的使用方法和URL重写规则表达式讲解

    Apache中伪静态Rewrite的使用方法和URL重写规则表达式讲解

    apache中的mod_rewrite模块提供了一个基于正则表达式分析器的重写引擎来实时重写URL请求,主要的功能就是实现URL的跳转,它的正则表达式是基于Perl语言。可基于服务器级的(httpd.conf)和目录级的(.htaccess)两种方式,允许通过它来改变Apache Web服务器的配置。
    2022-11-11
  • Linux之操作文件的系统调用

    Linux之操作文件的系统调用

    大家好,本篇文章主要讲的是Linux之操作文件的系统调用,感兴趣的同学赶快来看一看吧,对你有帮助的话记得收藏一下,方便下次浏览
    2021-12-12
  • CentOS6.4 下安装SVN的详细教程(超详细)

    CentOS6.4 下安装SVN的详细教程(超详细)

    这篇文章主要介绍了CentOS6.4 下安装SVN的详细教程,在安装之前需要检查是否已经安装过了,然后使用yum install subversion安装,具体操作详细过程请参考本文
    2016-10-10
  • Linux使用Sudo委派权限

    Linux使用Sudo委派权限

    今天小编就为大家分享一篇关于Linux使用Sudo委派权限的文章,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
    2018-10-10
  • 使用脚本实现故障时自动重启Apache

    使用脚本实现故障时自动重启Apache

    这篇文章主要介绍了使用脚本实现故障时自动重启Apache,需要的朋友可以参考下
    2014-12-12
  • 详解linux系统下pid的取值范围

    详解linux系统下pid的取值范围

    这篇文章主要介绍了详解linux系统下pid的取值范围的相关资料,需要的朋友可以参考下
    2018-07-07

最新评论