博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark读取 kafka nginx网站日志消息 并写入HDFS中(转)
阅读量:4884 次
发布时间:2019-06-11

本文共 1986 字,大约阅读时间需要 6 分钟。

原文链接:

spark 版本为1.0

kafka 版本为0.8

首先来看看kafka的架构图 详细了解请参考

我这边有三台机器用于kafka 日志收集的
A 192.168.1.1 为server
B 192.168.1.2 为producer
C 192.168.1.3 为consumer

首先在A上的kafka安装目录下执行如下命令

./kafka-server-start.sh ../config/server.properties

启动kafka 通过netstat -npl 可以查看出是否开启默认端口9092

B为我们的nginx日志产生服务器,在这里的日志是网站实时写入到access-nginx.log 中

因此我们可以通过 tail -f 的方式能看到当前网站正在请求的日志信息。如果你的网站访问量很大请勿执行tail -f

同样我们也要在B上部署kafka,如果你没有写kafka 的客户端的话( )

执行如下命令来push 数据到集群中

tail -n 0 -f /www/nh-nginx02/access.log | bin/kafka-console-producer.sh --broker-list 192.168.1.1:9092 --topic sb-nginx03

这样我们就将日志push到kafka消息中了

C中,现在我们来写 consumer pull数据,还是要部署一下kafka 然后执行命令

bin/kafka-console-consumer.sh --zookeeper 192.168.1.1:2181 --topic sb-nginx03 --from-beginning

参数

–zookeeper 指定了你集群中zookeeper 的地址和端口即可
–topic 要和我们在B中push的时候指定的名称一致

上述方式只为在shell 命令行下,如何通过spark来写consumer呢?

假设你已经下载好spark1.0 源码 假设你已经部署好sbt scala等环境

scala 代码如下:

test  java.util.Properties org.apache.spark.streaming._ org.apache.spark.streaming.StreamingContext._ org.apache.spark.streaming.kafka._ org.apache.spark.SparkConf KafkaTest { main(args:Array[String]) { (args.length < 5) { System.err.println("Usage: KafkaTest 
") System.exit(1) } Array(zkQuorum, group, topics, numThreads,output) = args sparkConf = SparkConf().setAppName("KafkaTest") ssc = StreamingContext(sparkConf, Seconds(2)) ssc.checkpoint("checkpoint") topicpMap = topics.split(",").map((_,numThreads.toInt)).toMap lines = KafkaUtils.createStream(ssc, zkQuorum, group, topicpMap).map(_._2) lines.saveAsTextFiles(output) ssc.start() ssc.awaitTermination() //.saveAsTextFile(output) } }

然后编译

mvn -Phadoop-2.3 -Dhadoop.version=2.3.0-cdh5.0.1 -DskipTests package

然后spark作业提交

./bin/spark-submit --master local[*] --class org.apache.spark.fccs.KafkaTest ./test/target/scala-2.10/spark-test-1.0.0-hadoop2.3.0-cdh5.0.1.jar zoo02 my-test sb-nginx03 1 hdfs://192.168.1.1:9100/tmp/spark-log.txt

结果如下:

转载于:https://www.cnblogs.com/gaopeng527/p/4991020.html

你可能感兴趣的文章
python-day7-编码,文件操作,列表的深浅copy
查看>>
模式分解是否为无损连接的判断方法
查看>>
个推A/B测试评测
查看>>
iis中使用端口号
查看>>
percona innobackupex 遇到 connect to MySQL server as DBD::mysql module is not installed 问题
查看>>
(推荐)PHP采集工具curl快速入门教程
查看>>
SQL Sever触发器的基本语法与作用
查看>>
nginx-405post问题解决
查看>>
LinkedHashMap和HashMap的比较使用(转载)
查看>>
replace+正则的用法
查看>>
神经网络4_BP神经网络
查看>>
ASP.NET MVC2 利用AJAX 无刷新实时更新数据
查看>>
操作数据表
查看>>
关于文件读取
查看>>
MongoDB学习笔记(一) MongoDB介绍及安装
查看>>
醍醐灌顶:领域驱动设计实现之路
查看>>
第四章 内部类
查看>>
PHP解析和生成xml(DOMDocument版)
查看>>
ecshop后台订单信息页、订单商品编辑页,订单打印页 显示商品缩略图
查看>>
微信小程序开发入门教程
查看>>