热门IT资讯网

spark streaming测试之一使用本地数据源

发表于:2024-11-22 作者:热门IT资讯网编辑
编辑最后更新 2024年11月22日,直接上代码吧说下测试思路:该代码监控的/tmp/sparkStream/目录;首先,创建该目录mkdir -p /tmp/sparkStream;然后,运行spark程序;最后,向监控目录/tmp/s

直接上代码吧


说下测试思路:

该代码监控的/tmp/sparkStream/目录;

首先,创建该目录mkdir -p /tmp/sparkStream;

然后,运行spark程序;

最后,向监控目录/tmp/sparkStream/添加数据文件;

观察spark程序运行效果。


sparkStreamingimport org.apache.log4j.{LoggerLevel}import org.apache.spark.SparkConfimport org.apache.spark.streaming.{SecondsStreamingContext}import org.apache.spark.streaming.StreamingContext._object HdfsWordCount {  def main(args: Array[]){    Logger.getLogger("org.apache.spark").setLevel(Level.WARN)    Logger.getLogger("org.apache.eclipse.jetty.server").setLevel(Level.OFF)    sparkConf = SparkConf().setAppName().setMaster()    ssc = StreamingContext(sparkConf())    lines = ssc.textFileStream()    words = lines.flatMap(_.split())    wordCounts = words.map(x=>(x)).reduceByKey(_+_)    wordCounts.print()    ssc.start()    ssc.awaitTermination()  }}


0