spark与kafaka整合workcount示例分析

今天就跟大家聊聊有关spark与kafaka整合workcount示例分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

站在用户的角度思考问题,与客户深入沟通,找到振安网站设计与振安网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:成都网站设计、网站建设、企业官网、英文网站、手机端网站、网站推广、域名注册、虚拟空间、企业邮箱。业务覆盖振安地区。

package hgs.spark.streaming
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.streaming.StreamingContext
import org.apache.spark.streaming.Seconds
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.storage.StorageLevel
import kafka.serializer.StringDecoder
import org.apache.kafka.common.serialization.StringDeserializer
import kafka.serializer.DefaultDecoder
import org.apache.spark.HashPartitioner
/*		
 * pom.xml添加
 * 
   			 org.apache.spark
    		 spark-streaming-kafka-0-8_2.11
    		 2.1.1
		
		
* */
object SparkStreamingKafkaReciverWordCount {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[2]")
    val sc = new SparkContext(conf)
    val ssc = new StreamingContext(sc,Seconds(4)) 
    ssc.checkpoint("d:\\checkpoint")
    
    val updateFunc=(iter:Iterator[(String,Seq[Int],Option[Int])])=>{
    //iter.flatMap(it=>Some(it._2.sum+it._3.getOrElse(0)).map((it._1,_)))//方式一
    //iter.flatMap{case(x,y,z)=>{Some(y.sum+z.getOrElse(0)).map((x,_))}}//方式二
    iter.flatMap(it=>Some(it._1,(it._2.sum.toInt+it._3.getOrElse(0))))//方式三
    }
    //注意下面的map一定要加上泛型,否则createStream会报错
    //kafaka的一些参数
    val props = Map[String,String](
             "bootstrap.servers"->"bigdata01:9092,bigdata02:9092,bigdata03:9092",
             "group.id"->"group_test",
             "enable.auto.commit"->"true",
             "auto.commit.intervals.ms"->"2000",
             "auto.offset.reset"->"smallest",
             "zookeeper.connect"->"bigdata01:2181,bigdata02:2181,bigdata03:2181")
    //topics
    val topics = Map[String,Int]("test"->1)
    
    val rds = KafkaUtils.createStream[String,String,StringDecoder,StringDecoder](ssc, props, topics, StorageLevel.MEMORY_AND_DISK)
    
    val words = rds.flatMap(x=>x._2.split(" "))
    val wordscount = words.map((_,1)).updateStateByKey(updateFunc, new HashPartitioner(sc.defaultMinPartitions), true)
    
    wordscount.print()
    //启动
    ssc.start()
    ssc.awaitTermination()
    
  }
}

看完上述内容,你们对spark与kafaka整合workcount示例分析有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联行业资讯频道,感谢大家的支持。


本文名称:spark与kafaka整合workcount示例分析
地址分享:http://hbruida.cn/article/gejopp.html