<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
// 從kafka載入資料 val kafkaParams = Map[String, Object]( "bootstrap.servers" -> "hadoop102:9092",//kafka叢集地址 "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則 "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則 "group.id" -> "sparkdemo",//消費者組名稱 //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的訊息開始消費 //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的訊息開始消費 //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯 "auto.offset.reset" -> "latest", "auto.commit.interval.ms"->"1000",//自動提交的時間間隔 "enable.auto.commit" -> (true: java.lang.Boolean)//是否自動提交 ) val topics = Array("spark_kafka")//要訂閱的主題 //使用工具類從Kafka中消費訊息 val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, //位置策略,使用原始碼中推薦的 ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用原始碼中推薦的 )
object kafka_Demo01 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("kafka_Demo01") val sc = new SparkContext(conf) val ssc = new StreamingContext(sc, Seconds(5)) ssc.checkpoint("data/ckp") // 從kafka載入資料 val kafkaParams = Map[String, Object]( "bootstrap.servers" -> "hadoop102:9092",//kafka叢集地址 "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則 "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則 "group.id" -> "sparkdemo",//消費者組名稱 //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的訊息開始消費 //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的訊息開始消費 //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯 "auto.offset.reset" -> "latest", "auto.commit.interval.ms"->"1000",//自動提交的時間間隔 "enable.auto.commit" -> (true: java.lang.Boolean)//是否自動提交 ) val topics = Array("spark_kafka")//要訂閱的主題 //使用工具類從Kafka中消費訊息 val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, //位置策略,使用原始碼中推薦的 ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用原始碼中推薦的 ) // 處理訊息 val infoDS = kafkaDS.map(record => { val topic = record.topic() val partition = record.partition() val offset = record.offset() val key = record.key() val value = record.value() val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}""" info }) // 輸出 infoDS.print() ssc.start() ssc.awaitTermination() ssc.stop(true, true) } }
提交程式碼
// 處理訊息 //注意提交的時機:應該是消費完一小批就該提交一次offset,而在DStream一小批的體現是RDD kafkaDS.foreachRDD(rdd => { rdd.foreach(record => { val topic = record.topic() val partition = record.partition() val offset = record.offset() val key = record.key() val value = record.value() val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}""" info println("消費" + info) }) //獲取rdd中offset相關的資訊:offsetRanges裡面就包含了該批次各個分割區的offset資訊 val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges //提交 kafkaDS.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges) println("當前批次的資料已消費並手動提交") })
完整程式碼
object kafka_Demo02 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("kafka_Demo01") val sc = new SparkContext(conf) val ssc = new StreamingContext(sc, Seconds(5)) ssc.checkpoint("data/ckp") // 從kafka載入資料 val kafkaParams = Map[String, Object]( "bootstrap.servers" -> "hadoop102:9092",//kafka叢集地址 "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則 "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則 "group.id" -> "sparkdemo",//消費者組名稱 //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的訊息開始消費 //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的訊息開始消費 //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯 "auto.offset.reset" -> "latest", // "auto.commit.interval.ms"->"1000",//自動提交的時間間隔 "enable.auto.commit" -> (false: java.lang.Boolean)//是否自動提交 ) val topics = Array("spark_kafka")//要訂閱的主題 //使用工具類從Kafka中消費訊息 val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, //位置策略,使用原始碼中推薦的 ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用原始碼中推薦的 ) // 處理訊息 //注意提交的時機:應該是消費完一小批就該提交一次offset,而在DStream一小批的體現是RDD kafkaDS.foreachRDD(rdd => { rdd.foreach(record => { val topic = record.topic() val partition = record.partition() val offset = record.offset() val key = record.key() val value = record.value() val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}""" info println("消費" + info) }) //獲取rdd中offset相關的資訊:offsetRanges裡面就包含了該批次各個分割區的offset資訊 val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges //提交 kafkaDS.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges) println("當前批次的資料已消費並手動提交") }) // 輸出 kafkaDS.print() ssc.start() ssc.awaitTermination() ssc.stop(true, true) } }
到此這篇關於SparkStreaming整合Kafka過程詳解的文章就介紹到這了,更多相關SparkStreaming整合Kafka內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45