zl程序教程

您现在的位置是:首页 >  大数据

当前栏目

Spark Streaming 实战(2) kafka+zookeeper+spark streaming 的windows本地测试Demo

2023-09-27 14:26:48 时间

Spark Streaming 实战(2) kafka+zookeeper+spark streaming 的windows本地测试Demo

之前搭建了kafka+zookeeper+spark streaming 的windows本地测试环境,先做一个小demo,spark和本地kafka跑通


1,spark streaming测试代码

public class BeijingStreamingStatsDemo {

    public static void main(String[] args) {

		/*
		 * 第一步:配置SparkConf: 1,至少2条线程:因为Spark Streaming应用程序在运行的时候,至少有一条
		 * 线程用于不断的循环接收数据,并且至少有一条线程用于处理接受的数据(否则的话无法
		 * 有线程用于处理数据,随着时间的推移,内存和磁盘都会不堪重负);
		 * 2,对于集群而言,每个Executor一般肯定不止一个Thread,那对于处理Spark Streaming的
		 * 应用程序而言,每个Executor一般分配多少Core比较合适?根据我们过去的经验,5个左右的
		 * Core是最佳的(一个段子分配为奇数个Core表现最佳,例如3个、5个、7个Core等);
		 *
		 *
		 */
        SparkConf conf = new SparkConf().setMaster("local")
                .setAppName("BeijingStreamingStatsDem