Spring boot项目实战——spark环境搭建及RDD运算

得意时要看淡,失意时要看开。不论得意失意,切莫大意;不论成功失败,切莫止步。志得意满时,需要的是淡然,给自己留一条退路;失意落魄时,需要的是泰然,给自己觅一条出路Spring boot项目实战——spark环境搭建及RDD运算,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com,来源:原文

环境搭建

自行查阅资料了解spark的部署环境,本项目是本地环境,伪分布式的。

在window上使用spark必须现在本地搭建hadoop环境,具体请参考之前的文章windows上配置hadoop并通过idea连接本地spark和服务器spark

搭建完spark环境后正常创建spring boot程序,在启动类生产bean:

在这里插入图片描述

//生产bean
@Bean(name = "sc")
public JavaSparkContext makeSparkContext(){
    return new JavaSparkContext("local", "spark-container");
}

sparkcontext是rdd和上下文,在java中是JavaSparkContext,所有运算均基于该对象。

最好早启动程序中配置:

System.setProperty("hadoop.home.dir","D:\\SoftWares\\Apache\\spark-3.3.1-bin-hadoop3");防止找不到spark。

JavaSparkContext的使用


//doubles为一个浮点型数组

//内存中加载数据
JavaRDD<Double> rdd = sc.parallelize(doubles);

Double reduce = rdd.reduce((Function2<Double, Double, Double>) (aDouble, aDouble2) -> aDouble + aDouble2);

通过JavaSparkContext记载到内存中,通过reduce计算,返回计算结果。

代码的核心部分在于生产第一个RDD,通过parallelize方法。其他方法请参考Spark核心RDD详解(设计与运行原理,分区,创建,转换,行动与持久化)

构建好RDD后就可以通过rdd行动与转换操作数据了。


@RestController
@RequestMapping("/analyze")
public class SaleTotalController implements Serializable {

    @Resource
    private JavaSparkContext sc;

    //
    @GetMapping("/consumption")
    public SaleJson getTotal(){
        ReadCSV readCSV = new ReadCSV();
        List<String> columnList = readCSV.getColumnList("C:\\Users\\fireapproval\\Desktop\\数据集\\test.csv", 7);
        columnList.remove(0);

        //System.out.println(columnList);
        List<Double> doubles = new ArrayList<>();
        for (String str:columnList
             ) {
            doubles.add(Double.parseDouble(str));
        }
        //System.out.println(doubles);

        //System.out.println(doubles.get(2).getClass());

        //内存中加载数据
        JavaRDD<Double> rdd = sc.parallelize(doubles);

        Double reduce = rdd.reduce((Function2<Double, Double, Double>) (aDouble, aDouble2) -> aDouble + aDouble2);


        //System.out.println(reduce);

        SaleJson saleJson = new SaleJson();
        saleJson.setTotal(reduce);
        return saleJson;
    }
}

上述计算的逻辑代码应该放在服务层的,这里起演示作用。

如下为词频统计的核心RDD的操作:


JavaRDD<String> rdd = sc.parallelize(tmpList);

//JavaRDD<String> rdd1 = rdd.map(x -> x.concat("xxx"));

//转化为(word,1)类型
JavaPairRDD<String, Integer> wordMap = rdd.mapToPair((PairFunction<String, String, Integer>) word -> new Tuple2<String, Integer>(word, 1));

//对(word,1)计算  //必须要用匿名函数

JavaPairRDD<String, Integer> reduceMap = wordMap.reduceByKey((Function2<Integer, Integer, Integer>) (integer, integer2) -> integer + integer2);


//map接收rdd
Map<String, Integer> rddMap = reduceMap.collectAsMap();

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/156183.html

(1)
飞熊的头像飞熊bm

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!