环境搭建
自行查阅资料了解spark的部署环境,本项目是本地环境,伪分布式的。
在window上使用spark必须现在本地搭建hadoop环境,具体请参考之前的文章windows上配置hadoop并通过idea连接本地spark和服务器spark
搭建完spark环境后正常创建spring boot程序,在启动类生产bean:
//生产bean
@Bean(name = "sc")
public JavaSparkContext makeSparkContext(){
return new JavaSparkContext("local", "spark-container");
}
sparkcontext是rdd和上下文,在java中是JavaSparkContext,所有运算均基于该对象。
最好早启动程序中配置:
System.setProperty("hadoop.home.dir","D:\\SoftWares\\Apache\\spark-3.3.1-bin-hadoop3");
防止找不到spark。
JavaSparkContext的使用
//doubles为一个浮点型数组
//内存中加载数据
JavaRDD<Double> rdd = sc.parallelize(doubles);
Double reduce = rdd.reduce((Function2<Double, Double, Double>) (aDouble, aDouble2) -> aDouble + aDouble2);
通过JavaSparkContext记载到内存中,通过reduce计算,返回计算结果。
代码的核心部分在于生产第一个RDD,通过parallelize方法。其他方法请参考Spark核心RDD详解(设计与运行原理,分区,创建,转换,行动与持久化)
构建好RDD后就可以通过rdd行动与转换操作数据了。
@RestController
@RequestMapping("/analyze")
public class SaleTotalController implements Serializable {
@Resource
private JavaSparkContext sc;
//
@GetMapping("/consumption")
public SaleJson getTotal(){
ReadCSV readCSV = new ReadCSV();
List<String> columnList = readCSV.getColumnList("C:\\Users\\fireapproval\\Desktop\\数据集\\test.csv", 7);
columnList.remove(0);
//System.out.println(columnList);
List<Double> doubles = new ArrayList<>();
for (String str:columnList
) {
doubles.add(Double.parseDouble(str));
}
//System.out.println(doubles);
//System.out.println(doubles.get(2).getClass());
//内存中加载数据
JavaRDD<Double> rdd = sc.parallelize(doubles);
Double reduce = rdd.reduce((Function2<Double, Double, Double>) (aDouble, aDouble2) -> aDouble + aDouble2);
//System.out.println(reduce);
SaleJson saleJson = new SaleJson();
saleJson.setTotal(reduce);
return saleJson;
}
}
上述计算的逻辑代码应该放在服务层的,这里起演示作用。
如下为词频统计的核心RDD的操作:
JavaRDD<String> rdd = sc.parallelize(tmpList);
//JavaRDD<String> rdd1 = rdd.map(x -> x.concat("xxx"));
//转化为(word,1)类型
JavaPairRDD<String, Integer> wordMap = rdd.mapToPair((PairFunction<String, String, Integer>) word -> new Tuple2<String, Integer>(word, 1));
//对(word,1)计算 //必须要用匿名函数
JavaPairRDD<String, Integer> reduceMap = wordMap.reduceByKey((Function2<Integer, Integer, Integer>) (integer, integer2) -> integer + integer2);
//map接收rdd
Map<String, Integer> rddMap = reduceMap.collectAsMap();
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/156183.html